Intel wird nicht bald mit der High-End-KI-Dominanz von NVIDIA konkurrieren können, Beginnt mit der Entlassung von vorne 2,200 Arbeiter in den ganzen USA

[ad_1]

Intel geht mit seinem Gaudi einen anderen Weg 3 Beschleunigerchips. Es geht darum, sich vom stark nachgefragten Markt für das Training großer KI-Modelle fernzuhalten, was NVIDIA so erfolgreich gemacht hat. Stattdessen, Intel möchte Unternehmen, die günstigere KI-Lösungen benötigen, dabei helfen, kleinere spezifische Modelle und Open-Source-Optionen zu trainieren und auszuführen. Bei einer kürzlichen Veranstaltung, Intel hat über Gaudi 3 gesprochen “Preis-Leistungs-Vorteil” über NVIDIAs H100-GPU für Inferenzaufgaben. Intel sagt Gaudi 3 ist beim Betrieb von Llama schneller und kostengünstiger als der H100 3 und Lama 2 Modelle in verschiedenen Größen.

Intel behauptet auch, dass Gaudi 3 ist genauso energieeffizient wie das Modell H100 für große Sprachen (LLM) Inferenz mit kleinen Token-Ausgaben und sogar noch besser mit größeren Ausgaben. Das Unternehmen schlägt sogar Gaudi vor 3 übertrifft NVIDIAs neueres H200 im LLM-Inferenzdurchsatz für große Token-Ausgaben. Jedoch, Gaudí 3 erreicht beim Gesamtdurchsatz von Gleitkommaoperationen für 16-Bit- und 8-Bit-Formate nicht den H100. Für bfloat16 und 8-Bit-Gleitkomma-Präzisionsmatrix-Mathematik, Gaudí 3 Treffer 1,835 TFLOPS in jedem Format, während der H100 reicht 1,979 TFLOPS für BF16 und 3,958 TFLOPS für FP8.

In einem Interview mit CRN, Anil Nanduri, Leiter des KI-Beschleunigungsbüros von Intel, gab an, dass sich Kaufentscheidungen für die KI-Trainingsinfrastruktur in erster Linie auf die Leistung und nicht auf die Kosten konzentriert haben.

“Und wenn Sie in diesem Zusammenhang denken, es besteht ein Anspruchsvorteil, wo die ganze Grenzmodellforschung stattfindet, Alle Funktionen werden auf der De-facto-Plattform entwickelt, auf der Sie sie erstellen, Du erforschst es, und du bist, im Wesentlichen, auch unbewusst optimieren. Und dann diesen Hafen zu überarbeiten [auf eine andere Plattform] ist Arbeit.

Die Welt, die wir zu sehen beginnen, ist, dass die Menschen das in Frage stellen [Kapitalrendite], die Kosten, die Macht und alles andere. Das ist der Punkt – ich habe keine Kristallkugel – aber die Art und Weise, wie wir darüber denken, ist so, Wollen Sie ein riesiges Model, das alles weiß??”, Anil Nanduri, der Leiter des KI-Beschleunigungsbüros von Intel.

Intel glaubt, dass dies für viele Unternehmen der Fall ist, Die Antwort ist “no” und sie werden sich stattdessen für kleinere Modelle entscheiden, die auf Aufgaben mit geringeren Leistungsanforderungen basieren. Nanduri sagte das, während Gaudi 3 kippen “aufholen” zu NVIDIAs neuesten GPUs, vom Gesichtspunkt der Kopf-an-Kopf-Leistung, Gaudí 3 Chips sind ideal, um den richtigen Systemen die Ausführung aufgabenbasierter und Open-Source-Modelle zu ermöglichen.

Zu einem anderen Thema, Intel hat im Rahmen seines umfassenderen Plans zur Personalverkleinerung in mehreren Bundesstaaten umfangreiche Stellenkürzungen angekündigt. Das Unternehmen wird liquidiert 1,300 Positionen in Oregon, 385 in Arizona, 319 in Kalifornien, und 251 in Texas. Intel hat eine Belegschaft von über 23,000 in Oregon, 12,000 in Arizona, 13,500 in Kalifornien, und 2,100 in Texas. Die Entlassungen sollen ab November über einen Zeitraum von 14 Tagen erfolgen 15.

[ad_2]