Intel-Xeon 6 Bietet bis zu 17-fache KI-Leistungssteigerungen 4 Jahrelange MLPerf-Ergebnisse


Heute, MLCommons hat Ergebnisse seiner branchenüblichen KI-Leistungs-Benchmark-Suite veröffentlicht, MLPerf-Inferenz v4.1. Intel hat Ergebnisse zu sechs MLPerf-Benchmarks für skalierbare Intel Xeon Prozessoren der 5. Generation vorgelegt, erstmals, Intel-Xeon 6 Prozessoren mit Performance-Kernen (P-Farben). Intel-Xeon 6 Prozessoren mit P-Kernen erzielten im Vergleich zu Xeon-Prozessoren der 5. Generation eine etwa 1,9-fache geometrische Leistungssteigerung bei der KI-Leistung.

“Die neuesten MLPerf-Ergebnisse zeigen, wie wichtig kontinuierliche Investitionen und Ressourcen für die Verbesserung der KI-Leistung sind. In den letzten vier Jahren, Wir haben die Messlatte für die KI-Leistung auf Intel Xeon-Prozessoren basierend auf MLPerf um das bis zu 17-fache angehoben. Da wir uns später in diesem Jahr der allgemeinen Verfügbarkeit nähern, Wir freuen uns darauf, Xeon hochzufahren 6 mit unseren Kunden und Partnern,” sagte Pallavi Mahajan, Intel Corporate Vice President und General Manager für Rechenzentren und KI-Software.

KI-Systeme benötigen CPUs als entscheidende Komponente, um Lösungen in einer Vielzahl von Szenarien erfolgreich bereitzustellen. Intel Xeon bietet eine großartige Lösung für KI-Inferenz, einschließlich klassischem maschinellen Lernen und Einbettung der Vektorsuche.

Mit MLPerf Inference v4.1, Intel hat Intel Xeon-Prozessoren und Xeon der 5. Generation eingereicht 6 Prozessoren mit P-Cores auf ResNet50, RetinaNet, 3DUNet, BERT, DLRM v2 und GPT-J. Verglichen mit Intel Xeon der 5. Generation, Xeon 6 Bietet im Durchschnitt eine etwa 1,9-mal bessere KI-Inferenzleistung in diesen sechs Benchmarks. Intel ist weiterhin der einzige Anbieter von Serverprozessoren, der CPU-Ergebnisse an MLPerf übermittelt.

In den letzten vier Jahren, Intel hat die KI-Leistung mit CPUs erheblich gesteigert, seit es erstmals MLPerf-Ergebnisse vorgelegt hat. Im Vergleich zu skalierbaren Intel Xeon Prozessoren der 3. Generation 2021, Xeon 6 schneidet bei der Verarbeitung natürlicher Sprache bis zu 17-mal besser ab (BERT) und bis zu 15-mal besser bei Computer Vision (ResNet50) Arbeitsbelastungen. Intel investiert weiterhin in KI für seine CPU-Roadmap. As an example, Mit Intel Advanced Matrix Extensions setzt es seine Innovationen fort (AMX) durch neue Datentypen und gesteigerte Effizienz.

Die neuesten MLCommons-Benchmarks zeigen, wie Xeon-Prozessoren Erstausrüstern leistungsstarke CPU-KI-Serverlösungen bieten (OEMs). Da der Bedarf an KI-Computing wächst und viele Kunden neben ihren Unternehmens-Workloads auch KI-Workloads ausführen, OEMs priorisieren MLPerf-Einreichungen, um sicherzustellen, dass sie ihren Kunden hochleistungsfähige Xeon-Systeme liefern, die für KI-Workloads optimiert sind.

Intel unterstützte fünf OEM-Partner – Cisco, Dell Technologies, HPE, Quanten und Supermikro – mit ihren MLPerf-Einsendungen in dieser Runde. Jeder Kunde reichte MLPerf-Ergebnisse mit skalierbaren Xeon-Prozessoren der 5. Generation ein, ihre Systeme vorzustellen’ Unterstützung für eine Vielzahl von KI-Workloads und -Bereitstellungen.

Intel wird weitere Informationen zu Xeon liefern 6 Prozessoren mit P-Kernen während einer Einführungsveranstaltung im September.