Intel-Xeon 6 Bietet bis zu 17-fache KI-Leistungssteigerungen 4 Jahrelange MLPerf-Ergebnisse
“Die neuesten MLPerf-Ergebnisse zeigen, wie wichtig kontinuierliche Investitionen und Ressourcen für die Verbesserung der KI-Leistung sind. In den letzten vier Jahren, Wir haben die Messlatte für die KI-Leistung auf Intel Xeon-Prozessoren basierend auf MLPerf um das bis zu 17-fache angehoben. Da wir uns später in diesem Jahr der allgemeinen Verfügbarkeit nähern, Wir freuen uns darauf, Xeon hochzufahren 6 mit unseren Kunden und Partnern,” sagte Pallavi Mahajan, Intel Corporate Vice President und General Manager für Rechenzentren und KI-Software.
KI-Systeme benötigen CPUs als entscheidende Komponente, um Lösungen in einer Vielzahl von Szenarien erfolgreich bereitzustellen. Intel Xeon bietet eine großartige Lösung für KI-Inferenz, einschließlich klassischem maschinellen Lernen und Einbettung der Vektorsuche.
Mit MLPerf Inference v4.1, Intel hat Intel Xeon-Prozessoren und Xeon der 5. Generation eingereicht 6 Prozessoren mit P-Cores auf ResNet50, RetinaNet, 3DUNet, BERT, DLRM v2 und GPT-J. Verglichen mit Intel Xeon der 5. Generation, Xeon 6 Bietet im Durchschnitt eine etwa 1,9-mal bessere KI-Inferenzleistung in diesen sechs Benchmarks. Intel ist weiterhin der einzige Anbieter von Serverprozessoren, der CPU-Ergebnisse an MLPerf übermittelt.
In den letzten vier Jahren, Intel hat die KI-Leistung mit CPUs erheblich gesteigert, seit es erstmals MLPerf-Ergebnisse vorgelegt hat. Im Vergleich zu skalierbaren Intel Xeon Prozessoren der 3. Generation 2021, Xeon 6 schneidet bei der Verarbeitung natürlicher Sprache bis zu 17-mal besser ab (BERT) und bis zu 15-mal besser bei Computer Vision (ResNet50) Arbeitsbelastungen. Intel investiert weiterhin in KI für seine CPU-Roadmap. As an example, Mit Intel Advanced Matrix Extensions setzt es seine Innovationen fort (AMX) durch neue Datentypen und gesteigerte Effizienz.
Die neuesten MLCommons-Benchmarks zeigen, wie Xeon-Prozessoren Erstausrüstern leistungsstarke CPU-KI-Serverlösungen bieten (OEMs). Da der Bedarf an KI-Computing wächst und viele Kunden neben ihren Unternehmens-Workloads auch KI-Workloads ausführen, OEMs priorisieren MLPerf-Einreichungen, um sicherzustellen, dass sie ihren Kunden hochleistungsfähige Xeon-Systeme liefern, die für KI-Workloads optimiert sind.
Intel unterstützte fünf OEM-Partner – Cisco, Dell Technologies, HPE, Quanten und Supermikro – mit ihren MLPerf-Einsendungen in dieser Runde. Jeder Kunde reichte MLPerf-Ergebnisse mit skalierbaren Xeon-Prozessoren der 5. Generation ein, ihre Systeme vorzustellen’ Unterstützung für eine Vielzahl von KI-Workloads und -Bereitstellungen.
Intel wird weitere Informationen zu Xeon liefern 6 Prozessoren mit P-Kernen während einer Einführungsveranstaltung im September.