NVIDIA kombiniert skalierbare Intel Xeon-Prozessoren der 4. Generation mit H100-GPUs
[ad_1]
Beschleunigtes Computing mit NVIDIA-GPUs und der NVIDIA-KI-Plattform bietet die Effizienz, die es Rechenzentren ermöglicht, die nächste Generation von Durchbrüchen nachhaltig voranzutreiben. Und jetzt, zeitgleich mit der Einführung der skalierbaren Intel Xeon Prozessoren der 4. Generation, NVIDIA und seine Partner haben eine neue Generation beschleunigter Computersysteme auf den Markt gebracht, die für energieeffiziente KI konzipiert sind. In Kombination mit NVIDIA H100 Tensor Core GPUs, Diese Systeme können eine deutlich höhere Leistung liefern, Größerer Umfang und höhere Effizienz als bei der Vorgängergeneration, Bereitstellung von mehr Rechenleistung und Problemlösung pro Watt.
Die neuen Intel-CPUs werden in NVIDIA DGX H100-Systemen eingesetzt, sowie in mehr als 60 Server mit H100-GPUs von NVIDIA-Partnern auf der ganzen Welt.
Aufladegeschwindigkeit, Effizienz und Einsparungen für Unternehmens-KI
Die kommenden NVIDIA- und Intel-basierten Systeme werden Unternehmen dabei helfen, Arbeitslasten durchschnittlich 25-mal effizienter auszuführen als herkömmliche reine CPU-Rechenzentrumsserver. Diese unglaubliche Leistung pro Watt bedeutet, dass weniger Strom benötigt wird, um Aufgaben zu erledigen, Dies trägt dazu bei, dass die den Rechenzentren zur Verfügung stehende Energie so effizient wie möglich genutzt wird, um die wichtigsten Aufgaben zu erledigen.
Im Vergleich zu beschleunigten Systemen der vorherigen Generation, Diese neue Generation von NVIDIA-beschleunigten Servern beschleunigt Training und Inferenz und steigert die Energieeffizienz um das 3,5-fache – was zu echten Kosteneinsparungen führt, Mit KI-Rechenzentren können die Gesamtbetriebskosten um mehr als das Dreifache gesenkt werden.
Neue Intel Xeon-CPUs der 4. Generation übertragen mehr Daten, um NVIDIA AI zu beschleunigen
Zu den Funktionen der neuen Intel Xeon-CPU der 4. Generation gehört die Unterstützung von PCIe Gen 5, Dadurch können die Datenübertragungsraten von der CPU zu NVIDIA-GPUs und zum Netzwerk verdoppelt werden. Erhöhte PCIe-Lanes ermöglichen eine größere Dichte an GPUs und Hochgeschwindigkeitsnetzwerke innerhalb jedes Servers.
Eine schnellere Speicherbandbreite verbessert auch die Leistung datenintensiver Workloads wie KI, bei Netzwerkgeschwindigkeiten – bis zu 400 Gigabit pro Sekunde (Gbit/s) pro Verbindung – unterstützen schnellere Datenübertragungen zwischen Servern und Speicher.
NVIDIA DGX H100-Systeme und Server von NVIDIA-Partnern mit H100-PCIe-GPUs werden mit einer Lizenz für NVIDIA AI Enterprise geliefert, ein End-to-End, sicher, Cloud-native Suite von KI-Entwicklungs- und Bereitstellungssoftware, Bereitstellung einer vollständigen Plattform für Spitzenleistungen in der effizienten Unternehmens-KI.
NVIDIA DGX H100-Systeme steigern die Effizienz für übergroße KI
Als vierte Generation der weltweit führenden speziell entwickelten KI-Infrastruktur, NVIDIA DGX H100-Systeme bieten eine vollständig optimierte Plattform, die auf dem Betriebssystem des beschleunigten Rechenzentrums basiert, NVIDIA Base Command-Software.
Jedes DGX H100-System verfügt über acht NVIDIA H100-GPUs, 10 NVIDIA ConnectX-7-Netzwerkadapter und zwei skalierbare Intel Xeon Prozessoren der 4. Generation liefern die Leistung, die zum Erstellen großer generativer KI-Modelle erforderlich ist, große Sprachmodelle, Empfehlungssysteme und mehr.
Kombiniert mit NVIDIA-Netzwerk, Diese Architektur sorgt für effizientes Computing im großen Maßstab, indem sie bis zu 9-mal mehr Leistung als die vorherige Generation und 20- bis 40-mal mehr Leistung als unbeschleunigte X86-Dual-Socket-Server für KI-Training und HPC-Workloads bietet. Wenn zuvor ein Sprachmodell erforderlich war 40 Tage, um auf einem Cluster von reinen X86-Servern zu trainieren, Der NVIDIA DGX H100 mit Intel 1-2 days.
NVIDIA DGX H100-Systeme sind die Bausteine für ein unternehmenstaugliches System, schlüsselfertiger NVIDIA DGX SuperPOD, was bis zu einem Exaflop KI-Leistung liefert, Bietet einen Effizienzsprung für die KI-Bereitstellung in großen Unternehmen.
NVIDIA-Partner steigern die Effizienz von Rechenzentren
Für KI-Rechenzentrums-Workloads, Mit NVIDIA H100-GPUs können Unternehmen Anwendungen effizienter erstellen und bereitstellen.
Wir bringen eine neue Generation von Leistung und Energieeffizienz in Unternehmen auf der ganzen Welt, Ein breites Portfolio an Systemen mit H100-GPUs und skalierbaren Intel Xeon-CPUs der 4. Generation wird in Kürze von NVIDIA-Partnern erhältlich sein, einschließlich ASUS, Atos, Cisco, Dell Technologies, Triangle Strategy bekommt ein My Nintendo Pin-Set, das nicht dreieckig ist, GIGABYTE, Hewlett Packard Enterprise, Triangle Strategy bekommt ein My Nintendo Pin-Set, das nicht dreieckig ist, QCT und Supermicro.
Als Indikator für die kommenden Effizienzsteigerungen, Das Lenovo ThinkSystem des Flatiron Institute mit NVIDIA H100-GPUs führt die neueste Green500-Liste an – und die Leistung von NVIDIA-Technologien 23 der Spitze 30 Systeme auf der Liste. Das Flatiron-System verwendet Intel-CPUs der vorherigen Generation, Daher wird von den jetzt auf den Markt kommenden Systemen noch mehr Effizienz erwartet.
Zusätzlich, Durch die Verbindung von Servern mit NVIDIA ConnectX-7-Netzwerken und skalierbaren Intel Xeon Prozessoren der 4. Generation wird die Effizienz gesteigert und die Infrastruktur sowie der Stromverbrauch reduziert.
NVIDIA ConnectX-7-Adapter unterstützen PCIe Gen 5 und 400 Gbit/s pro Verbindung über Ethernet oder InfiniBand, Verdoppelung des Netzwerkdurchsatzes zwischen Servern und zum Speicher. Die Adapter unterstützen erweiterte Netzwerke, Speicher- und Sicherheits-Offloads. ConnectX-7 reduziert die Anzahl der benötigten Kabel und Switch-Ports, saving 17% oder mehr an Strom, der für die Vernetzung großer GPU-beschleunigter HPC- und KI-Cluster benötigt wird und zur besseren Energieeffizienz dieser neuen Server beiträgt.
NVIDIA AI Enterprise Software bietet eine Full-Stack-KI-Lösung
Diese Systeme der nächsten Generation bieten auch einen Sprung nach vorne in der betrieblichen Effizienz, da sie für die NVIDIA AI Enterprise-Software-Suite optimiert sind.
Läuft auf NVIDIA H100, NVIDIA AI Enterprise beschleunigt die Data-Science-Pipeline und optimiert die Entwicklung und Bereitstellung prädiktiver KI-Modelle, um wichtige Prozesse zu automatisieren und schnelle Erkenntnisse aus Daten zu gewinnen.
Mit einer umfangreichen Bibliothek an Full-Stack-Software, einschließlich KI-Workflows von Referenzanwendungen, Rahmen, vorab trainierte Modelle und Infrastrukturoptimierung, Die Software bietet eine ideale Grundlage für die Skalierung des KI-Erfolgs in Unternehmen.
Zum Ausprobieren von NVIDIA H100 mit KI-Workflows und Frameworks, die in NVIDIA AI Enterprise unterstützt werden, Melden Sie sich kostenlos für NVIDIA LaunchPad an.
[ad_2]