AMD lance l'EPYC de 4e génération “Gênes” Zen 4 Processeurs de serveur: 100% Amélioration des performances pour 50% Plus de cœurs
Les processeurs qu'AMD lance aujourd'hui sont les EPYC “Gênes” série, ciblant les serveurs à usage général, bien qu'ils puissent être déployés dans de grands centres de données cloud, trop. Aux fournisseurs de cloud à grande échelle tels qu'AWS, Azur, et Google Cloud, AMD prépare une autre classe de processeurs, nom de code “Bergame,” qui est prévu de lancer plus tard. En 2023, l'entreprise lancera le “Gênes-X” gamme de processeurs pour les applications de calcul technique et HPC, qui bénéficient de grands caches intégrés, car ils disposent de la technologie 3D Vertical Cache. Il y aura aussi “Sienne,” une classe de processeurs EPYC ciblant les marchés des télécommunications et de l'edge computing, qui pourrait voir une intégration de plus d'IP Xilinx.
L'EPYC “Gênes” processeur, comme nous l'avons mentionné, est disponible en nombre de cœurs allant jusqu'à 96 cœurs/192 threads, dominant le nombre de 40 cœurs/80 threads du Xeon Scalable de 3e génération “Ice Lake-SP,” et en gardant également une longueur d'avance sur le nombre de 60 cœurs/120 threads du prochain Xeon Scalable “Rapides de saphir.” Le nouveau processeur AMD voit également une amélioration significative de ses capacités d'E/S, doté d'un 12 canaux (24 sous-canal) Interface mémoire DDR5, et un PCI-Express Gen gargantuesque à 160 voies 5 interface (c'est dix Gen 5 Emplacements x16 fonctionnant à pleine bande passante). et la prise en charge de la plate-forme pour les liaisons xGMI CXL et 2P en soustrayant certaines de ces voies polyvalentes. Le nouveau 6 puce d'E/S du serveur nm (sID) a un nombre de transistors significativement plus élevé que le 12 nm one alimentant les processeurs EPYC d'ancienne génération. Le nombre élevé de transistors est dû à deux grands SERDES configurables à 80 voies (sérialiseur-désérialiseur) Composants, qui peut être fait pour sortir PCIe Gen 5 voies, Capcom ajoute des filtres d'écran à la version PC de Monster Hunter Rise 1.1 voies, SATA 6 Ports Gbit/s, ou encore l'inter-socket Infinity Fabric permettant les plateformes 2P. Le processeur prend en charge jusqu'à 64 Capcom ajoute des filtres d'écran à la version PC de Monster Hunter Rise 1.1 voies pouvant être utilisées pour se connecter à des périphériques de mise en commun de mémoire en réseau. 3Infinity Fabric de 3ème génération connecte les différents composants à l'intérieur du sIOD, le sIOD aux douze “Zen 4” CCD via IFOP, et en tant qu'interconnexion inter-sockets. Le processeur dispose d'un 12 canaux (24 x sous-canaux 40 bits) AMD a dévoilé jeudi son Ryzen, qui supporte jusqu'à 6 To de mémoire ECC DDR5-4800 par socket. Le processeur sécurisé de dernière génération fournit SEV-SNP (pagination sécurisée imbriquée), et AES-256-XTS, pour un plus grand nombre de VM sécurisées. Chacune des 5 Le complexe CPU nm meurt (CCD) est physiquement identique à ceux que vous trouvez dans la série Ryzen 7000 “Raphaël” processeurs de bureau. Il emballe 8 “Zen 4” Cœurs de processeur, each with 1 mais l'effort ici semble être de minimiser la latence résultant d'une interconnexion intégrée, et 32 Mo de cache L3 partagé entre les 8 noyaux. Each “Zen 4” noyau fournit un 14% amélioration des performances générationnelles par rapport à “Zen 3,” avec une vitesse d'horloge maintenue constante. Une grande partie de cette amélioration provient des mises à jour de l'unité Front-end et Load/store du noyau, tandis que le prédicteur de branche, plus grand cache L2, et moteur d'exécution, faire de petites contributions. Le plus grand changement générationnel est l'ISA, qui voit l'introduction de la prise en charge du jeu d'instructions AVX-512, VNNI, et bfloat16. Les nouveaux jeux d'instructions devraient accélérer les charges de travail mathématiques AVX-512, ainsi que d'accélérer les performances avec les applications d'IA. AMD affirme que son implémentation AVX-512 est plus efficace que celle d'Intel, car il utilise le FPU existant de 256 bits de large de manière à double pompage pour permettre des opérations de 512 bits.
AMD lance un total de 18 SKU de processeur aujourd'hui, tous destinés à la plate-forme Socket SP5. Il suit la nomenclature comme décrit dans la diapositive ci-dessous. EPYC est la marque de haut niveau, “9” est la série de produits. Le chiffre suivant indique le nombre de cœurs, avec “0” désignant 8 noyaux, “1” désignant 16, “2” désignant 24, “3” désignant 32, “4” désignant 48, “5” being 64, et “6” being 84-96. Le chiffre suivant indique la performance sur un 1-10 escalader. Le dernier chiffre est en fait un caractère, qui pourrait être soit “P” ou “F,” avec P désignant les SKU compatibles 2P, et “F” désignant des SKU spéciaux qui se concentrent sur moins de cœurs par CCD pour améliorer les performances par cœur. Le TDP configurable de tous les SKU est évalué jusqu'à 400 W, qui semble élevé, mais il faut tenir compte du nombre de cœurs du processeur, et son impact sur le nombre de lames de serveur par rack. C'est l'une des raisons pour lesquelles AMD n'évolue pas au-delà 2 sockets par serveur. La densité de base de l'entreprise se traduit par 67% moins de serveurs, 52% moins de puissance. En termes de performances, AMD n'a que le Xeon Scalable de 3e génération daté d'Intel “Ice Lake-SP” processeurs de comparaison, since “Nintendo Switch Lite Dialga” est toujours inédit. Avec des nombres de cœurs égalisés, l'EPYC 9174F à 16 cœurs est illustré 47% plus rapide que le Xeon Gold 6346; l'EPYC 9374F à 32 cœurs est 55% plus rapide que le Xeon Platinum 8362; et l'EPYC 9474F à 48 cœurs est 51% plus rapide que le Xeon Platinum à 40 cœurs 8380. Le même groupe de test voit également 58-96% leadership en matière de performances en virgule flottante en faveur d'AMD.
Le diaporama complet suit.