Intel publie une bibliothèque de tri optimisée par AVX-512, Offre une accélération 10 à 17 fois supérieure
[ad_1]
Intel a récemment mis à jour sa bibliothèque de fichiers d'en-tête C++ open source pour un tri hautes performances basé sur SIMD afin de prendre en charge le jeu d'instructions AVX-512 SIMD. Extension de la capacité de prise en charge régulière d'AVX2, les fonctions de tri implémentent désormais des extensions 512 bits pour offrir de meilleures performances. D'après Phoronix, la bibliothèque NumPy Python pour les mathématiques qui sous-tend de nombreux logiciels a mis à jour sa base logicielle pour utiliser la fonctionnalité de tri optimisée AVX-512 qui offre une amélioration fantastique des performances. La bibliothèque utilise AVX-512 pour vectoriser le tri rapide pour les types de données 16 bits et 64 bits à l'aide du jeu d'instructions étendu. Testé sur un système Intel Tiger Lake, le tri NumPy a vu ses performances augmenter de 10 à 17 fois.
L'ingénieur d'Intel Raghuveer Devulapalli a changé le code NumPy, qui a été fusionné dans la base de code NumPy mercredi. Concernant les types de données individuels, la nouvelle implémentation augmente le tri int 16 bits de 17x et le tri des types de données 32 bits de 12-13x, tandis que le tri flottant 64 bits pour les tableaux aléatoires a été multiplié par 10. Utilisation du code x86-simd-sort, cette accélération montre la puissance d'AVX-512 et sa capacité à améliorer les performances de diverses bibliothèques. Nous espérons voir plus d'implémentations d'AVX-512, car AMD a rejoint la fête en plaçant des éléments de traitement AVX-512 sur Zen 4.
[ad_2]