AMD dévoile les accélérateurs AMD Instinct MI300X et l’APU MI300A

AMD dévoile les accélérateurs AMD Instinct MI300X et l'APU MI300A

Le fondeur californien AMD annonce la disponibilité de ses accélérateurs AMD Instinct™ MI300X et de l’unité de traitement accéléré (APU) AMD Instinct™ MI300A, offrant des performances exceptionnelles pour les charges de travail en intelligence artificielle (IA) et en calcul haute performance (HPC). Découvrez comment ces innovations transforment le paysage technologique.

AMD a informé la disponibilité de ses accélérateurs AMD Instinct™ MI300X – offrant une bande passante mémoire inédite dans l’industrie pour l’IA générative et des performances de pointe pour l’entraînement et l’inférence des grands modèles de langage (LLM) – ainsi que l’unité de traitement accéléré (APU) AMD Instinct™ MI300A – combinant la dernière architecture AMD CDNA™ 3 et les processeurs «Zen 4» pour offrir des performances révolutionnaires pour les charges de travail HPC et IA.

Victor Peng, président d’AMD, a déclaré : « Les accélérateurs de la série AMD Instinct MI300 sont conçus avec nos technologies les plus avancées, offrant des performances de pointe, et seront déployés à grande échelle dans le cloud et les entreprises ».

Partenariats et déploiements

Parmi les clients tirant parti du dernier portefeuille d’accélérateurs AMD Instinct, on trouve Microsoft, qui a récemment annoncé la nouvelle série de machines virtuelles (VM) Azure ND MI300x v5, optimisée pour les charges de travail IA et alimentée par les accélérateurs AMD Instinct MI300X.

Par ailleurs, El Capitan – un superordinateur alimenté par des APU AMD Instinct MI300A et hébergé au Lawrence Livermore National Laboratory – devrait être le deuxième superordinateur de classe exascale alimenté par AMD et offrir plus de deux exaflops de performances en double précision lorsqu’il sera entièrement déployé.

Oracle Cloud Infrastructure prévoit quant à lui d’ajouter des instances de matériel nu basées sur AMD Instinct MI300X à l’offre d’instances de calcul accéléré haute performance de l’entreprise pour l’IA.

Caractéristiques des accélérateurs AMD Instinct MI300X

Les accélérateurs AMD Instinct MI300X sont alimentés par la nouvelle architecture AMD CDNA 3. Par rapport à la génération précédente d’accélérateurs AMD Instinct MI250X, le MI300X offre près de 40% de unités de calcul en plus, 1,5 fois plus de capacité mémoire, 1,7 fois plus de bande passante mémoire théorique maximale et prend en charge de nouveaux formats mathématiques tels que FP8 et la parcimonie, le tout orienté vers les charges de travail IA et HPC.

Les LLM d’aujourd’hui continuent de croître en taille et en complexité, nécessitant d’énormes quantités de mémoire et de calcul. Les accélérateurs AMD Instinct MI300X disposent d’une capacité de mémoire HBM3 de 192 Go et d’une bande passante mémoire maximale de 5,3 To/s pour offrir les performances requises pour les charges de travail IA de plus en plus exigeantes.

AMD Instinct MI300A : APU de centre de données pour le HPC et l’IA

L’APU AMD Instinct MI300A, première APU de centre de données au monde pour le HPC et l’IA, exploite l’empaquetage 3D et la 4e génération de l’architecture AMD Infinity pour offrir des performances de pointe sur les charges de travail critiques situées à la convergence du HPC et de l’IA.

Les APU MI300A combinent des cœurs GPU AMD CDNA 3 haute performance, les derniers cœurs CPU AMD «Zen 4» à base de x86 et 128 Go de mémoire HBM3 de nouvelle génération, pour offrir environ 1,9 fois la performance par watt sur les charges de travail HPC et IA en FP32, par rapport à la génération précédente d’AMD Instinct MI250X.

En synthèse

Les accélérateurs AMD Instinct MI300X et l’APU MI300A représentent une étape importante dans l’évolution des technologies IA et HPC. Grâce à des performances exceptionnelles, une bande passante mémoire élevée et une efficacité énergétique améliorée, ces innovations permettent aux entreprises et aux chercheurs de relever les défis les plus complexes dans divers domaines, comme l’IA générative, l’entraînement et l’inférence des grands modèles de langage, et les charges de travail HPC.

Pour une meilleure compréhension

Qu’est-ce que l’AMD Instinct MI300X ?

L’AMD Instinct MI300X est un accélérateur conçu pour offrir des performances de pointe pour l’entraînement et l’inférence des grands modèles de langage (LLM) et les charges de travail en intelligence artificielle (IA) générative.

Qu’est-ce que l’APU AMD Instinct MI300A ?

L’APU AMD Instinct MI300A est la première unité de traitement accéléré (APU) de centre de données au monde pour les charges de travail en calcul haute performance (HPC) et en intelligence artificielle (IA).

Quels sont les avantages des accélérateurs AMD Instinct MI300X et de l’APU MI300A ?

Les accélérateurs AMD Instinct MI300X et l’APU MI300A offrent des performances exceptionnelles, une bande passante mémoire élevée et une efficacité énergétique améliorée pour les charges de travail IA et HPC.

Quels sont les partenariats et déploiements liés à ces innovations ?

Microsoft, El Capitan et Oracle Cloud Infrastructure sont quelques-uns des partenaires et déploiements clés tirant parti du dernier portefeuille d’accélérateurs AMD Instinct.

Comment ces innovations transforment-elles le paysage technologique ?

Les accélérateurs AMD Instinct MI300X et l’APU MI300A permettent aux entreprises et aux chercheurs de relever les défis les plus complexes dans divers domaines, tels que l’IA générative, l’entraînement et l’inférence des grands modèles de langage, et les charges de travail HPC.

Références

Source : AMD / Images : AMD

[ Rédaction ]

Articles connexes