Plan HBM de Samsung : HBM4 en tête pour les expéditions cette année, la plaquette HBM5 mise à niveau vers 2 nanomètres

robot
Création du résumé en cours

Samsung Electronics accélère le développement de la prochaine génération de mémoire à large bande passante. Alors que le HBM4 entre en production de masse cette année, Samsung vise plus loin avec une génération supérieure — prévoyant de faire passer la technologie de substrat HBM5 de 4 nm à 2 nm, et utilisant la DRAM 1d comme stockage empilé central pour HBM5E. Par ailleurs, le HBM4 représentera plus de la moitié des expéditions totales de HBM de Samsung cette année, avec une capacité globale plus de trois fois supérieure à celle de l’année dernière.

Selon ETNews et l’agence de presse coréenne Yonhap, Hwang Sang-jun, responsable du développement de la mémoire chez Samsung et vice-président, a dévoilé ces plans lors de la conférence GTC de Nvidia. Il a indiqué que le substrat (base die) de HBM5 sera fabriqué en utilisant la technologie de 2 nm de Samsung, marquant une mise à niveau intergénérationnelle par rapport aux 4 nm de HBM4 et HBM4E, afin de répondre aux exigences accrues en performance mémoire pour les charges de travail AI de nouvelle génération.

Concernant la capacité, Hwang Sang-jun a déclaré que Samsung prévoit que le HBM4 représentera plus de 50 % de toutes les expéditions de HBM cette année, avec une production totale triplée par rapport à l’année précédente. Cette déclaration montre la détermination de Samsung à étendre sa présence sur le marché du stockage AI, influençant directement la dynamique du marché des DRAM haut de gamme et la chaîne d’approvisionnement des accélérateurs AI en aval.

En plus de la feuille de route de stockage, Hwang Sang-jun a également révélé que le processeur d’inférence Groq 3 est en production dans le parc de Pyeongtaek, avec un objectif de production de masse prévu pour la fin du troisième trimestre ou le début du quatrième trimestre, avec des commandes dépassant les attentes. Samsung étend ainsi son rôle, passant d’un simple fournisseur de mémoire à un partenaire complet dans la fabrication d’accélérateurs AI.

Technologie du substrat HBM5 : passage de 4 nm à 2 nm

Selon ETNews, Hwang Sang-jun a confirmé lors de la GTC de Nvidia que le substrat de HBM5 sera fabriqué en utilisant la technologie de 2 nm de Samsung, une avancée significative par rapport aux 4 nm de HBM4 et HBM4E. L’amélioration de la technologie du substrat contribue généralement à augmenter la bande passante et l’efficacité énergétique de la mémoire.

Hwang Sang-jun a souligné que l’adoption de procédés de pointe entraînera inévitablement une hausse des coûts, mais que pour atteindre les performances cibles de HBM, l’introduction de technologies avancées est indispensable. Cela clarifie la voie technologique de Samsung pour faire progresser la performance dans le domaine du stockage AI haut de gamme via une mise à niveau technologique.

Concernant HBM5E, ETNews rapporte que Hwang Sang-jun a indiqué que ce produit utilisera la DRAM 1d comme stockage empilé central, une nouvelle évolution par rapport à la DRAM 1c utilisée dans HBM4 et HBM4E.

La DRAM 1d pour HBM5E est encore en phase de développement interne chez Samsung, sans commercialisation pour l’instant. Cependant, selon des sources citées par ETNews, Samsung a déjà obtenu de bonnes performances et un taux de réussite élevé lors des tests, ce qui indique une avancée positive vers la production de masse.

HBM4 domine les expéditions cette année, avec une capacité triplée

Selon Yonhap, Hwang Sang-jun a déclaré que l’objectif de Samsung cette année est que le HBM4 représente plus de 50 % de toutes les expéditions de HBM, avec une production totale triplée par rapport à l’année précédente.

Le HBM4 n’est entré en production de masse que cette année. Samsung prévoit d’accroître considérablement sa capacité globale de HBM pour répondre à la demande croissante du marché des puces AI à haute bande passante. La réalisation de cette expansion de capacité aura un impact significatif sur la dynamique du marché des DRAM haut de gamme.

Groq 3 en sous-traitance : Samsung étend son rôle dans l’écosystème Nvidia

Au-delà du stockage, Samsung étend son rôle dans la chaîne de valeur AI en sous-traitant la fabrication du processeur d’inférence Groq 3.

Selon Yonhap, Hwang Sang-jun a indiqué que le PDG de Nvidia, Jensen Huang, a reconnu publiquement la contribution de Samsung à Groq 3. Ce processeur est en production dans le parc de Pyeongtaek, avec un objectif de production de masse prévu pour la fin du troisième trimestre ou le début du quatrième trimestre, avec des commandes dépassant déjà les prévisions.

Selon Yonhap, la puce Groq 3 a une surface de plus de 700 mm², et chaque wafer ne peut produire qu’environ 64 puces, bien en dessous des 400 à 600 généralement produits. Environ 70 à 80 % de sa surface est occupée par de la SRAM, permettant des calculs rapides d’inférence directement sur la puce sans dépendre de HBM externe. Hwang Sang-jun a également révélé qu’avant même la signature de l’accord de licence avec Nvidia, Samsung était déjà client de la fabrication de cette puce chez Samsung Foundry.

D’après SEDaily, la fabrication par Samsung du processeur Groq 3 LPU est largement considérée comme une étape clé pour devenir un partenaire central dans la plateforme AI de nouvelle génération. Après avoir intégré la chaîne d’approvisionnement de Nvidia, Samsung a étendu son rôle, passant de simple fournisseur de mémoire à fabricant de LPU, approfondissant ainsi sa collaboration avec l’écosystème Nvidia.

Avertissement sur les risques et clauses de non-responsabilité

        Le marché comporte des risques, l’investissement doit être prudent. Cet article ne constitue pas un conseil d’investissement personnel et ne prend pas en compte les objectifs, la situation financière ou les besoins spécifiques de chaque utilisateur. Les utilisateurs doivent évaluer si les opinions, points de vue ou conclusions présentés ici conviennent à leur situation particulière. En investissant sur cette base, la responsabilité en incombe à l’investisseur.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler