Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Plan HBM de Samsung : HBM4 en tête pour les expéditions cette année, la plaquette HBM5 mise à niveau vers 2 nanomètres
Samsung Electronics accélère le développement de la prochaine génération de mémoire à large bande passante. Alors que le HBM4 entre en production de masse cette année, Samsung vise plus loin avec une génération supérieure — prévoyant de faire passer la technologie de substrat HBM5 de 4 nm à 2 nm, et utilisant la DRAM 1d comme stockage empilé central pour HBM5E. Par ailleurs, le HBM4 représentera plus de la moitié des expéditions totales de HBM de Samsung cette année, avec une capacité globale plus de trois fois supérieure à celle de l’année dernière.
Selon ETNews et l’agence de presse coréenne Yonhap, Hwang Sang-jun, responsable du développement de la mémoire chez Samsung et vice-président, a dévoilé ces plans lors de la conférence GTC de Nvidia. Il a indiqué que le substrat (base die) de HBM5 sera fabriqué en utilisant la technologie de 2 nm de Samsung, marquant une mise à niveau intergénérationnelle par rapport aux 4 nm de HBM4 et HBM4E, afin de répondre aux exigences accrues en performance mémoire pour les charges de travail AI de nouvelle génération.
Concernant la capacité, Hwang Sang-jun a déclaré que Samsung prévoit que le HBM4 représentera plus de 50 % de toutes les expéditions de HBM cette année, avec une production totale triplée par rapport à l’année précédente. Cette déclaration montre la détermination de Samsung à étendre sa présence sur le marché du stockage AI, influençant directement la dynamique du marché des DRAM haut de gamme et la chaîne d’approvisionnement des accélérateurs AI en aval.
En plus de la feuille de route de stockage, Hwang Sang-jun a également révélé que le processeur d’inférence Groq 3 est en production dans le parc de Pyeongtaek, avec un objectif de production de masse prévu pour la fin du troisième trimestre ou le début du quatrième trimestre, avec des commandes dépassant les attentes. Samsung étend ainsi son rôle, passant d’un simple fournisseur de mémoire à un partenaire complet dans la fabrication d’accélérateurs AI.
Technologie du substrat HBM5 : passage de 4 nm à 2 nm
Selon ETNews, Hwang Sang-jun a confirmé lors de la GTC de Nvidia que le substrat de HBM5 sera fabriqué en utilisant la technologie de 2 nm de Samsung, une avancée significative par rapport aux 4 nm de HBM4 et HBM4E. L’amélioration de la technologie du substrat contribue généralement à augmenter la bande passante et l’efficacité énergétique de la mémoire.
Hwang Sang-jun a souligné que l’adoption de procédés de pointe entraînera inévitablement une hausse des coûts, mais que pour atteindre les performances cibles de HBM, l’introduction de technologies avancées est indispensable. Cela clarifie la voie technologique de Samsung pour faire progresser la performance dans le domaine du stockage AI haut de gamme via une mise à niveau technologique.
Concernant HBM5E, ETNews rapporte que Hwang Sang-jun a indiqué que ce produit utilisera la DRAM 1d comme stockage empilé central, une nouvelle évolution par rapport à la DRAM 1c utilisée dans HBM4 et HBM4E.
La DRAM 1d pour HBM5E est encore en phase de développement interne chez Samsung, sans commercialisation pour l’instant. Cependant, selon des sources citées par ETNews, Samsung a déjà obtenu de bonnes performances et un taux de réussite élevé lors des tests, ce qui indique une avancée positive vers la production de masse.
HBM4 domine les expéditions cette année, avec une capacité triplée
Selon Yonhap, Hwang Sang-jun a déclaré que l’objectif de Samsung cette année est que le HBM4 représente plus de 50 % de toutes les expéditions de HBM, avec une production totale triplée par rapport à l’année précédente.
Le HBM4 n’est entré en production de masse que cette année. Samsung prévoit d’accroître considérablement sa capacité globale de HBM pour répondre à la demande croissante du marché des puces AI à haute bande passante. La réalisation de cette expansion de capacité aura un impact significatif sur la dynamique du marché des DRAM haut de gamme.
Groq 3 en sous-traitance : Samsung étend son rôle dans l’écosystème Nvidia
Au-delà du stockage, Samsung étend son rôle dans la chaîne de valeur AI en sous-traitant la fabrication du processeur d’inférence Groq 3.
Selon Yonhap, Hwang Sang-jun a indiqué que le PDG de Nvidia, Jensen Huang, a reconnu publiquement la contribution de Samsung à Groq 3. Ce processeur est en production dans le parc de Pyeongtaek, avec un objectif de production de masse prévu pour la fin du troisième trimestre ou le début du quatrième trimestre, avec des commandes dépassant déjà les prévisions.
Selon Yonhap, la puce Groq 3 a une surface de plus de 700 mm², et chaque wafer ne peut produire qu’environ 64 puces, bien en dessous des 400 à 600 généralement produits. Environ 70 à 80 % de sa surface est occupée par de la SRAM, permettant des calculs rapides d’inférence directement sur la puce sans dépendre de HBM externe. Hwang Sang-jun a également révélé qu’avant même la signature de l’accord de licence avec Nvidia, Samsung était déjà client de la fabrication de cette puce chez Samsung Foundry.
D’après SEDaily, la fabrication par Samsung du processeur Groq 3 LPU est largement considérée comme une étape clé pour devenir un partenaire central dans la plateforme AI de nouvelle génération. Après avoir intégré la chaîne d’approvisionnement de Nvidia, Samsung a étendu son rôle, passant de simple fournisseur de mémoire à fabricant de LPU, approfondissant ainsi sa collaboration avec l’écosystème Nvidia.
Avertissement sur les risques et clauses de non-responsabilité