Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 30 modèles d’IA, avec 0 % de frais supplémentaires
Je remarque simplement en suivant l'industrie de l'IA qu'il se produit un schéma étrange. Il y a seulement huit ans, une entreprise chinoise de télécommunications a littéralement perdu la vie à cause d'un embargo. Mais aujourd'hui, d'autres entreprises chinoises d'IA croissent rapidement malgré une pression plus forte. Qu'est-ce qui a vraiment changé ?
Revenons à 2018. ZTE était l'un des plus grands fabricants d'équipements de télécommunications au monde—80 000 employés, des milliards de revenus annuels. Puis, en une seule journée, une commande du Bureau américain de l'industrie et de la sécurité a fermé toute l'entreprise. Aucun composant américain, aucune licence Google, aucun système d'exploitation. Trois semaines plus tard, ZTE a annoncé qu'elle ne pouvait plus faire fonctionner son activité. Ils ont payé une amende de 1,4 milliard de dollars, mais le vrai problème était dans l'écosystème—ils dépendaient totalement de la chaîne d'approvisionnement mondiale contrôlée par les États-Unis.
Aujourd'hui, même avec des restrictions similaires, les entreprises chinoises d'IA ne subissent pas le même sort. Pourquoi ? Parce que le problème ne concerne pas seulement le matériel. Le véritable goulot d'étranglement, c'est CUDA.
Je parle de cela parce que la plupart des gens supposent que l'interdiction des puces concerne les puces elles-mêmes. C'est une erreur. CUDA—la plateforme de calcul parallèle de NVIDIA depuis 2006—est le vrai obstacle. Tous les principaux frameworks d'IA dans le monde, de TensorFlow de Google à PyTorch de Meta, dépendent profondément de CUDA. Lorsqu'un chercheur en IA apprend, CUDA est le premier outil qu'il maîtrise. Chaque ligne de code renforce l'écosystème de NVIDIA.
D'ici 2025, il y aura 4,5 millions de développeurs dans l'écosystème CUDA, plus de 3000 applications accélérées par GPU, et 40 000 entreprises dans le monde l'utilisent. Cela représente 90 % des développeurs mondiaux en IA. C'est un effet volant—une fois lancé, il est presque impossible à arrêter. Plus de développeurs, plus d'outils. Plus d'outils, plus de développeurs qui rejoignent. Le résultat ? NVIDIA fixe les règles, et tout le monde suit.
Ainsi, entre 2022 et 2024, le gouvernement américain a mis en œuvre trois vagues de restrictions à l'exportation de puces NVIDIA. D'abord A100 et H100, puis A800 et H800, puis H20. Mais cela n'a pas déclenché la même panique qu'avec ZTE. Pourquoi ? Parce que les entreprises chinoises ont pivoté vers l'optimisation algorithmique plutôt que de se rebeller contre le matériel.
DeepSeek en est le meilleur exemple. Leur modèle V3 compte 671 milliards de paramètres, mais chaque inférence n'utilise que 37 milliards—seulement 5,5 % du total. Pour l'entraîner, ils ont utilisé seulement 2 048 GPU NVIDIA H800 pendant 58 jours, pour un coût total de 5,576 millions de dollars. Comparez cela aux 78 millions de dollars estimés pour GPT-4. Une différence d'ordre de grandeur.
Le prix parle encore plus. L'entrée API de DeepSeek coûte entre 0,028 et 0,28 dollars par million de tokens, la sortie 0,42 dollar. GPT-4 coûte 5 dollars pour l'entrée, 15 dollars pour la sortie. Claude Opus est encore plus cher—15 dollars pour l'entrée, 75 dollars pour la sortie. DeepSeek est 25 à 75 fois moins cher. Cette différence de prix a déclenché un changement massif sur le marché des développeurs.
En février 2026, sur OpenRouter—la plus grande plateforme d'agrégation d'API de modèles d'IA—l'utilisation hebdomadaire des modèles d'IA chinois a bondi de 127 % en trois semaines, dépassant pour la première fois les États-Unis. Il y a un an, les modèles chinois représentaient moins de 2 % du marché. Maintenant, ils ont augmenté de 421 % et approchent 6 %. Mais le changement plus profond ne concerne pas seulement le prix. Depuis mi-2025, l'application principale de l'IA a évolué du simple chat vers les Agents. Dans les scénarios d'Agents, la consommation de tokens est 10 à 100 fois plus élevée qu'en simple chat. Lorsque la consommation de tokens explose exponentiellement, le prix devient le facteur décisif. L'efficacité extrême en coûts des modèles chinois tombe à point nommé dans cette fenêtre.
Mais l'optimisation algorithmique ne résout pas seulement le problème de l'entraînement. Si vous ne pouvez pas entraîner avec les données les plus récentes et itérer, votre modèle deviendra rapidement obsolète. L'entraînement nécessite une puissance de calcul massive. Alors, où les entreprises chinoises obtiennent-elles leur infrastructure de calcul ?
Il y a une petite ville dans le Jiangsu, Xinghua—connue seulement pour l'acier inoxydable et la nourriture saine—mais en 2025, elle a construit une ligne de production de serveurs de 148 mètres. De la signature du contrat à la mise en service, seulement 180 jours. Le cœur de cette infrastructure est constitué de deux puces entièrement locales : le processeur Loongson 3C6000 et la carte accélératrice AI TaiChu Yuanqi T100. Le Loongson a sa propre conception, de l'ensemble d'instructions à la microarchitecture. La TaiChu Yuanqi provient du Centre national de supercalcul Wuxi et de l'Université Tsinghua, avec une architecture hétérogène à nombreux cœurs.
Quand la capacité est pleine, un serveur toutes les 5 minutes. Investissement total de 1,1 milliard de yuans, avec une production prévue de 100 000 unités par an. L'important, c'est que des grappes de milliers de puces locales ont commencé à gérer la formation de modèles vraiment grands. En janvier 2026, Zhipu AI a lancé GLM-Image avec Huawei—le premier modèle de génération d'images SOTA entièrement entraîné avec des puces locales. En février, China Telecom a terminé la formation complète de leur modèle Xingchen, de niveau cent-milliard, dans un pool de calcul local de milliers de GPU à Shanghai Lingang.
La signification est simple : les puces locales sont passées de l'inférence uniquement à la capacité d'entraînement. C'est un changement qualitatif. L'inférence ne nécessite que des modèles pré-entraînés, avec des exigences matérielles relativement faibles. L'entraînement exige la gestion massive de données, des calculs de gradients complexes, des mises à jour de paramètres—des besoins beaucoup plus élevés en puissance de calcul, bande passante d'interconnexion, écosystème logiciel.
La force motrice derrière cela est la série Huawei Ascend. Fin 2025, le nombre de développeurs dans l'écosystème Ascend a atteint 4 millions, avec 3 000 partenaires, et 43 modèles majeurs ont terminé leur pré-entraînement avec Ascend, plus de 200 modèles open-source adaptés. Le 2 mars 2026, lors du MWC, Huawei a présenté une nouvelle infrastructure de calcul SuperPoD pour les marchés étrangers. La puissance de calcul FP16 de l'Ascend 910B est équivalente à celle du NVIDIA A100. Il reste des lacunes, mais elle est devenue utilisable—passant d'inutilisable à utilisable. La construction de l'écosystème ne doit pas attendre des puces parfaites—il faut un déploiement large dès qu'elles sont suffisamment bonnes, en utilisant les besoins réels des entreprises pour forcer des mises à jour matérielles et logicielles.
Les cibles de déploiement de ByteDance, Tencent, Baidu pour les serveurs locaux devraient doubler en 2026 par rapport à l'an dernier. Selon le ministère de l'Industrie et de l'Information technologique, l'échelle de calcul intelligent en Chine a atteint 1590 EFLOPS. 2026 sera l'année du déploiement massif de puissance de calcul locale.
Mais il y a une autre facette de l'histoire tout aussi importante—l'énergie. La Virginie, qui gère une part massive du trafic mondial des centres de données, a suspendu les permis pour de nouveaux centres de données. La Géorgie a suspendu jusqu'en 2027. L'Illinois et le Michigan ont imposé des restrictions. Selon l'Agence internationale de l'énergie, la consommation électrique des centres de données américains en 2024 a atteint 183 térawattheures, environ 4 % de la consommation nationale totale. D'ici 2030, elle devrait doubler pour atteindre 426 TWh, dépassant peut-être 12 %. Le PDG d'Arm a déclaré qu'en 2030, les centres de données IA pourraient consommer 20 à 25 % de l'électricité américaine.
Le réseau électrique américain est à ses limites. Le réseau PJM, couvrant 13 États de l'est, souffre d'une pénurie de capacité de 6 GW. D'ici 2033, toute la capacité électrique des États-Unis pourrait manquer de 175 GW, équivalent à la consommation énergétique de 130 millions de foyers. Les prix de l'électricité dans les régions concentrant des centres de données ont augmenté de 267 % en cinq ans. La limite de puissance de calcul, c'est l'énergie.
Mais côté énergie, l'écart entre la Chine et les États-Unis est plus grand que celui des puces, mais dans la direction opposée. La production annuelle d'électricité en Chine est de 10,4 trillions d'unités contre 4,2 trillions pour les États-Unis—la Chine en produit