ZHIPU

Prix ZhiPu 02513.HK

Fermer
ZHIPU
€0
+€0(0,00 %)
Aucune donnée

*Données dernièrement actualisées : 2026-04-25 00:03 (UTC+8)

Au 2026-04-25 00:03, ZhiPu 02513.HK (ZHIPU) est coté à €0, avec une capitalisation boursière totale de --, un ratio cours/bénéfices (P/E) de 0,00 et un rendement du dividende de 0,00 %. Aujourd'hui, le cours de l'action a fluctué entre €0 et €0. Le prix actuel est de 0,00 % au-dessus du plus bas de la journée et de 0,00 % en dessous du plus haut de la journée, avec un volume de trading de --. Au cours des 52 dernières semaines, ZHIPU a évolué entre €0 et €0, et le prix actuel est à 0,00 % de son plus haut sur 52 semaines.

Statistiques clés de ZHIPU

Ratio P/E0,00
Rendement des dividendes (TTM)0,00 %
Actions en circulation0,00

En savoir plus sur ZhiPu 02513.HK (ZHIPU)

FAQ de ZhiPu 02513.HK (ZHIPU)

Quel est le cours de l'action ZhiPu 02513.HK (ZHIPU) aujourd'hui ?

x
ZhiPu 02513.HK (ZHIPU) s’échange actuellement à €0, avec une variation sur 24 h de 0,00 %. La fourchette de cotation sur 52 semaines est de €0 à €0.

Quels sont les prix le plus haut et le plus bas sur 52 semaines pour ZhiPu 02513.HK (ZHIPU) ?

x

Quel est le ratio cours/bénéfice (P/E) de ZhiPu 02513.HK (ZHIPU) ? Que signifie-t-il ?

x

Quelle est la capitalisation boursière de ZhiPu 02513.HK (ZHIPU) ?

x

Quel est le bénéfice par action (EPS) trimestriel le plus récent pour ZhiPu 02513.HK (ZHIPU) ?

x

Faut-il acheter ou vendre ZhiPu 02513.HK (ZHIPU) maintenant ?

x

Quels sont les facteurs pouvant influencer le cours de l’action ZhiPu 02513.HK (ZHIPU) ?

x

Comment acheter l'action ZhiPu 02513.HK (ZHIPU) ?

x

Avertissement sur les risques

Le marché boursier comporte un niveau élevé de risque et de volatilité des prix. La valeur de votre investissement peut augmenter ou diminuer, et vous pourriez ne pas récupérer le montant investi au complet. Les performances passées ne constituent pas un indicateur fiable des résultats futurs. Avant de prendre toute décision d’investissement, vous devez évaluer soigneusement votre expérience en matière d’investissement, votre situation financière, vos objectifs d’investissement et votre tolérance au risque, et effectuer vos propres recherches. Le cas échéant, consultez un conseiller financier indépendant.

Avertissement

Le contenu de cette page est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement, un conseil financier ou une recommandation de trading. Gate ne pourra être tenu responsable de toute perte ou dommage résultant de telles décisions financières. De plus, veuillez noter que Gate pourrait ne pas être en mesure de fournir un service complet dans certains marchés et juridictions, notamment, mais sans s’y limiter, les États-Unis d’Amérique, le Canada, l’Iran et Cuba. Pour plus d’informations sur les zones restreintes, veuillez consulter les conditions d’utilisation.

Autres Marchés de Trading

ZhiPu 02513.HK (ZHIPU) Dernières Actualités

2026-04-24 05:00

Alerte TradFi Baisse : ZHIPU (ZhiPu 02513.HK) Chute sur 8%

Gate News : Selon les dernières données de [Gate TradFi](https://www.gate.com/fr/tradfi), ZHIPU (ZhiPu 02513.HK) a a chuté de 8% en peu de temps. La volatilité actuelle est nettement supérieure à la moyenne récente, ce qui indique une activité accrue sur le marché.

2026-04-24 03:54

Alerte TradFi Baisse : ZHIPU (ZhiPu 02513.HK) Chute sur 6%

Gate News : Selon les dernières données de [Gate TradFi](https://www.gate.com/fr/tradfi), ZHIPU (ZhiPu 02513.HK) a a chuté de 6% en peu de temps. La volatilité actuelle est nettement supérieure à la moyenne récente, ce qui indique une activité accrue sur le marché.

2026-04-23 02:02

L’action de Zhipu atteint un record, en hausse de plus de 5 % à l’ouverture avec des gains de 800 % depuis l’introduction en bourse

Message de Gate News, 23 avril — Zhipu (02513.HK) a bondi de plus de 5 % à l’ouverture des marchés, atteignant un nouveau sommet historique. L’action a gagné près de 800 % depuis sa cotation.

2026-04-22 17:00

OpenClaw, Hermes et SillyTavern confirmés comme projets pris en charge dans le cadre du GLM Coding Plan

Message de Gate News, 22 avril — Zixuan Li, responsable produit chez Zhipu AI, a annoncé sur X qu’OpenClaw, Hermes et SillyTavern avaient été officiellement marqués comme projets pris en charge dans le cadre du GLM Coding Plan. Les autres outils à usage général seront évalués au cas par cas. Li a également conseillé aux utilisateurs de ne pas partager les identifiants de compte et de ne pas utiliser d’abonnements comme accès API. Les utilisateurs qui rencontrent le code d’erreur 1313 en suivant les recommandations sont invités à contacter l’équipe de support de Zhipu pour obtenir de l’aide.

2026-04-22 07:13

Zhipu AI met fin à l’abonnement au GLM Coding Plan avec quotas hebdomadaires illimités le 30 avril

Message d’actualité de Gate, 22 avril — Zhipu AI a annoncé qu’elle mettra fin au renouvellement automatique de l’abonnement au forfait illimité de quotas hebdomadaires du GLM Coding Plan à partir de 10 h 00 (heure de Pékin) le 30 avril 2026. L’arrêt concerne les utilisateurs actuellement abonnés à l’ancien forfait avec le renouvellement automatique activé. D’après l’entreprise, cette décision a été motivée par une croissance continue de l’usage, rendant le modèle initial de quotas hebdomadaires illimités difficile à maintenir sur le long terme. Les utilisateurs concernés recevront deux mois d’avantages équivalents du nouveau forfait en compensation. Les cycles d’abonnement et les tarifs actuels restent inchangés, et la compensation de deux mois sera automatiquement versée le 30 avril. À l’expiration de la période de compensation, les utilisateurs qui souhaitent continuer à utiliser le service devront s’abonner manuellement au dernier forfait disponible à ce moment-là.

Publications populaires sur ZhiPu 02513.HK (ZHIPU)

quiet_lurker

quiet_lurker

Il y a 2 heures
Je remarque simplement en suivant l'industrie de l'IA qu'il se produit un schéma étrange. Il y a seulement huit ans, une entreprise chinoise de télécommunications a littéralement perdu la vie à cause d'un embargo. Mais aujourd'hui, d'autres entreprises chinoises d'IA croissent rapidement malgré une pression plus forte. Qu'est-ce qui a vraiment changé ? Revenons à 2018. ZTE était l'un des plus grands fabricants d'équipements de télécommunications au monde—80 000 employés, des milliards de revenus annuels. Puis, en une seule journée, une commande du Bureau américain de l'industrie et de la sécurité a fermé toute l'entreprise. Aucun composant américain, aucune licence Google, aucun système d'exploitation. Trois semaines plus tard, ZTE a annoncé qu'elle ne pouvait plus faire fonctionner son activité. Ils ont payé une amende de 1,4 milliard de dollars, mais le vrai problème était dans l'écosystème—ils dépendaient totalement de la chaîne d'approvisionnement mondiale contrôlée par les États-Unis. Aujourd'hui, même avec des restrictions similaires, les entreprises chinoises d'IA ne subissent pas le même sort. Pourquoi ? Parce que le problème ne concerne pas seulement le matériel. Le véritable goulot d'étranglement, c'est CUDA. Je parle de cela parce que la plupart des gens supposent que l'interdiction des puces concerne les puces elles-mêmes. C'est une erreur. CUDA—la plateforme de calcul parallèle de NVIDIA depuis 2006—est le vrai obstacle. Tous les principaux frameworks d'IA dans le monde, de TensorFlow de Google à PyTorch de Meta, dépendent profondément de CUDA. Lorsqu'un chercheur en IA apprend, CUDA est le premier outil qu'il maîtrise. Chaque ligne de code renforce l'écosystème de NVIDIA. D'ici 2025, il y aura 4,5 millions de développeurs dans l'écosystème CUDA, plus de 3000 applications accélérées par GPU, et 40 000 entreprises dans le monde l'utilisent. Cela représente 90 % des développeurs mondiaux en IA. C'est un effet volant—une fois lancé, il est presque impossible à arrêter. Plus de développeurs, plus d'outils. Plus d'outils, plus de développeurs qui rejoignent. Le résultat ? NVIDIA fixe les règles, et tout le monde suit. Ainsi, entre 2022 et 2024, le gouvernement américain a mis en œuvre trois vagues de restrictions à l'exportation de puces NVIDIA. D'abord A100 et H100, puis A800 et H800, puis H20. Mais cela n'a pas déclenché la même panique qu'avec ZTE. Pourquoi ? Parce que les entreprises chinoises ont pivoté vers l'optimisation algorithmique plutôt que de se rebeller contre le matériel. DeepSeek en est le meilleur exemple. Leur modèle V3 compte 671 milliards de paramètres, mais chaque inférence n'utilise que 37 milliards—seulement 5,5 % du total. Pour l'entraîner, ils ont utilisé seulement 2 048 GPU NVIDIA H800 pendant 58 jours, pour un coût total de 5,576 millions de dollars. Comparez cela aux 78 millions de dollars estimés pour GPT-4. Une différence d'ordre de grandeur. Le prix parle encore plus. L'entrée API de DeepSeek coûte entre 0,028 et 0,28 dollars par million de tokens, la sortie 0,42 dollar. GPT-4 coûte 5 dollars pour l'entrée, 15 dollars pour la sortie. Claude Opus est encore plus cher—15 dollars pour l'entrée, 75 dollars pour la sortie. DeepSeek est 25 à 75 fois moins cher. Cette différence de prix a déclenché un changement massif sur le marché des développeurs. En février 2026, sur OpenRouter—la plus grande plateforme d'agrégation d'API de modèles d'IA—l'utilisation hebdomadaire des modèles d'IA chinois a bondi de 127 % en trois semaines, dépassant pour la première fois les États-Unis. Il y a un an, les modèles chinois représentaient moins de 2 % du marché. Maintenant, ils ont augmenté de 421 % et approchent 6 %. Mais le changement plus profond ne concerne pas seulement le prix. Depuis mi-2025, l'application principale de l'IA a évolué du simple chat vers les Agents. Dans les scénarios d'Agents, la consommation de tokens est 10 à 100 fois plus élevée qu'en simple chat. Lorsque la consommation de tokens explose exponentiellement, le prix devient le facteur décisif. L'efficacité extrême en coûts des modèles chinois tombe à point nommé dans cette fenêtre. Mais l'optimisation algorithmique ne résout pas seulement le problème de l'entraînement. Si vous ne pouvez pas entraîner avec les données les plus récentes et itérer, votre modèle deviendra rapidement obsolète. L'entraînement nécessite une puissance de calcul massive. Alors, où les entreprises chinoises obtiennent-elles leur infrastructure de calcul ? Il y a une petite ville dans le Jiangsu, Xinghua—connue seulement pour l'acier inoxydable et la nourriture saine—mais en 2025, elle a construit une ligne de production de serveurs de 148 mètres. De la signature du contrat à la mise en service, seulement 180 jours. Le cœur de cette infrastructure est constitué de deux puces entièrement locales : le processeur Loongson 3C6000 et la carte accélératrice AI TaiChu Yuanqi T100. Le Loongson a sa propre conception, de l'ensemble d'instructions à la microarchitecture. La TaiChu Yuanqi provient du Centre national de supercalcul Wuxi et de l'Université Tsinghua, avec une architecture hétérogène à nombreux cœurs. Quand la capacité est pleine, un serveur toutes les 5 minutes. Investissement total de 1,1 milliard de yuans, avec une production prévue de 100 000 unités par an. L'important, c'est que des grappes de milliers de puces locales ont commencé à gérer la formation de modèles vraiment grands. En janvier 2026, Zhipu AI a lancé GLM-Image avec Huawei—le premier modèle de génération d'images SOTA entièrement entraîné avec des puces locales. En février, China Telecom a terminé la formation complète de leur modèle Xingchen, de niveau cent-milliard, dans un pool de calcul local de milliers de GPU à Shanghai Lingang. La signification est simple : les puces locales sont passées de l'inférence uniquement à la capacité d'entraînement. C'est un changement qualitatif. L'inférence ne nécessite que des modèles pré-entraînés, avec des exigences matérielles relativement faibles. L'entraînement exige la gestion massive de données, des calculs de gradients complexes, des mises à jour de paramètres—des besoins beaucoup plus élevés en puissance de calcul, bande passante d'interconnexion, écosystème logiciel. La force motrice derrière cela est la série Huawei Ascend. Fin 2025, le nombre de développeurs dans l'écosystème Ascend a atteint 4 millions, avec 3 000 partenaires, et 43 modèles majeurs ont terminé leur pré-entraînement avec Ascend, plus de 200 modèles open-source adaptés. Le 2 mars 2026, lors du MWC, Huawei a présenté une nouvelle infrastructure de calcul SuperPoD pour les marchés étrangers. La puissance de calcul FP16 de l'Ascend 910B est équivalente à celle du NVIDIA A100. Il reste des lacunes, mais elle est devenue utilisable—passant d'inutilisable à utilisable. La construction de l'écosystème ne doit pas attendre des puces parfaites—il faut un déploiement large dès qu'elles sont suffisamment bonnes, en utilisant les besoins réels des entreprises pour forcer des mises à jour matérielles et logicielles. Les cibles de déploiement de ByteDance, Tencent, Baidu pour les serveurs locaux devraient doubler en 2026 par rapport à l'an dernier. Selon le ministère de l'Industrie et de l'Information technologique, l'échelle de calcul intelligent en Chine a atteint 1590 EFLOPS. 2026 sera l'année du déploiement massif de puissance de calcul locale. Mais il y a une autre facette de l'histoire tout aussi importante—l'énergie. La Virginie, qui gère une part massive du trafic mondial des centres de données, a suspendu les permis pour de nouveaux centres de données. La Géorgie a suspendu jusqu'en 2027. L'Illinois et le Michigan ont imposé des restrictions. Selon l'Agence internationale de l'énergie, la consommation électrique des centres de données américains en 2024 a atteint 183 térawattheures, environ 4 % de la consommation nationale totale. D'ici 2030, elle devrait doubler pour atteindre 426 TWh, dépassant peut-être 12 %. Le PDG d'Arm a déclaré qu'en 2030, les centres de données IA pourraient consommer 20 à 25 % de l'électricité américaine. Le réseau électrique américain est à ses limites. Le réseau PJM, couvrant 13 États de l'est, souffre d'une pénurie de capacité de 6 GW. D'ici 2033, toute la capacité électrique des États-Unis pourrait manquer de 175 GW, équivalent à la consommation énergétique de 130 millions de foyers. Les prix de l'électricité dans les régions concentrant des centres de données ont augmenté de 267 % en cinq ans. La limite de puissance de calcul, c'est l'énergie. Mais côté énergie, l'écart entre la Chine et les États-Unis est plus grand que celui des puces, mais dans la direction opposée. La production annuelle d'électricité en Chine est de 10,4 trillions d'unités contre 4,2 trillions pour les États-Unis—la Chine en produit
0
0
0
0
BlockDetective

BlockDetective

Il y a 2 heures
Il y a huit ans, l'une des périodes les plus douloureuses de l'histoire de l'industrie chinoise s'est produite. En avril 2018, ZTE Communications a soudainement cessé ses activités - une entreprise géante avec 80 000 employés et un chiffre d'affaires dépassant un billion de yuans. Tout cela parce que l'Amérique a décidé de couper les approvisionnements. Sans les puces Qualcomm, sans le système Android de Google - l'entreprise était complètement encerclée. Cette leçon n'a pas été oubliée. Rapidement en 2026. La situation est maintenant complètement différente. Cette fois, la guerre ne concerne pas seulement les puces - la véritable guerre porte sur quelque chose de beaucoup plus profond appelé CUDA. Peut-être que vous n'en avez pas entendu parler, mais chaque développeur en intelligence artificielle dans le monde en dépend. CUDA est une plateforme de Nvidia qui contrôle tout - de la formation à l'exécution. Et c'est là que réside la véritable pénurie. Plus l'industrie dépend de CUDA, plus le manque d'une alternative indépendante devient évident. Mais les entreprises chinoises ont choisi une voie différente cette fois. Au lieu d'essayer de copier Nvidia directement, elles se sont concentrées sur les algorithmes. DeepSeek en est un exemple parfait - leur modèle contient 671 milliards de paramètres, mais n'active que 37 milliards d'entre eux pendant le fonctionnement. Cela signifie des coûts bien moindres. Le modèle a été entraîné avec 2048 unités de traitement H800 pendant 58 jours pour seulement 5,6 millions de dollars. Comparez cela au coût d'entraînement de GPT-4, estimé à 78 millions de dollars. La différence est énorme. Le résultat ? DeepSeek est 25 à 75 fois moins cher que Claude. Et ce prix a changé le marché. En février 2026 seulement, l'utilisation des modèles chinois sur OpenRouter a augmenté de 127 % en seulement trois semaines. Il y a un an, leur part ne dépassait pas 2 %. Maintenant, elle approche les 60 %. Ce n'est pas une coïncidence - c'est une transformation structurelle. Mais le plus grand défi restait d'obtenir une puissance de calcul suffisante pour l'entraînement. C'est ici que les puces locales entrent en jeu. Loongson 3C6000 et Taichu Yuanqi ont déjà commencé à charger de véritables tâches d'entraînement. En janvier 2026, Zhipu AI a lancé le modèle GLM-Image - le premier modèle de génération d'images entièrement entraîné sur des puces chinoises locales. C'est une transition qualitative, du simple inférence à l'entraînement réel. Derrière tout cela se trouve le système Ascend de Huawei. Fin 2025, le nombre de développeurs y dépassait 4 millions. La construction d’un écosystème indépendant est précisément ce que le Japon n’a pas fait dans les années 80 face à des pressions américaines similaires. Le Japon a choisi d’être « le meilleur » dans un système dominé par d’autres. La Chine a choisi de construire son propre système. L’énergie joue également un rôle crucial. Les États-Unis font face à une véritable crise électrique - les centres de données consomment actuellement 4 % de l’électricité américaine, et ce chiffre doublera d’ici 2030. En revanche, la Chine produit 2,5 fois plus d’électricité que les États-Unis. Les prix de l’électricité industrielle dans l’ouest de la Chine sont d’environ 0,03 dollar par kilowattheure - un quart à un cinquième du prix aux États-Unis. C’est un avantage énorme. Aujourd’hui, DeepSeek sert 37 langues et se répand dans le monde entier. 30,7 % des utilisateurs viennent de Chine, 13,6 % de l’Inde, 6,9 % d’Indonésie. Sur les marchés soumis à des sanctions, sa part varie entre 40 % et 60 %. 58 % des nouvelles entreprises d’intelligence artificielle en Chine l’utilisent maintenant. Trois entreprises locales de puces ont publié leurs résultats le 27 février 2026. Certaines ont réalisé leurs premiers bénéfices, d’autres ont perdu des milliards. Mais ces pertes ne sont pas un échec - c’est un investissement dans la construction d’un écosystème indépendant. Chaque dollar perdu est un dollar investi dans la recherche et le développement, dans le soutien logiciel, dans la formation des ingénieurs. La guerre pour la puissance de calcul ne concerne plus « pouvons-nous survivre ? » La question est maintenant « combien allons-nous dépenser pour rester indépendants ? » Et la réponse est claire - n’importe quel prix. Car l’indépendance n’est plus une option.
0
0
0
0
AirdropHunterXiao

AirdropHunterXiao

Il y a 5 heures
J'ai remarqué quelque chose d'intéressant alors que je suivais les développements de l'intelligence artificielle chinoise ces jours-ci. Il y a exactement huit ans, un tournant dramatique s'est produit lorsque le cœur de ZTE s'est arrêté en avril 2018. Une seule interdiction américaine et tout s'est effondré — pas de puces Qualcomm, pas de système d'exploitation. La société qui était le quatrième plus grand fournisseur mondial d'équipements de télécommunications s'est arrêtée du jour au lendemain. Mais voici la partie la plus importante : maintenant, après huit ans, nous assistons à une fin complètement différente. La Chine n'a pas succombé au même scénario dans l'intelligence artificielle. Au lieu de cela, elle a choisi une voie beaucoup plus difficile. Le vrai problème n'a pas toujours été les puces — c'était CUDA. Cette plateforme de NVIDIA est devenue la colonne vertébrale de toute l'industrie mondiale de l'intelligence artificielle. Plus de 4,5 millions de développeurs y sont liés, et plus de 90 % des développeurs en IA travaillent dans cet écosystème. C'est une roue durable — plus les développeurs l'utilisent, plus l'environnement prospère, attirant d'autres développeurs. La solution chinoise est venue d'un endroit inattendu : les algorithmes. Au lieu d'essayer de concurrencer directement NVIDIA, les entreprises chinoises ont concentré leurs efforts sur l'amélioration radicale des algorithmes. Les modèles experts hybrides sont devenus la tendance — diviser le modèle massif en petits experts et n'activer que ce qui est nécessaire. DeepSeek V3 possède 671 milliards de transactions mais n'active que 37 milliards — seulement 5,5 %. Le coût ? 5,576 millions de dollars contre 78 millions pour GPT-4. Une différence énorme. Le prix s'est immédiatement reflété dans les API. DeepSeek propose des prix 25 à 75 fois moins chers que Claude. En février dernier, l'utilisation des modèles chinois sur OpenRouter a augmenté de 127 % en seulement trois semaines, dépassant pour la première fois les États-Unis. Mais le prix et les algorithmes ne suffisent pas à résoudre le problème de la formation. C'est là que les puces locales entrent en jeu. Loongson 3C6000 et la carte Taichu Yuanqi commencent à fonctionner sérieusement. En janvier 2026, Zhipu a lancé le premier modèle d'image entièrement entraîné sur des puces chinoises. Ensuite, le modèle "Stars" a été entraîné sur un bassin de calcul local comprenant des dizaines de milliers d'unités. C'est une transformation qualitative — passer de "capacité d'inférence" à "capacité d'entraînement". Ascend de Huawei est devenu le moteur principal ici. 4 millions de développeurs, 3000 partenaires, 43 modèles principaux entraînés sur cette plateforme. Ascend 910B a atteint le niveau du NVIDIA A100 — passant d'inutilisable à utilisable. La perfection n'est pas encore atteinte ; il faut commencer maintenant et utiliser les besoins réels des affaires pour faire avancer le développement. Un autre facteur souvent négligé : l'électricité. La Chine produit 2,5 fois plus d'électricité que les États-Unis, et la consommation résidentielle ici ne représente que 15 % contre 36 % là-bas. Les prix de l'électricité industrielle dans l'ouest de la Chine sont d'environ 0,03 dollar contre 0,12-0,15 dollar aux États-Unis — un quart à un cinquième du prix. Pendant ce temps, les États-Unis font face à une crise électrique réelle (La Virginie et la Géorgie ont suspendu l'approbation de nouveaux centres de données), tandis que la Chine exporte des tokens à l'échelle mondiale. DeepSeek est maintenant disponible en 37 langues. 30,7 % de ses utilisateurs sont locaux, mais 13,6 % viennent d'Inde, 6,9 % d'Indonésie. 26 000 entreprises mondiales ont des comptes. Dans les pays sous sanctions, la part de marché oscille entre 40 et 60 %. C'est comme une guerre d'indépendance industrielle — similaire à ce qui s'est passé avec le Japon et les semi-conducteurs il y a 40 ans, mais avec une fin différente cette fois. Les rapports de bénéfices du 27 février étaient très honnêtes : certaines entreprises ont réalisé des profits pour la première fois, d'autres ont perdu des milliards. Mais ces pertes ne sont pas un échec — c'est une taxe de guerre pour construire un écosystème indépendant véritable. Chaque perte est un investissement dans la recherche et le développement, dans le soutien logiciel, dans des ingénieurs qui résolvent les problèmes de traduction, un par un. La question est passée de "Pouvons-nous rester ?" à "Combien devons-nous payer pour rester ?" et la réponse elle-même est un progrès réel.
0
0
0
0