TENCENT

Prix TENCENT 00700.HK

TENCENT
€0
+€0(0,00 %)
Aucune donnée

*Données dernièrement actualisées : 2026-04-24 22:38 (UTC+8)

Au 2026-04-24 22:38, TENCENT 00700.HK (TENCENT) est coté à €0, avec une capitalisation boursière totale de --, un ratio cours/bénéfices (P/E) de 0,00 et un rendement du dividende de 0,00 %. Aujourd'hui, le cours de l'action a fluctué entre €0 et €0. Le prix actuel est de 0,00 % au-dessus du plus bas de la journée et de 0,00 % en dessous du plus haut de la journée, avec un volume de trading de --. Au cours des 52 dernières semaines, TENCENT a évolué entre €0 et €0, et le prix actuel est à 0,00 % de son plus haut sur 52 semaines.

Statistiques clés de TENCENT

Ratio P/E0,00
Rendement des dividendes (TTM)0,00 %
Actions en circulation0,00

En savoir plus sur TENCENT 00700.HK (TENCENT)

Articles de Gate Learn

Première cotation : Gate Futures annonce le lancement d’actions avec 6 contrats USDT-M perpétuels, comprenant TENCENT et XIAOMI

Les Futures Stocks de Gate lanceront officiellement le Live Trading des contrats perpétuels USDT-M sur TENCENT (TENCENT 00700.HK), MEITUAN (MEITUAN 03690.HK), XIAOMI (XIAOMI 01810.HK), KUAISHOU (KUAISHOU 01024.HK), XUNCE (XUNCE 03317.HK) et ZHIPU (ZhiPu 02513.HK) à 06h00 (UTC) le 13 avril 2026. Les positions long et short sont prises en charge, avec un effet de levier ajustable de 1x à 20x. L'effet de levier peut être choisi lors de la passation de l'ordre.

2026-04-13

La section des contrats d'actions Gate proposera la première négociation de 6 contrats perpétuels, comprenant notamment TENCENT (Tencent Holdings 0700.HK) et MEITUAN (Meituan 03690.HK)

Selon les informations rapportées, la disposition des catégories d’actifs traditionnels de Gate est exhaustive et couvre l’intervalle le plus large sur l’ensemble du réseau.

2026-04-13

Mask Network prend le relais de Lens pour ouvrir un nouveau chapitre : le réseau social décentralisé passe de l’infrastructure à une adoption massive par les utilisateurs.

Lens Protocol a rempli sa mission, et Mask Network s’impose désormais comme un acteur de premier plan dans la création de réseaux sociaux décentralisés accessibles au grand public. Mask administre Mastodon, qui enregistre 1,9 million d’utilisateurs actifs chaque mois, a acquis Orb et ses 50 000 utilisateurs, et a construit un écosystème de produits intégrant Firefly et Web3.bio. Bonfire a investi dans plus de 120 projets, affirmant ainsi son statut de Tencent du Web3.

2026-01-23

FAQ de TENCENT 00700.HK (TENCENT)

Quel est le cours de l'action TENCENT 00700.HK (TENCENT) aujourd'hui ?

x
TENCENT 00700.HK (TENCENT) s’échange actuellement à €0, avec une variation sur 24 h de 0,00 %. La fourchette de cotation sur 52 semaines est de €0 à €0.

Quels sont les prix le plus haut et le plus bas sur 52 semaines pour TENCENT 00700.HK (TENCENT) ?

x

Quel est le ratio cours/bénéfice (P/E) de TENCENT 00700.HK (TENCENT) ? Que signifie-t-il ?

x

Quelle est la capitalisation boursière de TENCENT 00700.HK (TENCENT) ?

x

Quel est le bénéfice par action (EPS) trimestriel le plus récent pour TENCENT 00700.HK (TENCENT) ?

x

Faut-il acheter ou vendre TENCENT 00700.HK (TENCENT) maintenant ?

x

Quels sont les facteurs pouvant influencer le cours de l’action TENCENT 00700.HK (TENCENT) ?

x

Comment acheter l'action TENCENT 00700.HK (TENCENT) ?

x

Avertissement sur les risques

Le marché boursier comporte un niveau élevé de risque et de volatilité des prix. La valeur de votre investissement peut augmenter ou diminuer, et vous pourriez ne pas récupérer le montant investi au complet. Les performances passées ne constituent pas un indicateur fiable des résultats futurs. Avant de prendre toute décision d’investissement, vous devez évaluer soigneusement votre expérience en matière d’investissement, votre situation financière, vos objectifs d’investissement et votre tolérance au risque, et effectuer vos propres recherches. Le cas échéant, consultez un conseiller financier indépendant.

Avertissement

Le contenu de cette page est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement, un conseil financier ou une recommandation de trading. Gate ne pourra être tenu responsable de toute perte ou dommage résultant de telles décisions financières. De plus, veuillez noter que Gate pourrait ne pas être en mesure de fournir un service complet dans certains marchés et juridictions, notamment, mais sans s’y limiter, les États-Unis d’Amérique, le Canada, l’Iran et Cuba. Pour plus d’informations sur les zones restreintes, veuillez consulter les conditions d’utilisation.

Autres Marchés de Trading

TENCENT 00700.HK (TENCENT) Dernières Actualités

2026-04-23 14:41

OpenClaw 2026.4.22 unifie le cycle de vie des plugins entre les harness Codex et Pi, réduisant le temps de chargement des plugins jusqu’à 90 %

Message de Gate News, 23 avril — OpenClaw, une plateforme open source d’agent IA, a publié la version 2026.4.22 le 22 avril, dont le plus grand changement est l’alignement des cycles de vie du harness Codex et du harness Pi. Auparavant, les plugins se comportaient de façon incohérente entre les deux voies de harness, certains hooks étant absents dans certains environnements. La nouvelle version consolide les hooks critiques, notamment before_prompt_build, before_compaction/after_compaction, after_tool_call, before_message_write, et llm_input/llm_output/agent_end, éliminant la nécessité pour les développeurs de maintenir des implémentations distinctes pour chaque voie. La mise à jour introduit aussi la prise en charge du middleware async tool_result pour les extensions de plugin côté Codex. Les améliorations de performance sont considérables : le chargement des plugins utilise désormais Jiti natif, réduisant le temps de démarrage de 82 % à 90 %, tandis que l’exécution de doctor --non-interactive a diminué d’environ 74 %. Le niveau de réflexion par défaut pour les modèles d’inférence a été relevé de désactivé/faible à moyen, permettant des sorties de raisonnement par défaut pour les configurations non modifiées. D’autres correctifs incluent le fait que les appels d’agent multi-tours de Kimi K2.6 n’interrompent plus en raison d’une corruption de l’ID tool_call, une meilleure gestion de la mémoire des sous-processus Linux avec un ajustement automatique de oom_score_adj, et un nouveau système de récupération de configuration last-known-good pour empêcher que les crashs de Gateway ne soient causés par des écrasements accidentels de configuration. Les nouvelles intégrations de fournisseurs incluent la génération d’images de xAI (grok-imagine-image et grok-imagine-image-pro), ainsi que les capacités TTS et STT ; Tencent Cloud en tant que plugin fournisseur officiel avec des modèles de prévisualisation Hy3 et une tarification ; et l’outil natif web_search d’OpenAI, remplaçant le canal de recherche géré d’OpenClaw lorsque la recherche web est activée.

2026-04-23 08:52

Tencent publie et open-sourçe un aperçu de Hunyuan Hy3 avec 295B de paramètres

Message des actualités Gate, 23 avril — Tencent a dévoilé et a open-sourcé l’aperçu de Hunyuan Hy3, un modèle de langage hybride de type mixture-of-experts avec fusion de la pensée rapide et lente. Le modèle comprend 295 milliards de paramètres au total avec 21 milliards de paramètres actifs, prenant en charge une longueur maximale de contexte de 256K tokens. L’aperçu Hy3 est le premier modèle entraîné après la restructuration de Hunyuan et le modèle le plus intelligent de Tencent à ce jour. L’entreprise indique des améliorations significatives en raisonnement complexe, en suivi d’instructions, en apprentissage en contexte, en génération de code, en capacités agentiques et en performances d’inférence. Le principal scientifique en IA, Yao Shunyu, a déclaré que l’aperçu Hy3 marque la première étape de la reconstruction de Hunyuan et a exprimé l’espoir que les retours de la communauté open-source renforceront l’utilité pratique de la version officielle. Tencent augmente simultanément la formation préalable et l’apprentissage par renforcement pour élever le plafond d’intelligence du modèle, et collabore avec plusieurs produits de Tencent grâce à un co-conception approfondie afin d’améliorer les performances dans le monde réel. L’entreprise commence également à explorer des capacités de modèles spécialisées.

2026-04-23 00:52

Les outils d’IA pourraient réduire de moitié les coûts de développement des jeux, ajoutant $22B au profit annuel de l’industrie : Morgan Stanley

Message de Gate News, 23 avril — Morgan Stanley estime que les outils d’IA pourraient réduire de près de moitié les coûts de développement de jeux vidéo et générer environ US$22 milliard de dollars de profit annuel supplémentaire dans l’ensemble de l’industrie mondiale du jeu. La banque prévoit que les dépenses mondiales dans le secteur du jeu atteindront US$275 milliard de dollars en 2026, avec environ US$55 milliard de dollars réinvestis dans le développement et les opérations. Des coûts de développement plus faibles pourraient réduire la dépendance de l’industrie aux sorties fréquentes de nouveaux titres et permettre aux éditeurs de maintenir des franchises existantes grâce à des mises à jour de contenu régulières. Les gains devraient être inégalement répartis dans l’industrie. Des entreprises comme Tencent, Sony et Ubisoft sont mieux placées pour en tirer profit grâce à leurs réseaux de distribution, leurs données propriétaires et leurs solides relations avec les joueurs. À l’inverse, des studios comme Playtika et Netmarble, qui ne disposent pas de forte propriété intellectuelle au cœur de leur activité, pourraient subir davantage de pression puisque l’IA rend la production de jeux de milieu de gamme plus accessible. Une autre analyse de Morgan Stanley suggère que les économies de coûts pour les éditeurs AAA pourraient se rapprocher de 15 %, tandis que le PDG de Take-Two a noté que construire un jeu avec de l’IA à partir de zéro est « risible ». Le changement pourrait aussi remodeler les effectifs, avec une demande accrue d’ingénieurs logiciels seniors et de responsables du développement de jeux pour superviser de plus grands portefeuilles de projets, bien qu’une baisse généralisée des emplois chez les développeurs ne soit pas attendue.

2026-04-23 00:31

Tencent Cloud avertit d’une vulnérabilité d’empoisonnement de la chaîne d’approvisionnement dans le projet Xinference

Message de Gate News, 23 avril — Le Centre de sécurité Tencent Cloud a divulgué une vulnérabilité d’empoisonnement de la chaîne d’approvisionnement dans Xinference. Le défaut pourrait permettre aux attaquants de voler des informations sensibles — y compris des informations d’identification cloud, des clés API, des clés SSH, des portefeuilles chiffrés, des identifiants de base de données et des variables d’environnement — lorsque les utilisateurs installent ou importent des versions de paquets affectées. Les données volées seraient transmises à des serveurs distants de commande et contrôle (C2). Tencent Cloud Security recommande aux utilisateurs de procéder à des audits de sécurité immédiats et d’appliquer les mises à jour si leurs systèmes se situent dans la plage concernée afin d’empêcher tout accès non autorisé.

2026-04-22 20:02

La valorisation de DeepSeek explose au-delà de $20 milliard, alors que Tencent et Alibaba pèsent des investissements

Message de Gate News, 22 avril — DeepSeek, la startup chinoise d'IA détenue par la société de gestion de hedge funds High-Flyer Capital Management, cherche désormais une valorisation supérieure à $20 milliard alors que Tencent Holdings et Alibaba Group discutent d'investissements potentiels. L'Information a rapporté mercredi que le prix demandé a grimpé rapidement, passant d'au moins $10 milliard seulement quelques jours plus tôt vendredi, le 18 avril(. La startup est toujours en pourparlers avec des investisseurs, et la valorisation comme le montant des levées pourraient évoluer. Le PDG de Nvidia, Jensen Huang, a déclaré mercredi sur le podcast Dwarkesh que ce serait un « résultat désastreux » pour les États-Unis si DeepSeek optimisait ses modèles d'IA pour fonctionner sur des puces Huawei plutôt que sur du matériel américain. À l'heure actuelle, les puces américaines sont environ cinq fois plus puissantes que celles des rivaux chinois, avec un écart qui devrait passer à 17 fois d'ici 2027. L'Ascend 910C de Huawei délivre environ 60% des performances d'inférence du H100 de Nvidia, qui accuse déjà deux générations de retard sur le fleuron actuel de Nvidia. Huang a noté que la Chine dispose de « ressources énergétiques abondantes » et d'un « grand vivier de chercheurs en IA », ce qui ouvre une voie potentielle de rattrapage dans le développement de l'IA. Pendant ce temps, le financement de l'IA continue de croître fortement dans le monde entier. Vast Data a annoncé, mercredi, un tour de financement de ) milliard à une valorisation de $1 milliard, Nvidia faisant partie des investisseurs. Le financement, mené par Drive Capital et Access Industries, a plus que triplé la valorisation de Vast, passée de 9,1 milliards de dollars en 2023. D'après Dealroom, les entreprises d'IA dans le monde ont déjà levé 280,5 milliards de dollars cette année, avec plus de $30 milliard dirigés vers OpenAI, Anthropic et xAI.

Publications populaires sur TENCENT 00700.HK (TENCENT)

quiet_lurker

quiet_lurker

Il y a 35 minutes
Je remarque simplement en suivant l'industrie de l'IA qu'il se produit un schéma étrange. Il y a seulement huit ans, une entreprise chinoise de télécommunications a littéralement perdu la vie à cause d'un embargo. Mais aujourd'hui, d'autres entreprises chinoises d'IA croissent rapidement malgré une pression plus forte. Qu'est-ce qui a vraiment changé ? Revenons à 2018. ZTE était l'un des plus grands fabricants d'équipements de télécommunications au monde—80 000 employés, des milliards de revenus annuels. Puis, en une seule journée, une commande du Bureau américain de l'industrie et de la sécurité a fermé toute l'entreprise. Aucun composant américain, aucune licence Google, aucun système d'exploitation. Trois semaines plus tard, ZTE a annoncé qu'elle ne pouvait plus faire fonctionner son activité. Ils ont payé une amende de 1,4 milliard de dollars, mais le vrai problème était dans l'écosystème—ils dépendaient totalement de la chaîne d'approvisionnement mondiale contrôlée par les États-Unis. Aujourd'hui, même avec des restrictions similaires, les entreprises chinoises d'IA ne subissent pas le même sort. Pourquoi ? Parce que le problème ne concerne pas seulement le matériel. Le véritable goulot d'étranglement, c'est CUDA. Je parle de cela parce que la plupart des gens supposent que l'interdiction des puces concerne les puces elles-mêmes. C'est une erreur. CUDA—la plateforme de calcul parallèle de NVIDIA depuis 2006—est le vrai obstacle. Tous les principaux frameworks d'IA dans le monde, de TensorFlow de Google à PyTorch de Meta, dépendent profondément de CUDA. Lorsqu'un chercheur en IA apprend, CUDA est le premier outil qu'il maîtrise. Chaque ligne de code renforce l'écosystème de NVIDIA. D'ici 2025, il y aura 4,5 millions de développeurs dans l'écosystème CUDA, plus de 3000 applications accélérées par GPU, et 40 000 entreprises dans le monde l'utilisent. Cela représente 90 % des développeurs mondiaux en IA. C'est un effet volant—une fois lancé, il est presque impossible à arrêter. Plus de développeurs, plus d'outils. Plus d'outils, plus de développeurs qui rejoignent. Le résultat ? NVIDIA fixe les règles, et tout le monde suit. Ainsi, entre 2022 et 2024, le gouvernement américain a mis en œuvre trois vagues de restrictions à l'exportation de puces NVIDIA. D'abord A100 et H100, puis A800 et H800, puis H20. Mais cela n'a pas déclenché la même panique qu'avec ZTE. Pourquoi ? Parce que les entreprises chinoises ont pivoté vers l'optimisation algorithmique plutôt que de se rebeller contre le matériel. DeepSeek en est le meilleur exemple. Leur modèle V3 compte 671 milliards de paramètres, mais chaque inférence n'utilise que 37 milliards—seulement 5,5 % du total. Pour l'entraîner, ils ont utilisé seulement 2 048 GPU NVIDIA H800 pendant 58 jours, pour un coût total de 5,576 millions de dollars. Comparez cela aux 78 millions de dollars estimés pour GPT-4. Une différence d'ordre de grandeur. Le prix parle encore plus. L'entrée API de DeepSeek coûte entre 0,028 et 0,28 dollars par million de tokens, la sortie 0,42 dollar. GPT-4 coûte 5 dollars pour l'entrée, 15 dollars pour la sortie. Claude Opus est encore plus cher—15 dollars pour l'entrée, 75 dollars pour la sortie. DeepSeek est 25 à 75 fois moins cher. Cette différence de prix a déclenché un changement massif sur le marché des développeurs. En février 2026, sur OpenRouter—la plus grande plateforme d'agrégation d'API de modèles d'IA—l'utilisation hebdomadaire des modèles d'IA chinois a bondi de 127 % en trois semaines, dépassant pour la première fois les États-Unis. Il y a un an, les modèles chinois représentaient moins de 2 % du marché. Maintenant, ils ont augmenté de 421 % et approchent 6 %. Mais le changement plus profond ne concerne pas seulement le prix. Depuis mi-2025, l'application principale de l'IA a évolué du simple chat vers les Agents. Dans les scénarios d'Agents, la consommation de tokens est 10 à 100 fois plus élevée qu'en simple chat. Lorsque la consommation de tokens explose exponentiellement, le prix devient le facteur décisif. L'efficacité extrême en coûts des modèles chinois tombe à point nommé dans cette fenêtre. Mais l'optimisation algorithmique ne résout pas seulement le problème de l'entraînement. Si vous ne pouvez pas entraîner avec les données les plus récentes et itérer, votre modèle deviendra rapidement obsolète. L'entraînement nécessite une puissance de calcul massive. Alors, où les entreprises chinoises obtiennent-elles leur infrastructure de calcul ? Il y a une petite ville dans le Jiangsu, Xinghua—connue seulement pour l'acier inoxydable et la nourriture saine—mais en 2025, elle a construit une ligne de production de serveurs de 148 mètres. De la signature du contrat à la mise en service, seulement 180 jours. Le cœur de cette infrastructure est constitué de deux puces entièrement locales : le processeur Loongson 3C6000 et la carte accélératrice AI TaiChu Yuanqi T100. Le Loongson a sa propre conception, de l'ensemble d'instructions à la microarchitecture. La TaiChu Yuanqi provient du Centre national de supercalcul Wuxi et de l'Université Tsinghua, avec une architecture hétérogène à nombreux cœurs. Quand la capacité est pleine, un serveur toutes les 5 minutes. Investissement total de 1,1 milliard de yuans, avec une production prévue de 100 000 unités par an. L'important, c'est que des grappes de milliers de puces locales ont commencé à gérer la formation de modèles vraiment grands. En janvier 2026, Zhipu AI a lancé GLM-Image avec Huawei—le premier modèle de génération d'images SOTA entièrement entraîné avec des puces locales. En février, China Telecom a terminé la formation complète de leur modèle Xingchen, de niveau cent-milliard, dans un pool de calcul local de milliers de GPU à Shanghai Lingang. La signification est simple : les puces locales sont passées de l'inférence uniquement à la capacité d'entraînement. C'est un changement qualitatif. L'inférence ne nécessite que des modèles pré-entraînés, avec des exigences matérielles relativement faibles. L'entraînement exige la gestion massive de données, des calculs de gradients complexes, des mises à jour de paramètres—des besoins beaucoup plus élevés en puissance de calcul, bande passante d'interconnexion, écosystème logiciel. La force motrice derrière cela est la série Huawei Ascend. Fin 2025, le nombre de développeurs dans l'écosystème Ascend a atteint 4 millions, avec 3 000 partenaires, et 43 modèles majeurs ont terminé leur pré-entraînement avec Ascend, plus de 200 modèles open-source adaptés. Le 2 mars 2026, lors du MWC, Huawei a présenté une nouvelle infrastructure de calcul SuperPoD pour les marchés étrangers. La puissance de calcul FP16 de l'Ascend 910B est équivalente à celle du NVIDIA A100. Il reste des lacunes, mais elle est devenue utilisable—passant d'inutilisable à utilisable. La construction de l'écosystème ne doit pas attendre des puces parfaites—il faut un déploiement large dès qu'elles sont suffisamment bonnes, en utilisant les besoins réels des entreprises pour forcer des mises à jour matérielles et logicielles. Les cibles de déploiement de ByteDance, Tencent, Baidu pour les serveurs locaux devraient doubler en 2026 par rapport à l'an dernier. Selon le ministère de l'Industrie et de l'Information technologique, l'échelle de calcul intelligent en Chine a atteint 1590 EFLOPS. 2026 sera l'année du déploiement massif de puissance de calcul locale. Mais il y a une autre facette de l'histoire tout aussi importante—l'énergie. La Virginie, qui gère une part massive du trafic mondial des centres de données, a suspendu les permis pour de nouveaux centres de données. La Géorgie a suspendu jusqu'en 2027. L'Illinois et le Michigan ont imposé des restrictions. Selon l'Agence internationale de l'énergie, la consommation électrique des centres de données américains en 2024 a atteint 183 térawattheures, environ 4 % de la consommation nationale totale. D'ici 2030, elle devrait doubler pour atteindre 426 TWh, dépassant peut-être 12 %. Le PDG d'Arm a déclaré qu'en 2030, les centres de données IA pourraient consommer 20 à 25 % de l'électricité américaine. Le réseau électrique américain est à ses limites. Le réseau PJM, couvrant 13 États de l'est, souffre d'une pénurie de capacité de 6 GW. D'ici 2033, toute la capacité électrique des États-Unis pourrait manquer de 175 GW, équivalent à la consommation énergétique de 130 millions de foyers. Les prix de l'électricité dans les régions concentrant des centres de données ont augmenté de 267 % en cinq ans. La limite de puissance de calcul, c'est l'énergie. Mais côté énergie, l'écart entre la Chine et les États-Unis est plus grand que celui des puces, mais dans la direction opposée. La production annuelle d'électricité en Chine est de 10,4 trillions d'unités contre 4,2 trillions pour les États-Unis—la Chine en produit
0
0
0
0