ARM

Prix Arm Holdings

ARM
€200,81
+€15,55(+8,39 %)

*Données dernièrement actualisées : 2026-04-24 22:37 (UTC+8)

Au 2026-04-24 22:37, Arm Holdings (ARM) est coté à €200,81, avec une capitalisation boursière totale de €178,54B, un ratio cours/bénéfices (P/E) de 141,57 et un rendement du dividende de 0,00 %. Aujourd'hui, le cours de l'action a fluctué entre €180,00 et €203,29. Le prix actuel est de 11,53 % au-dessus du plus bas de la journée et de 1,22 % en dessous du plus haut de la journée, avec un volume de trading de 13,82M. Au cours des 52 dernières semaines, ARM a évolué entre €85,54 et €203,28, et le prix actuel est à -1,22 % de son plus haut sur 52 semaines.

Statistiques clés de ARM

Clôture d’hier€150,10
Capitalisation du marché€178,54B
Volume13,82M
Ratio P/E141,57
Rendement des dividendes (TTM)0,00 %
BPA dilué (TTM)0,75
Revenu net (exercice fiscal)€677,39M
Revenus (exercice annuel)€3,42B
Date de gains2026-05-06
Estimation BPS0,58
Estimation des revenus€1,26B
Actions en circulation1,18B
Bêta (1 an)3.338

À propos de ARM

Arm Holdings plc conçoit, développe et licence des produits de processeurs centraux et des technologies associées pour les entreprises de semi-conducteurs et les fabricants d'équipements d'origine qui s'en servent pour développer leurs produits. Elle propose des microprocesseurs, des propriétés intellectuelles (IPs) système, des unités de traitement graphique, des IP physiques et des IP systèmes associés, des logiciels, des outils et d'autres services liés. Ses produits sont utilisés dans divers marchés, tels que l'automobile, l'infrastructure informatique, les technologies grand public et l'Internet des objets. La société opère aux États-Unis, en République populaire de Chine, à Taïwan, en Corée du Sud et à l'international. Fondée en 1990, elle a son siège à Cambridge, au Royaume-Uni. Arm Holdings plc est une filiale de Kronos II LLC.
SecteurTechnologie
IndustrieSemi-conducteurs
PDGRene Anthony Andrada Haas
Siège socialCambridge,None,GB
Site officielhttps://www.arm.com
Effectifs (exercice annuel)8,33K
Revenu moyen (1 an)€411,42K
Revenu net par employé€81,32K

FAQ de Arm Holdings (ARM)

Quel est le cours de l'action Arm Holdings (ARM) aujourd'hui ?

x
Arm Holdings (ARM) s’échange actuellement à €200,81, avec une variation sur 24 h de +8,39 %. La fourchette de cotation sur 52 semaines est de €85,54 à €203,28.

Quels sont les prix le plus haut et le plus bas sur 52 semaines pour Arm Holdings (ARM) ?

x

Quel est le ratio cours/bénéfice (P/E) de Arm Holdings (ARM) ? Que signifie-t-il ?

x

Quelle est la capitalisation boursière de Arm Holdings (ARM) ?

x

Quel est le bénéfice par action (EPS) trimestriel le plus récent pour Arm Holdings (ARM) ?

x

Faut-il acheter ou vendre Arm Holdings (ARM) maintenant ?

x

Quels sont les facteurs pouvant influencer le cours de l’action Arm Holdings (ARM) ?

x

Comment acheter l'action Arm Holdings (ARM) ?

x

Avertissement sur les risques

Le marché boursier comporte un niveau élevé de risque et de volatilité des prix. La valeur de votre investissement peut augmenter ou diminuer, et vous pourriez ne pas récupérer le montant investi au complet. Les performances passées ne constituent pas un indicateur fiable des résultats futurs. Avant de prendre toute décision d’investissement, vous devez évaluer soigneusement votre expérience en matière d’investissement, votre situation financière, vos objectifs d’investissement et votre tolérance au risque, et effectuer vos propres recherches. Le cas échéant, consultez un conseiller financier indépendant.

Avertissement

Le contenu de cette page est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement, un conseil financier ou une recommandation de trading. Gate ne pourra être tenu responsable de toute perte ou dommage résultant de telles décisions financières. De plus, veuillez noter que Gate pourrait ne pas être en mesure de fournir un service complet dans certains marchés et juridictions, notamment, mais sans s’y limiter, les États-Unis d’Amérique, le Canada, l’Iran et Cuba. Pour plus d’informations sur les zones restreintes, veuillez consulter les conditions d’utilisation.

Autres Marchés de Trading

Arm Holdings (ARM) Dernières Actualités

2026-04-15 06:36

La carte de développement N1 pour PC à base de puce ARM de NVIDIA apparaît, entrée sur le marché imminente

Message de Gate News, 15 avril — La carte de développement N1 d'NVIDIA, un système sur puce (SoC) basé sur Arm pour les PC sous Windows, co-développée avec MediaTek depuis la fin 2024, a fait son apparition sur une plateforme chinoise de revente d'occasion. La carte est équipée de modules de mémoire SK Hynix LPDDR5X et est proposée au prix de 9,999 yuans (environ $1,370). On pense que les puces N1/N1X sont des dérivés du GB10 utilisé dans le poste de travail IA DGX Spark d'NVIDIA, avec des fréquences d'horloge, une bande passante mémoire et le nombre de cœurs ajustés pour des environnements d'ordinateur portable. N1X intègre 10 cœurs de processeur Arm Cortex-X925 hautes performances, 10 cœurs Cortex-A725 économes en énergie et des cœurs GPU Blackwell, dans le but d'améliorer les capacités de jeu et de création de contenu sur des ordinateurs portables Windows à base d'Arm. Le PDG d'NVIDIA, Jensen Huang, a mentionné pour la première fois la puce N1 en septembre dernier, lors d'une annonce conjointe avec Intel, indiquant qu'elle serait utilisée dans DGX Spark et des produits similaires. La puce devrait être officiellement dévoilée pendant la GTC 2026, qui se tiendra en parallèle avec Computex Taipei du 1er au 4 juin. Lenovo et Dell seraient en train de préparer des lancements de produits connexes.

2026-04-10 06:31

SK Telecom avec Arm et Rebellions développent une solution d’inférence pour centres de données d’IA

Nouvelles de Gate News : le 10 avril, SK Telecom a annoncé avoir signé un protocole d’accord (MOU) tripartite avec la société britannique de conception de puces Arm et la start-up sud-coréenne de puces IA Rebellions, afin de développer ensemble des solutions de serveurs d’inférence pour des centres de données d’IA. Selon l’accord, les trois parties combineront le nouvel AGI CPU d’Arm et la puce d’accélération IA RebelCard, que Rebellions devrait lancer au troisième trimestre de cette année, pour développer conjointement des serveurs d’inférence IA, et effectueront des tests et une validation dans les centres de données d’IA de SK Telecom. Parmi elles, l’AGI CPU d’Arm est optimisé pour les environnements d’inférence à haute densité et les déploiements IA à grande échelle, tandis que RebelCard est conçu spécifiquement pour l’inférence IA à grande échelle.

2026-03-25 08:05

L'intermédiaire le plus sûr de l'industrie des puces a emprunté le chemin le plus dangereux

40 milliards de dollars et 150 milliards de dollars, ce n'est pas une courbe de croissance qui les sépare, mais une auto-révolution du modèle commercial. Le 24 mars, Arm a présenté à San Francisco son premier CPU de centre de données conçu en interne en 35 ans d'histoire. Cette puce, nommée AGI CPU, équipée de 136 cœurs Neoverse V3, fabriquée en TSMC en process 3 nm, avec une TDP de 300W, a pour premier client Meta, qui prévoit un déploiement massif dans l'année. La société a également annoncé des collaborations avec OpenAI, Cerebras, Cloudflare, SAP et SK Telecom. Rene Haas, PDG d'Arm, a donné lors de la conférence une série d'objectifs financiers : d'ici 2031, le chiffre d'affaires de la division des puces doit atteindre 15 milliards de dollars par an, avec un chiffre d'affaires total de l'entreprise de 25 milliards de dollars, et un bénéfice par action de 9 dollars. Que signifient ces chiffres ? Arm, pour l'exercice fiscal 2025 (jusqu'en mars 2025), prévoit un chiffre d'affaires total de 4,007 milliards de dollars, selon ses rapports annuels, dont 1,839 milliard de dollars en revenus de licences et 2,168 milliards en royalties, avec une marge brute de 97 %. En d'autres termes, une entreprise réalisant 40 milliards de dollars de revenus annuels doit, en cinq ans, atteindre une échelle proche de celle du département data center d'Intel, uniquement grâce à une nouvelle activité. Selon le rapport financier d'Intel pour le Q4 2024, le département Data Center et AI (DCAI) a généré 12,8 milliards de dollars de revenus pour l'année. ![](https://img-cdn.gateio.im/social/moments-b28ad97cef-f349f58fa5-8b7abd-ceda62) De 40 à 150 milliards, un saut de 3,7 fois, derrière ce changement se cache la tentative d'Arm de passer d'une simple société d'autorisation IP à un hybride vendant à la fois des designs et des produits finis. Cela n'a pas d'équivalent dans l'industrie des puces. Pourquoi Arm prend-il ce risque ? La réponse se trouve dans sa liste de clients. Au cours des trois dernières années, les principaux clients d'Arm dans le domaine des data centers ont tous fait la même chose. Selon des données publiques d'AWS, Amazon a migré plus de 50 % de sa puissance EC2 vers ses propres puces Graviton, dont la dernière, Graviton5, compte 192 cœurs. Google Cloud a révélé que ses puces Axion ont déjà supporté la migration de plus de 30 000 applications internes, avec une amélioration de l'efficacité énergétique de 80 %. Microsoft, avec Cobalt 200, basé également sur l'architecture Neoverse d'Arm, fabriqué en TSMC en process 3 nm, dispose de 132 cœurs. ![](https://img-cdn.gateio.im/social/moments-c5de4f78e1-d55712aa2b-8b7abd-ceda62) Ces fournisseurs de cloud utilisent tous l'architecture d'Arm sous licence, mais conçoivent, fabriquent et déploient eux-mêmes leurs puces. Arm perçoit des frais de licence et des royalties, mais pas de profit sur les puces elles-mêmes. À mesure que ces puces auto-conçues absorbent une part croissante de la puissance de calcul, le plafond de revenus d'Arm dans les data centers devient de plus en plus évident. En analysant la structure des revenus d'Arm sur les quatre dernières années, le profil de ce plafond devient plus clair. Selon ses rapports financiers, de FY2022 à FY2025, le chiffre d'affaires total de l'entreprise passera de 2,7 milliards à 4 milliards de dollars, avec une croissance annuelle d'environ 14 %. Les revenus de royalties passeront de 1,562 milliard à 2,168 milliards, et ceux des licences de 1,141 milliard à 1,839 milliard. La croissance des royalties, qui avait ralenti ces dernières années, atteindra environ 20 %, principalement grâce à la mise à niveau vers l'architecture Armv9 sur mobile, et non dans les data centers. ![](https://img-cdn.gateio.im/social/moments-bc18c9e7b5-cd622fbbbf-8b7abd-ceda62) En extrapolant cette croissance à environ 20 % par an pour les licences et royalties, d'ici 2031, le chiffre d'affaires ne pourra atteindre qu'environ 10 milliards de dollars. Les 150 milliards restants devront provenir d'une activité encore inexistante aujourd'hui. C'est cette logique arithmétique qui pousse Arm à fabriquer ses propres puces. Choisir de fabriquer ses propres puces revient à entrer en concurrence avec ses clients. Une entreprise qui vend des plans d'architecture commence à construire ses propres bâtiments, alors que ses acheteurs ont déjà construit depuis plusieurs années. C'est le véritable contexte derrière le CPU AGI à 136 cœurs. Selon The Register, cette puce a une fréquence de base de 3,2 GHz, pouvant atteindre 3,7 GHz, avec 12 canaux de mémoire DDR5, chaque cœur disposant de 6 Go/s de bande passante, 96 voies PCIe 6.0, et supportant CXL 3.0. Arm la positionne comme « la base de puissance pour l'ère du cloud AI agentic », ciblant les tâches de planification CPU et la gestion du flux de données dans l'inférence AI, sans chercher à concurrencer directement les GPU. Le rythme de changement de parts de marché en dit long. Selon Omdia, d'ici 2025, environ 21 % des serveurs dans le monde utiliseront l'architecture Arm, avec une croissance de 70 %. Mais dans les data centers à très grande échelle, cette part approche déjà 50 %. La domination de 40 ans de l'x86 n'est pas en train de s'effondrer, mais d'être remplacée, puce par puce. Le risque d'Arm en développant ses propres puces ne réside pas dans la technique, mais dans la relation. La volonté de Meta d'être le premier client s'explique en partie par le fait que Meta ne dispose pas de projets de puces auto-conçues aussi matures qu'Amazon ou Google. Mais comment Amazon, Google ou Microsoft perçoivent-ils cette démarche ? Lorsqu'un fournisseur commence à vous concurrencer sur votre propre marché, allez-vous continuer à lui confier l'autorisation de votre architecture la plus stratégique ? Le pari d'Arm est que la croissance globale du marché des data centers dépasse la détérioration de ses relations clients. Rene Haas croit fermement que la demande en CPU dans l'ère de l'IA sera suffisamment forte pour que la fabrication interne de puces et l'autorisation d'architectures coexistent. L'objectif de 15 milliards de dollars est une évaluation de cette conviction. 35 ans à vendre des plans, la première fois à construire ses propres bâtiments. Les plans continuent d'être vendus, les bâtiments aussi, mais il faut voir si le terrain peut accueillir tout le monde. Cliquez pour découvrir les opportunités chez BlockBeats. **Rejoignez la communauté officielle de BlockBeats :** Groupe Telegram abonnés : https://t.me/theblockbeats Groupe Telegram général : https://t.me/BlockBeats_App Compte officiel Twitter : https://twitter.com/BlockBeatsAsia

2026-01-29 07:59

Gate contrat secteur actions, lancement le 29 janvier, 10 contrats à terme perpétuels sur des actions américaines telles que MSFT, IBM, etc., prenant en charge un effet de levier de 1 à 20 fois

Gate News bot message, selon l'annonce officielle de Gate du 29 janvier 2026 La section des contrats d'actions de Gate sera lancée le 29 janvier 2026 à 19h00 (UTC+8) avec le lancement initial de 10 contrats à terme perpétuels sur les actions américaines MSFT, IBM, INTC, MCD, CSCO, ASML, LLY, MRVL, UNH, ARM, négociés en comptant en USDT. Les paires de trading disponibles incluent MSFT/USDT, IBM/USDT, INTC/USDT, MCD/USDT, CSCO/USDT, ASML/USDT, LLY/USDT, MRVL/USDT, UNH/USDT, ARM/USDT. Les utilisateurs peuvent choisir un levier de 1 à 20 fois pour des transactions longues ou courtes.

Publications populaires sur Arm Holdings (ARM)

quiet_lurker

quiet_lurker

Il y a 35 minutes
Je remarque simplement en suivant l'industrie de l'IA qu'il se produit un schéma étrange. Il y a seulement huit ans, une entreprise chinoise de télécommunications a littéralement perdu la vie à cause d'un embargo. Mais aujourd'hui, d'autres entreprises chinoises d'IA croissent rapidement malgré une pression plus forte. Qu'est-ce qui a vraiment changé ? Revenons à 2018. ZTE était l'un des plus grands fabricants d'équipements de télécommunications au monde—80 000 employés, des milliards de revenus annuels. Puis, en une seule journée, une commande du Bureau américain de l'industrie et de la sécurité a fermé toute l'entreprise. Aucun composant américain, aucune licence Google, aucun système d'exploitation. Trois semaines plus tard, ZTE a annoncé qu'elle ne pouvait plus faire fonctionner son activité. Ils ont payé une amende de 1,4 milliard de dollars, mais le vrai problème était dans l'écosystème—ils dépendaient totalement de la chaîne d'approvisionnement mondiale contrôlée par les États-Unis. Aujourd'hui, même avec des restrictions similaires, les entreprises chinoises d'IA ne subissent pas le même sort. Pourquoi ? Parce que le problème ne concerne pas seulement le matériel. Le véritable goulot d'étranglement, c'est CUDA. Je parle de cela parce que la plupart des gens supposent que l'interdiction des puces concerne les puces elles-mêmes. C'est une erreur. CUDA—la plateforme de calcul parallèle de NVIDIA depuis 2006—est le vrai obstacle. Tous les principaux frameworks d'IA dans le monde, de TensorFlow de Google à PyTorch de Meta, dépendent profondément de CUDA. Lorsqu'un chercheur en IA apprend, CUDA est le premier outil qu'il maîtrise. Chaque ligne de code renforce l'écosystème de NVIDIA. D'ici 2025, il y aura 4,5 millions de développeurs dans l'écosystème CUDA, plus de 3000 applications accélérées par GPU, et 40 000 entreprises dans le monde l'utilisent. Cela représente 90 % des développeurs mondiaux en IA. C'est un effet volant—une fois lancé, il est presque impossible à arrêter. Plus de développeurs, plus d'outils. Plus d'outils, plus de développeurs qui rejoignent. Le résultat ? NVIDIA fixe les règles, et tout le monde suit. Ainsi, entre 2022 et 2024, le gouvernement américain a mis en œuvre trois vagues de restrictions à l'exportation de puces NVIDIA. D'abord A100 et H100, puis A800 et H800, puis H20. Mais cela n'a pas déclenché la même panique qu'avec ZTE. Pourquoi ? Parce que les entreprises chinoises ont pivoté vers l'optimisation algorithmique plutôt que de se rebeller contre le matériel. DeepSeek en est le meilleur exemple. Leur modèle V3 compte 671 milliards de paramètres, mais chaque inférence n'utilise que 37 milliards—seulement 5,5 % du total. Pour l'entraîner, ils ont utilisé seulement 2 048 GPU NVIDIA H800 pendant 58 jours, pour un coût total de 5,576 millions de dollars. Comparez cela aux 78 millions de dollars estimés pour GPT-4. Une différence d'ordre de grandeur. Le prix parle encore plus. L'entrée API de DeepSeek coûte entre 0,028 et 0,28 dollars par million de tokens, la sortie 0,42 dollar. GPT-4 coûte 5 dollars pour l'entrée, 15 dollars pour la sortie. Claude Opus est encore plus cher—15 dollars pour l'entrée, 75 dollars pour la sortie. DeepSeek est 25 à 75 fois moins cher. Cette différence de prix a déclenché un changement massif sur le marché des développeurs. En février 2026, sur OpenRouter—la plus grande plateforme d'agrégation d'API de modèles d'IA—l'utilisation hebdomadaire des modèles d'IA chinois a bondi de 127 % en trois semaines, dépassant pour la première fois les États-Unis. Il y a un an, les modèles chinois représentaient moins de 2 % du marché. Maintenant, ils ont augmenté de 421 % et approchent 6 %. Mais le changement plus profond ne concerne pas seulement le prix. Depuis mi-2025, l'application principale de l'IA a évolué du simple chat vers les Agents. Dans les scénarios d'Agents, la consommation de tokens est 10 à 100 fois plus élevée qu'en simple chat. Lorsque la consommation de tokens explose exponentiellement, le prix devient le facteur décisif. L'efficacité extrême en coûts des modèles chinois tombe à point nommé dans cette fenêtre. Mais l'optimisation algorithmique ne résout pas seulement le problème de l'entraînement. Si vous ne pouvez pas entraîner avec les données les plus récentes et itérer, votre modèle deviendra rapidement obsolète. L'entraînement nécessite une puissance de calcul massive. Alors, où les entreprises chinoises obtiennent-elles leur infrastructure de calcul ? Il y a une petite ville dans le Jiangsu, Xinghua—connue seulement pour l'acier inoxydable et la nourriture saine—mais en 2025, elle a construit une ligne de production de serveurs de 148 mètres. De la signature du contrat à la mise en service, seulement 180 jours. Le cœur de cette infrastructure est constitué de deux puces entièrement locales : le processeur Loongson 3C6000 et la carte accélératrice AI TaiChu Yuanqi T100. Le Loongson a sa propre conception, de l'ensemble d'instructions à la microarchitecture. La TaiChu Yuanqi provient du Centre national de supercalcul Wuxi et de l'Université Tsinghua, avec une architecture hétérogène à nombreux cœurs. Quand la capacité est pleine, un serveur toutes les 5 minutes. Investissement total de 1,1 milliard de yuans, avec une production prévue de 100 000 unités par an. L'important, c'est que des grappes de milliers de puces locales ont commencé à gérer la formation de modèles vraiment grands. En janvier 2026, Zhipu AI a lancé GLM-Image avec Huawei—le premier modèle de génération d'images SOTA entièrement entraîné avec des puces locales. En février, China Telecom a terminé la formation complète de leur modèle Xingchen, de niveau cent-milliard, dans un pool de calcul local de milliers de GPU à Shanghai Lingang. La signification est simple : les puces locales sont passées de l'inférence uniquement à la capacité d'entraînement. C'est un changement qualitatif. L'inférence ne nécessite que des modèles pré-entraînés, avec des exigences matérielles relativement faibles. L'entraînement exige la gestion massive de données, des calculs de gradients complexes, des mises à jour de paramètres—des besoins beaucoup plus élevés en puissance de calcul, bande passante d'interconnexion, écosystème logiciel. La force motrice derrière cela est la série Huawei Ascend. Fin 2025, le nombre de développeurs dans l'écosystème Ascend a atteint 4 millions, avec 3 000 partenaires, et 43 modèles majeurs ont terminé leur pré-entraînement avec Ascend, plus de 200 modèles open-source adaptés. Le 2 mars 2026, lors du MWC, Huawei a présenté une nouvelle infrastructure de calcul SuperPoD pour les marchés étrangers. La puissance de calcul FP16 de l'Ascend 910B est équivalente à celle du NVIDIA A100. Il reste des lacunes, mais elle est devenue utilisable—passant d'inutilisable à utilisable. La construction de l'écosystème ne doit pas attendre des puces parfaites—il faut un déploiement large dès qu'elles sont suffisamment bonnes, en utilisant les besoins réels des entreprises pour forcer des mises à jour matérielles et logicielles. Les cibles de déploiement de ByteDance, Tencent, Baidu pour les serveurs locaux devraient doubler en 2026 par rapport à l'an dernier. Selon le ministère de l'Industrie et de l'Information technologique, l'échelle de calcul intelligent en Chine a atteint 1590 EFLOPS. 2026 sera l'année du déploiement massif de puissance de calcul locale. Mais il y a une autre facette de l'histoire tout aussi importante—l'énergie. La Virginie, qui gère une part massive du trafic mondial des centres de données, a suspendu les permis pour de nouveaux centres de données. La Géorgie a suspendu jusqu'en 2027. L'Illinois et le Michigan ont imposé des restrictions. Selon l'Agence internationale de l'énergie, la consommation électrique des centres de données américains en 2024 a atteint 183 térawattheures, environ 4 % de la consommation nationale totale. D'ici 2030, elle devrait doubler pour atteindre 426 TWh, dépassant peut-être 12 %. Le PDG d'Arm a déclaré qu'en 2030, les centres de données IA pourraient consommer 20 à 25 % de l'électricité américaine. Le réseau électrique américain est à ses limites. Le réseau PJM, couvrant 13 États de l'est, souffre d'une pénurie de capacité de 6 GW. D'ici 2033, toute la capacité électrique des États-Unis pourrait manquer de 175 GW, équivalent à la consommation énergétique de 130 millions de foyers. Les prix de l'électricité dans les régions concentrant des centres de données ont augmenté de 267 % en cinq ans. La limite de puissance de calcul, c'est l'énergie. Mais côté énergie, l'écart entre la Chine et les États-Unis est plus grand que celui des puces, mais dans la direction opposée. La production annuelle d'électricité en Chine est de 10,4 trillions d'unités contre 4,2 trillions pour les États-Unis—la Chine en produit
0
0
0
0