La recherche sur les investissements de Susquehanna a relevé l’objectif de cours d’Intel à $80 par action le 23 avril, avant la publication des résultats du T1 2026 de la société, citant une forte demande en CPU de serveurs portée par des charges de travail d’intelligence artificielle agentique. Le nouvel objectif représente une hausse de 25% par rapport à la clôture de mardi d’Intel de 63,81 $ par action. Les contraintes d’offre devraient atteindre un pic au T1 2026 et s’assouplir au T2 2026, soutenant une performance supérieure à la saisonnalité pour le reste de l’année, selon le rapport client du analyste Christopher Roland.
Susquehanna s’attend à ce que les résultats d’Intel au T1 2026 atteignent les attentes ou les dépassent légèrement, principalement grâce à une demande plus forte en CPU de serveurs, mais partiellement compensée par des livraisons (ODM) du fabricant de conception d’origine (original design manufacturer) de PC faibles. Roland a noté que les tendances des livraisons ODM du T1 sont plus faibles qu’anticipé précédemment, créant un risque baissier pour le segment (CCG) du groupe de calcul client. La prévision de CCG de l’analyste est inférieure à l’attente du consensus du marché, à savoir une baisse séquentielle de 13%.
Malgré la forte performance des serveurs, Roland maintient une recommandation « neutre » sur Intel, citant des pénuries de puces mémoire qui limitent l’assemblage de PC. Il s’attend à ce que les livraisons ODM reculent de pourcentages à deux chiffres tout au long de 2026, alors que les pénuries de puces de stockage persistent. Sur l’activité fonderie d’Intel, Roland a qualifié la décision de l’entreprise de rejoindre le projet Terafab avec SpaceX et Tesla d’« intéressante », et a exprimé son optimisme quant à l’adoption par des clients externes du procédé de fabrication 14A d’Intel, décrivant certains partenariats comme « très actifs ».
Au cours des deux dernières années, le récit de l’industrie de l’intelligence artificielle a été dominé par les capacités des GPU — une dynamique qui a propulsé le titre de NVIDIA vers des sommets historiques. Les CPU ont joué un rôle d’appui dans les centres de données d’IA, gérant principalement le contrôle générique et la planification de base pendant la phase d’entraînement, tandis que la puissance de calcul parallèle des GPU prenait en charge les opérations matricielles les plus intensives en calcul.
Cette dynamique évolue fondamentalement avec l’émergence des charges de travail d’IA agentique et d’apprentissage par renforcement. Contrairement à la génération de texte simple, l’IA agentique décompose une demande utilisateur unique en un workflow complet ; le modèle exécute un processus entier plutôt que de générer une seule réponse. Lorsque l’IA passe de « calculer une fois » à « exécuter un workflow », la dépendance du système aux CPU augmente de manière significative. De nombreuses tâches critiques ne sont pas adaptées à l’exécution sur GPU : l’orchestration des tâches, la planification des threads, la gestion des processus, l’exécution en bac à sable, le prétraitement et le post-traitement, la coordination du cache et la conservation de l’état sont toutes des charges de travail CPU traditionnelles. Dans des scénarios multi-agents où plusieurs agents s’exécutent simultanément, où l’on invoque des outils et où l’on partage l’état, les exigences en nombre de cœurs CPU, en nombre de threads, en performance mono-cœur et en capacité de gestion de la mémoire augmentent sensiblement.
Le directeur principal de SemiAnalysis, Dylan Patel, a déclaré dans une interview du 8 avril que les paradigmes de charges de travail IA passent de la génération de texte simple à des applications plus complexes d’IA agentique et d’apprentissage par renforcement, et que les CPU font face à des « pénuries de capacité extrêmement sévères ». Cette évaluation est corroborée par la recherche de TrendForce : les ratios CPU-vers-GPU actuels dans les centres de données IA se situent environ à 1:4 à 1:8, mais à l’ère de l’IA agentique, ce ratio devrait passer à 1:1 à 1:2.
Le basculement structurel stimule une croissance substantielle du marché. Creative Strategies prévoit que le marché des CPU de data center passera de $25 milliard en 2026 à $60 milliard d’ici 2030 ; lorsque la demande liée à l’IA agentique est prise en compte, le marché adressable pourrait approcher $100 milliard.
Cette revalorisation a déclenché des réponses côté offre. Intel et AMD ont tous deux annoncé des hausses de prix sur des gammes de produits de CPU sélectionnées à la fin du T1 2026. Plus significativement encore, NVIDIA et Arm ont tous deux annoncé leur entrée sur le marché des CPU de serveurs en mars 2026 — un géant des GPU et une entreprise de licence de propriété intellectuelle effectuant des mouvements stratégiques identiques le même mois n’est pas une coïncidence, mais plutôt un signal de marché concentré.
Les processeurs Intel Xeon dominaient autrefois avec plus de 95% du marché des CPU de data center. Cette domination a commencé à s’éroder en 2021 lorsque des problèmes de rendement du procédé Intel 7 ont fait que les Xeon Sapphire Rapids ont pris près de deux ans de retard, ouvrant un espace de marché pour l’EPYC Milan d’AMD.
Intel prévoit deux produits phares pour 2026. Le Xeon 6+ (Clearwater Forest), basé sur l’architecture Darkmont, offrira 288 cœurs et 288 threads avec une puissance thermique de conception (TDP) d’environ 450 watts. Le Xeon 7 (Diamond Rapids), basé sur l’architecture Panther Cove-X, atteindra jusqu’à 256 cœurs et 256 threads avec une TDP de 650 watts. Les deux produits seront fabriqués sur le procédé 18A le plus avancé d’Intel et introduiront pour la première fois la technologie de l’hybridation Foveros Direct. Toutefois, TrendForce avertit que les défis persistants de rendement du procédé 18A pourraient repousser les calendriers de production de masse des deux produits à 2027.
La trajectoire concurrentielle d’AMD semble plus stable. Son EPYC Venice phare 2026 utilisera le procédé N2 de TSMC avec l’architecture Zen 6 et des technologies d’emballage avancées CoWoS-L et SoIC, offrant 256 cœurs et 512 threads grâce à l’(SMT) (multithreading simultané) — le plus grand nombre de threads sur le marché actuel. TrendForce s’attend à ce qu’AMD continue de gagner des parts de marché face à Intel tout au long de 2026.
Au-delà d’Intel et d’AMD, une vague de concurrents non traditionnels entre sur le marché des CPU de serveurs à une vitesse sans précédent, cherchant à remodeler fondamentalement la dynamique concurrentielle.
En mars 2026, NVIDIA a annoncé le CPU Vera comme produit autonome pour répondre à la demande des clients en configurations CPU-vers-GPU plus flexibles. Vera utilise l’architecture propriétaire Olympus de NVIDIA, construite sur le procédé N3 de TSMC avec l’emballage CoWoS-R, et délivre 88 cœurs et 176 threads avec une bande passante d’interconnexion NVLink-C2C de 1,8 térabit par seconde, permettant le partage de mémoire avec les GPU NVIDIA. NVIDIA a également introduit le rack CPU Vera, intégrant 256 CPU par rack pour un total de 22 528 cœurs, 45 056 threads, et 400 téraoctets de mémoire totale.
Toujours en mars 2026, Arm a dévoilé son premier produit CPU développé en interne, le Arm AGI CPU, mettant fin à 35 ans d’activité pure de licensing. Construit sur le procédé N3 de TSMC avec l’architecture Neoverse V3, l’AGI CPU fournit 136 cœurs et 136 threads pour une TDP de 300 watts, prenant en charge la mémoire DDR5-8800 et le PCIe Gen6. Arm a lancé simultanément deux configurations de racks : une version refroidie par air intégrant 60 AGI CPUs (8,160 cores, environ 180 terabytes de mémoire) et une version refroidie par liquide prenant en charge 336 CPUs (45,696 cores et 1 pétaoctet de mémoire).
Les principaux fournisseurs de services cloud accélèrent leur propre développement de CPU. Amazon Web Services a publié Graviton5 (192 cœurs et 192 threads sur le procédé N3 de TSMC) en décembre 2025, le déployant aux côtés de son ASIC IA Trainium 3 sur mesure afin de réduire les coûts de calcul IA. Microsoft a lancé Cobalt 200 (132 cœurs et 132 threads sur le procédé N3) en novembre 2025. Google prévoit de publier Axion C4A.metal bare-metal et Axion N4A de nouvelle génération en 2026, en mettant l’accent sur l’optimisation du coût-performance.
Bien que la performance récente en Bourse d’Intel soit frappante et que la forte demande de CPU serveurs portée par l’IA agentique fournisse une justification substantielle pour une perspective positive, le sentiment des analystes reste prudent dans un contexte de concurrence qui s’intensifie et de défis opérationnels persistants d’Intel. Sur 52 analystes couvrant l’action suivie par des sources médiatiques, seuls 10 donnent une recommandation « acheter », tandis que 6 donnent une recommandation « vendre » — une concentration de recommandations « vendre » supérieure à plus du double de la moyenne du S&P 500. Le prix de négociation actuel d’Intel représente une prime de 27% par rapport au prix cible analyste consensuel, ce qui suggère que le titre a trop monté trop rapidement. Le ratio cours/bénéfices actuel de l’action dépasse 90x, un plus haut historique et 50% au-dessus de la valorisation maximale pendant la bulle dot-com ; la moyenne du secteur des puces P/E est d’environ 21x.
Q : Pourquoi la demande en CPU de serveurs explose-t-elle si les GPU ont dominé l’infrastructure IA au cours des deux dernières années ?
Les charges de travail IA passent de la génération de texte simple (dominée par les opérations de matrices des GPU) à des workflows d’IA agentique et d’apprentissage par renforcement qui nécessitent une implication importante des CPU pour l’orchestration des tâches, la planification des threads, la gestion des processus et la conservation de l’état. Ce changement structurel devrait faire augmenter les ratios CPU-vers-GPU dans les centres de données IA de 1:4–1:8 à 1:1–1:2.
Q : Quel est le principal risque concurrentiel d’Intel sur le marché des CPU de serveurs ?
Intel fait face à un risque d’exécution sur son nœud de procédé 18A, TrendForce prévenant que les produits phares Xeon 6+ et Xeon 7 prévus pour 2026 pourraient ne pas atteindre la production de masse avant 2027 en raison de problèmes de rendement. En parallèle, l’EPYC Venice d’AMD est sur la bonne voie pour 2026 en utilisant le procédé N2 de TSMC, plus mature, et de nouveaux entrants, dont NVIDIA, Arm et des fournisseurs cloud, lancent tous des produits compétitifs sur le procédé N3 de TSMC.
Q : Pourquoi Susquehanna maintient-elle une recommandation neutre sur Intel malgré le relèvement de son objectif de cours à 80 $ ?
Bien que la demande en CPU de serveurs soit forte, Susquehanna indique que des pénuries de puces mémoire limitent l’assemblage de PC et s’attend à ce que les livraisons ODM diminuent de pourcentages à deux chiffres tout au long de 2026. La recommandation neutre reflète une vision équilibrée : les fondamentaux positifs côté serveurs sont compensés par la faiblesse du segment PC et les risques d’exécution concurrentielle.