Google discute avec Marvell pour développer des puces IA personnalisées ; une unité de traitement de la mémoire prévue pour 2027

Message de Gate News, 20 avril — Google est en pourparlers avec le fabricant américain de puces Marvell Technology pour développer deux puces personnalisées conçues pour exécuter des charges de travail IA plus efficacement et réduire la dépendance aux GPU de Nvidia.

L’une des puces sera une unité de traitement de la mémoire (MPU) conçue pour fonctionner aux côtés de l’unité de traitement des tenseurs de Google (TPU), tandis que l’autre sera un nouveau TPU construit spécifiquement pour l’inférence des modèles d’IA. Les entreprises visent à finaliser la conception du MPU dès 2027 avant de passer à la phase de production de test.

Ce partenariat reflète la volonté plus large de Google de développer des composants en silicium propriétaires pour son infrastructure cloud IA, permettant à l’entreprise d’optimiser les performances tout en construisant des alternatives aux solutions existantes basées sur des GPU.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

La baisse de 23,8 % du volume d’appels des modèles d’IA en Chine d’une semaine sur l’autre, les États-Unis passent devant pour la première fois en deux mois

Les volumes d’appels des modèles d’IA mondiaux ont diminué pour atteindre 206 billions de jetons la semaine dernière. Les appels de la Chine sont passés à 444,1 billions, tandis que les volumes des États-Unis ont augmenté à 490,8 billions, dépassant ceux de la Chine pour la première fois en deux mois. Quatre des neuf modèles les plus importants sont chinois, avec DeepSeek V3.2 classé deuxième en nombre d’appels.

GateNewsIl y a 8m

Axios exclusif : la NSA américaine contourne la liste noire du Pentagone en utilisant Anthropic Mythos ; Dario Amodei se rend d’urgence à la Maison-Blanche pour négocier

La NSA américaine continue d’utiliser son puissant modèle Mythos d’Anthropic, malgré l’interdiction au Pentagone, ce qui a suscité des frictions et des interrogations entre les services gouvernementaux. L’utilisation de la NSA et l’interdiction du Pentagone créent une contradiction interne, mettant en lumière l’incohérence interne de la gouvernance de l’IA aux États-Unis. Le PDG d’Anthropic s’est déjà entretenu avec des responsables de la Maison-Blanche pour discuter des limites d’utilisation et des problèmes de sécurité ; à l’avenir, il pourrait ajuster les processus d’achat du gouvernement et les normes de transparence.

ChainNewsAbmediaIl y a 10m

Les meilleurs modèles d’IA accusent du retard sur les tâches d’entreprise courantes, selon Databricks : des modèles spécialisés plus petits surpassent

David Meyer de Databricks met en évidence les limites des principaux modèles d’IA dans les tâches professionnelles courantes, en les opposant à leur réussite sur des problèmes complexes. Des différences fondamentales dans les types de données affectent les performances, entraînant un basculement vers des modèles plus petits et efficaces, adaptés à des flux de travail spécifiques, afin d’améliorer la fiabilité et la rentabilité des applications d’IA.

GateNewsIl y a 23m

Intrusion d’IA tierce dans Vercel, Orca confirme en urgence la sécurité du protocole de rotation de la clé

Un exchange décentralisé Orca annonce avoir finalisé la rotation des clés, et confirme la sécurité des fonds des utilisateurs ; cette décision fait suite à une attaque visant la plateforme cloud Vercel. Le vecteur d’attaque consiste à utiliser une intégration OAuth d’outils tiers d’IA pour accéder au système Vercel ; une faille de chaîne d’approvisionnement rend les mesures de sécurité traditionnelles difficiles à détecter. Vercel invite les utilisateurs à examiner les variables d’environnement afin de renforcer la protection de sécurité, et souligne que la dépendance des projets cryptographiques à l’infrastructure cloud crée de nouveaux risques de sécurité.

MarketWhisperIl y a 35m

Claude Haiku 3 est officiellement mis hors service le 19/4 : Anthropic force la migration vers Haiku 4.5, les développeurs doivent modifier l’ID du modèle et les paramètres

Le modèle Claude Haiku 3 a officiellement cessé d’être pris en charge le 19 avril 2026 ; les développeurs doivent mettre à jour l’identifiant du modèle dans les demandes d’API vers Haiku 4.5, et tenir compte de deux changements incompatibles. Les entreprises doivent renforcer la gestion du cycle de vie des modèles d’IA afin d’éviter toute interruption de service due au retrait d’un modèle. Il est recommandé aux développeurs de mettre à jour immédiatement le code et de surveiller l’évolution des coûts.

ChainNewsAbmediaIl y a 36m

Claude Opus 4.7 Masquage des hausses de prix : un nouvel Tokenizer fait consommer 37–47 % de jetons supplémentaires pour le même texte, les frais ne changent pas mais la facture devient plus chère

Le nouveau tokenizer de la version 4.7 d’Anthropic Claude Opus découpe le même texte en davantage de tokens, ce qui fait augmenter les coûts d’entrée et de sortie de 37 à 47 %. Bien que les tarifs officiels restent inchangés, les entreprises doivent vérifier les clauses du contrat et le suivi des coûts, car la mise à niveau du modèle peut entraîner un dépassement du budget. De plus, un manque de transparence attirera l’attention des autorités de régulation, devenant un nouvel enjeu pour l’industrie de l’IA.

ChainNewsAbmediaIl y a 39m
Commentaire
0/400
Aucun commentaire