Les startups de la Silicon Valley aiment qualifier leurs produits d’innovations de rupture, mais aucune entreprise ne fait face à une crise existentielle comme Anthropic lorsqu’elle crée réellement une innovation de rupture. Alors que le terme « innovation de rupture » devient un cliché pour les investisseurs en capital-risque de la Silicon Valley, Anthropic offre au monde une véritable révélation moderne : des avancées technologiques qui doublent la valorisation de l’entreprise, mais aussi une tempête politique et réglementaire qui la pousse au bord du gouffre. Le magazine Time a dévoilé en exclusivité l’histoire de ces outsiders de l’IA. Sous la pression de la sécurité nationale et des concurrents féroces, cette entreprise d’IA, qui jure de protéger l’humanité, doit survivre dans les interstices d’une politique oppressante.
Croissance rapide d’Anthropic, une menace pour le secteur logiciel
Dans le domaine des applications commerciales de l’IA, la valorisation d’Anthropic atteint 380 milliards de dollars, avec une croissance des revenus remarquable, dépassant même Goldman Sachs, McDonald’s et Coca-Cola. Claude, le produit d’Anthropic, peut exécuter du code de manière autonome, détecter des erreurs et optimiser des systèmes, bouleversant complètement le mode de travail traditionnel des ingénieurs logiciels. Les investisseurs ont découvert qu’Anthropic pouvait influencer même les marchés financiers : chaque nouvelle version provoque souvent une forte volatilité des actions technologiques. Le PDG Amodei prévoit que dans cinq à dix ans, l’intelligence artificielle pourrait remplacer la majorité des emplois de bureau. Ce succès commercial, associé à des risques sociaux, crée une contradiction au sein de l’équipe d’évaluation sociale d’Anthropic : d’un côté, ils veulent augmenter la productivité et les résultats, mais de l’autre, ils craignent que les produits de l’entreprise entraînent un chômage massif.
Les risques potentiels de Claude 3.7 Sonnet
Anthropic, qui place la sécurité humaine au cœur de sa vision, se trouve au centre d’une tempête de progrès technologique et de régulation gouvernementale. La ligne éthique que l’entreprise maintient est mise à rude épreuve lorsque le Département de la Défense américain demande des achats, risquant ainsi d’être blacklistée.
Selon des tests internes, Claude est déjà 427 fois plus rapide que l’humain pour certaines tâches clés. En février dernier, lors d’un test, un membre d’Anthropic a découvert que la version à venir de Claude présentait un risque potentiel de fabrication d’armes biologiques. Cette découverte a conduit l’entreprise à retarder d’urgence le lancement de Claude 3.7 Sonnet, illustrant leur grande attention à la sécurité. Logan Graham, chef de l’équipe rouge d’Anthropic, souligne que face à des risques catastrophiques comme une guerre nucléaire ou l’extinction humaine, les développeurs ont une responsabilité sociale immense. Actuellement, aucune solution reconnue n’existe dans l’industrie, et les équipes doivent équilibrer la compétition pour les ressources et la gestion des risques. Ce standard de sécurité prioritaire fait d’Anthropic une entité unique dans le secteur de l’IA.
Conflit éthique avec le gouvernement Trump
La relation d’Anthropic avec le gouvernement américain a connu un tournant radical l’année dernière. Refusant d’utiliser l’IA pour des armes autonomes ou la surveillance de citoyens, l’entreprise a rejeté la demande de négociation du Pentagone. Peu après, le gouvernement Trump l’a classée comme fournisseur à risque pour la sécurité nationale, une première pour une entreprise locale. Le Département de la Défense estime que les entreprises privées ne doivent pas limiter les systèmes de commandement militaire. Amodei a indiqué dans un mémo interne que cette décision était due au refus d’Anthropic de faire des dons à Trump ou de s’aligner sur des objectifs politiques spécifiques, tout en insistant sur une transparence réglementaire. Ce blocage a permis à OpenAI, un concurrent, d’obtenir un contrat militaire. La controverse soulève la question fondamentale : qui a le pouvoir de limiter la technologie ?
Le fondateur Amodei, un outsider de la scène IA
Parmi les particularités d’Anthropic, il faut mentionner le fondateur Amodei, qui a écrit en 2024 un article de 14 000 mots sur la façon dont l’IA peut accélérer la découverte scientifique pour changer le monde, évoquant une vision utopique. En janvier de cette année, il a publié une novella détaillant les crises potentielles liées à l’avancement de l’IA, telles que la surveillance de masse, le chômage ou la perte de contrôle humain. Qui d’autre dans une startup aurait le courage de s’autocritiquer ainsi, ou de craindre de causer du mal à autrui ?
Dans la lutte commerciale de l’IA, OpenAI semble pour l’instant en tête
Selon Time, Anthropic ignorait que, pendant qu’elle réfléchissait à des stratégies, le Pentagone négociait également avec OpenAI pour intégrer ChatGPT dans ses systèmes. Plus tard, des sources ont rapporté qu’OTTMAN, le fondateur d’OpenAI, aurait affirmé avoir conclu un accord avec le Pentagone, similaire à celui d’Anthropic. Amodei a envoyé un message à ses employés, accusant Otman et le Pentagone de « tromper » le public, en leur faisant croire que leur accord comportait de nombreuses restrictions. Des officiels du Pentagone ont confirmé que Musk’s xAI allait aussi héberger ses modèles sur des serveurs sécurisés, et que des négociations étaient en cours avec Google.
Anthropic adopte une stratégie d’attente et de report
Claude a écrit la majorité du code nécessaire au développement des futurs modèles d’IA, ce qui a réduit l’intervalle entre les lancements de mois à semaines. La vitesse d’exécution de Claude sur certaines tâches dépasse largement celle des humains, ce qui inquiète la direction quant à une possible perte de contrôle face à l’évolution de l’IA.
Lorsque l’IA commence à écrire sa propre logique d’évolution, combien de temps l’humanité lui reste-t-elle ? Face à une concurrence croissante, Anthropic a récemment modifié sa politique, promettant une plus grande transparence sur les risques liés à la sécurité de l’IA, notamment en divulguant les performances de ses propres modèles lors des tests de sécurité. Si la direction estime que l’IA pourrait entraîner des risques catastrophiques, elle peut « reporter » le développement technologique.
Mais cette histoire sur l’éthique de l’IA n’est pas encore terminée.