PDG d'Anthropic : Claude ne suffit pas pour une utilisation militaire, en attente de la signature de clauses plus claires

ChainNewsAbmedia

Le PDG d’Anthropic, Dario Amodei, a été interviewé par le rédacteur en chef de « The Economist », Zanny Minton Beddoes, pour expliquer pourquoi Anthropic s’oppose à certains clauses des contrats avec le Pentagone. Il estime que la position d’Anthropic repose non seulement sur des valeurs démocratiques, mais aussi sur la préoccupation quant à la fiabilité des modèles d’IA existants pour une utilisation dans la défense militaire, ainsi que sur la question de qui devrait en avoir le contrôle final. Amodei a également exprimé son souhait d’établir un dialogue avec le gouvernement afin de discuter de clauses plus claires concernant l’IA.

Amodei : Claude n’est pas encore apte à devenir un modèle d’automatisation militaire complète

Après que le PDG d’Anthropic, Amodei, ait insisté sur le fait que Claude ne doit pas être utilisé pour la surveillance de masse ou pour des armes autonomes, l’administration Trump a ordonné l’interdiction aux agences fédérales d’utiliser les outils de modèles fournis par cette société. Aujourd’hui, Claude est considéré par les États-Unis comme un fournisseur à risque en matière d’IA. Amodei indique que le modèle principal d’Anthropic, Claude, n’est pas encore prêt pour des applications militaires entièrement automatisées. En tant que fournisseur privé d’IA, il reconnaît qu’il n’est pas facile d’expliquer à ses clients gouvernementaux comment utiliser ces modèles de manière appropriée, mais il considère que c’est une mesure de sécurité nécessaire.

Amodei précise que, jusqu’à présent, Anthropic a signé un contrat à portée limitée avec le Pentagone, qui ne présente pas de problème. Leur inquiétude concerne toutefois l’utilisation future, notamment la possibilité d’une automatisation militaire totale, où une IA pourrait contrôler des millions de drones sans respecter les normes militaires traditionnelles. Si cette portée n’est pas réglementée, il sera impossible de maîtriser cette utilisation.

Comment Anthropic justifie-t-il que limiter l’usage des armes soit raisonnable ?

Dans son entretien avec « The Economist », Amodei explique que la restriction de l’utilisation de Claude pour commander des drones dans des armes entièrement autonomes repose sur deux raisons : la fiabilité insuffisante de Claude et l’absence d’un cadre de supervision humaine (vidéo 0:00-0:18, 5:48-5:58).

Fiabilité insuffisante de Claude : Amodei compare Claude à une compagnie aérienne qui devrait publier que certains modes de pilotage sont dangereux (vidéo 0:05-0:49).

Absence de cadre de supervision humaine : il craint qu’un seul individu puisse contrôler des millions d’armes sans responsabilité militaire traditionnelle, ce qui pourrait mener à une situation où une seule personne aurait le contrôle total d’une armée de drones (vidéo 5:48-6:55).

Comment gérer les divergences d’opinion sur l’intelligence artificielle militaire ?

Amodei, dans son dialogue avec « The Economist », exprime l’espoir que le gouvernement américain et Anthropic puissent collaborer de manière plus détaillée pour gérer les divergences d’opinion concernant l’application de l’IA. Il insiste sur le fait que les fournisseurs d’IA et le gouvernement doivent discuter sérieusement de la fiabilité des modèles existants et des normes de gouvernance, afin de faire face aux risques potentiels liés à l’IA. Selon lui, les fournisseurs ont la responsabilité de préciser si leurs modèles sont matures pour certaines applications à haut risque.

Amodei propose de commencer par signer un contrat limité, couvrant des cas d’usage consensuels, afin de permettre aux deux parties d’établir des règles d’utilisation avant d’étendre l’application à des tâches plus controversées. Il souligne cependant que ces discussions doivent être approfondies pour trouver un équilibre, évitant à la fois un pouvoir excessif pour les entreprises privées et une domination absolue du gouvernement, difficile à remettre en question.

Le nom « Anthropic » dérive de « anthropologie », révélant la vocation initiale de son fondateur : créer une entreprise d’IA centrée sur l’humain. Cette conviction fait d’Amodei l’un des rares PDG de haute technologie à oser publiquement défier le gouvernement américain et à dénoncer la Chine pour le vol de la technologie Claude. La manière dont Anthropic parviendra à équilibrer ses principes avec les exigences de la sécurité nationale sera un tournant crucial dans le développement de l’IA militarisée. Comment résoudre cette impasse sur la souveraineté technologique et les limites éthiques ? Le monde entier observe.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire