Un tournant intéressant dans l’histoire de l’IA et des contrats militaires. Il s’avère que, lorsqu’il s’agit de grosses sommes d’argent, même les entreprises qui déclarent respecter des normes éthiques élevées commencent à revoir leur position.



Tout a commencé lorsque Anthropic, créateurs de Claude, ont refusé de céder aux exigences du Pentagone. Le ministère de la Défense exigeait de lever toutes les restrictions sur l’utilisation de l’IA pour la surveillance de masse et les armes autonomes. Anthropic a choisi la voie de la principauté et a refusé, même si cela concernait un contrat de 200 millions de dollars. Un risque sérieux pour toute entreprise, mais ils ont mis la question de l’éthique au-dessus du profit financier.

En réponse, le Pentagone n’a pas fait dans la dentelle. Anthropic a été officiellement classée comme une menace pour la sécurité de la chaîne d’approvisionnement, ce qui leur a pratiquement fermé l’accès aux projets militaires. On aurait pu penser que c’était la fin de l’histoire.

Mais c’est ici que commence la partie la plus intéressante. OpenAI, qui semblait initialement être un allié d’Anthropic en matière d’éthique, a soudainement signé un contrat avec le Pentagone dans des conditions similaires. Sauf qu’OpenAI n’a pas garanti de respecter les restrictions. En gros, ils ont pris la place laissée vacante par Anthropic, mais sans cette même principauté.

C’est un bon exemple de la façon dont fonctionne le vrai business. Les belles paroles sur l’éthique sonnent bien, jusqu’à ce qu’une proposition sérieuse se présente. Lorsqu’il y a de l’argent sur la table, les priorités peuvent changer. OpenAI a montré que, pour elle, l’éthique dans ses relations avec l’État était moins importante que les opportunités contractuelles.

La situation reflète la tension croissante dans l’industrie de l’IA. D’un côté, les entreprises parlent de développement responsable des technologies et de cadres éthiques. De l’autre, les structures gouvernementales poussent à l’expansion des capacités, et la concurrence entre entreprises les pousse à faire des compromis avec leurs propres principes. La question de l’éthique devient de plus en plus complexe, surtout lorsqu’il s’agit d’applications militaires de l’IA et de contrats étatiques de grande envergure.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler