ChatGPT a bloqué le compte du tricheur il y a 8 mois mais n'a pas porté plainte, puis il a tué 8 personnes, Altman s'excuse

Canada’s British Columbia Tumbler Ridge a été le théâtre d’une fusillade en février de cette année, faisant 8 morts. Par la suite, il a été révélé qu’OpenAI avait déjà, huit mois avant l’incident, banni le compte ChatGPT du tireur Rootselaar pour « contexte lié à la violence armée », mais n’avait pas informé la police en invoquant « pas de seuil de menace immédiate ». Le PDG d’OpenAI, Sam Altman, a présenté ses excuses par lettre la semaine dernière.
(Précédent : Elon Musk poursuit OpenAI en justice : demande la suppression du statut de société à but lucratif, la destitution d’Altman, et réclame 134 milliards de dollars)
(Contexte supplémentaire : OpenAI publie les cinq grandes constitutions de l’AGI : l’IA ne doit pas être monopolisée par une minorité, le sacrifice peut apporter plus de résilience)

Table des matières de cet article

Basculer

  • Une période de vide de 8 mois
  • Qui a fixé le seuil de signalement ?
  • Changements et non-changements

Le 10 février 2026, une fusillade éclate dans la petite ville isolée de Tumbler Ridge, en Colombie-Britannique, Canada. Jesse Van Rootselaar, 18 ans, tue d’abord sa mère et son frère de 11 ans chez lui, puis se rend à l’école secondaire de la ville, causant la mort de 8 personnes, avant de se suicider.

L’enquête révèle qu’OpenAI, huit mois auparavant, avait déjà banni son compte ChatGPT pour « description de scénarios liés à la violence armée » dans une conversation, mais sans en informer aucune autorité policière.

Une période de vide de 8 mois

En juin 2025, le système automatique de détection d’abus de ChatGPT, associé à un modérateur humain, a marqué le compte de Van Rootselaar, qui a été suspendu. Selon OpenAI, lors de cette période, une discussion interne a eu lieu pour décider s’il fallait en informer la police.

La conclusion de cette discussion : non.

OpenAI indique que l’évaluation a conclu que le comportement du compte « ne répondait pas au seuil d’une menace immédiate et crédible de préjudice grave à autrui », et donc la procédure de signalement n’a pas été activée. Après la suspension, l’affaire est restée en interne. Le compte a été fermé, mais le signal n’a pas été transmis.

Ce n’est qu’après la fusillade de février 2026 qu’OpenAI a pris l’initiative de contacter les autorités canadiennes.

Qui a fixé le seuil de signalement ?

« La menace immédiate et crédible » est un seuil fixé par OpenAI lui-même, décidé par l’équipe de sécurité, juridique et politique de l’entreprise, qui détermine dans quelles situations il faut alerter la police. Ce standard n’est soumis à aucune régulation externe ni à une transparence publique sur la manière dont il est calibré.

Le compte de Van Rootselaar a passé le seuil « nécessitant un bannissement », mais pas celui « nécessitant un signalement » : ces deux seuils sont séparés dans la logique interne d’OpenAI.

Le 23 avril, Sam Altman a écrit une lettre d’excuses, publiée initialement dans le journal local TumblerRidgeLines. Dans cette lettre, il a écrit :

La douleur que votre communauté endure est inimaginable.

Ces derniers mois, j’ai pensé à vous. Je suis profondément désolé que, lors du bannissement de votre compte en juin, nous n’ayons pas informé les autorités.

Avant la publication de cette lettre, Altman avait déjà échangé directement avec le maire de Tumbler Ridge, Darryl Krakowka, et le Premier ministre de la Colombie-Britannique, David Eby. Eby a partagé la lettre sur les réseaux sociaux le 24 avril, avec cette réponse : « Les excuses sont nécessaires, mais elles sont loin d’être suffisantes face à la destruction subie par ces familles de Tumbler Ridge. »

Changements et non-changements

OpenAI a annoncé qu’il allait assouplir les critères de signalement aux autorités, afin que davantage de situations de comptes déclenchent la procédure. Le ministre fédéral de l’Intelligence artificielle du Canada, Evan Solomon, a indiqué qu’Altman avait accepté d’établir un canal de communication direct avec la GRC (Royal Canadian Mounted Police), et qu’un nouveau mécanisme guiderait les utilisateurs exprimant des signaux de crise vers des services de soutien locaux.

Le gouvernement canadien évalue actuellement si une législation supplémentaire est nécessaire pour encadrer l’obligation de signalement des plateformes d’IA.

Mais le paradoxe demeure : beaucoup de personnes pourraient simplement exprimer des propos impulsifs ou émotionnels (vous aussi, vous avez sûrement dit « je veux mourir » pour vous soulager, non ?) et être signalées, ce qui pourrait dissuader les gens de confier leurs pensées à l’IA (ou peut-être pas si mal ?).

Pour l’instant, ce problème ne relève pas d’un manque de capacité d’OpenAI. ChatGPT détecte, les modérateurs voient, mais la question est : qui décide de ce seuil ? Qui l’interprète ? Comment en calibrer la juste mesure ?

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler