OpenAI et le Canada : quelles mesures après la tuerie de Tumbler Ridge et quel suivi attendre ?

Crédit: Getty Images

Depuis l’horreur de Tumbler Ridge, les engagements publics d’OpenAI ont provoqué un débat important sur la responsabilité des plateformes d’IA et leur rôle face aux signes avant-coureurs de violence. Dans un communiqué et lors d’échanges avec des responsables canadiens, la filiale de ChatGPT a annoncé une refonte de ses protocoles de sécurité pour mieux collaborer avec les autorités. Voici un tour d’horizon clair et amical de ce qui a été promis, de ce qui reste à vérifier et de ce que cela signifie pour la population.

Refonte des protocoles de sécurité - Getty Images

Crédit image : Getty Images

Ce qu’OpenAI a annoncé : la vice-présidente des politiques mondiales, Ann M. O’Leary, a indiqué que la société allait établir des points de contact directs avec les autorités canadiennes afin d’accélérer le transfert d’informations lorsqu’un utilisateur présente des signes de potentiel violent. L’objectif affiché est d’éviter que des cas préoccupants ne restent isolés et que des tragédies similaires ne se reproduisent.

Renforcement des processus et ressources d

Crédit image : Getty Images

Concrètement, OpenAI a dit vouloir :

  • Mettre en place des points de contact officiels avec les autorités fédérales, provinciales et locales ;
  • Améliorer ses processus de détection en s’appuyant sur des experts en santé mentale et en comportement ;
  • Mieux adapter les ressources d’aide proposées par ChatGPT aux communautés concernées (géographie, langue, contexte culturel) ;
  • Renforcer le passage de la détection automatisée à l’examen humain et accélérer les décisions de signalement si un seuil de risque est atteint.

OpenAI précise que ces engagements constituent seulement les « premières étapes » d’une amélioration continue. La société prévoit de discuter dans les mois à venir avec Ottawa, les provinces, des partenaires industriels et des acteurs locaux pour affiner ses modèles et ses politiques de sécurité.

Réaction ministérielle - Getty Images

Crédit image : Getty Images

La réaction du gouvernement : Evan Solomon, ministre de l’Intelligence artificielle et de l’Innovation, a demandé des éclaircissements sur la manière dont les plateformes numériques réagissent aux signes avant-coureurs crédibles de violence. Il doit rencontrer Sam Altman, le PDG d’OpenAI, pour discuter de ces questions. Les ministres canadiens ont publiquement critiqué les manquements apparents des mesures de sécurité après le massacre et ont indiqué qu’une réglementation plus stricte de l’IA pourrait être envisagée si des améliorations significatives n’étaient pas mises en œuvre.

Enquête policière en cours - Getty Images

Crédit image : Getty Images

À propos de l’enquête : les autorités policières mènent toujours leur enquête. Le ministre a précisé que les discussions avec OpenAI ont porté sur l’identification des risques imminents et crédibles, le basculement entre détection automatique et revue humaine, et le traitement des signalements, notamment lorsqu’il s’agit de jeunes. Les détails de l’affaire n’ont pas été abordés publiquement pour ne pas compromettre l’enquête.

Partage des scénarios violents avec ChatGPT - Getty Images

Crédit image : Getty Images

Les révélations du Wall Street Journal ont montré que Jesse Van Rootselaar, l’auteure de l’attaque, avait partagé des scénarios violents avec ChatGPT des mois avant les faits. OpenAI a alors suspendu son compte, mais n’a informé les autorités qu’après l’attaque. L’entreprise a expliqué qu’elle n’avait pas identifié, à ce moment-là, de plan crédible ou imminent atteignant le seuil nécessaire pour référer le cas aux forces de l’ordre.

Second compte et contournement - Getty Images

Crédit image : Getty Images

OpenAI a ajouté que la personne en question avait contourné la suspension en créant un deuxième compte, découvert seulement après que la GRC ait rendu le nom public. Ce type de contournement pose une question technique et éthique : comment distinguer les faux comptes et investiguer sans violer la vie privée ?

Ce qu’il reste à clarifier : plusieurs points pratiques et juridiques demeurent ouverts. Parmi eux :

  • La définition opérationnelle de ce qui constitue un « plan crédible et imminent » ;
  • Les délais et modalités de transmission d’informations aux forces de l’ordre ;
  • Les garanties pour protéger la vie privée et éviter la stigmatisation d’utilisateurs vulnérables ;
  • La capacité des autorités locales à répondre rapidement aux signalements transmis par des acteurs privés.

En conclusion, l’annonce d’OpenAI est une étape importante, mais elle n’efface pas l’exigence d’une mise en œuvre transparente, supervisée et évaluée par des experts indépendants. Pour la population, l’essentiel est que les plateformes deviennent plus fiables pour repérer et signaler les situations à risque, tout en respectant les droits et la confidentialité des personnes. Les prochaines semaines, avec les rencontres ministérielles et les échanges entre OpenAI et les autorités canadiennes, seront déterminantes pour traduire ces promesses en actions concrètes.