La tragédie de Tumbler Ridge révèle l’échec de la réglementation canadienne en matière d’IA

DAKAR, 26 février 2026(JVFE)-Le ministre fédéral de l’IA, Evan Solomon, a déclaré samedi être « profondément troublé » par l’implication d’OpenAI dans la tuerie de Tumbler Ridge. Son gouvernement n’a toutefois pas mis en place les mesures de protection nécessaires. 
La tragédie de Tumbler Ridge, survenue en février 2026, est devenue le symbole des lacunes de la gouvernance numérique au Canada. 

Le système de vérification automatisé de l’entreprise avait signalé le compte ChatGPT de Jesse Van Rootselaar pour des interactions impliquant des scénarios de violence armée. Une douzaine d’employés environ étaient au courant. Certains préconisaient de contacter la police.

OpenAI a donc banni le compte , mais ne l’a pas signalé aux forces de l’ordre car il ne répondait pas aux « critères requis » à l’époque.

Le 10 février, Van Rootselaar a tué huit personnes (sa mère, son demi-frère de 11 ans et six autres personnes à l’école secondaire Tumbler Ridge) avant de mourir d’une blessure auto-infligée.

Cette affaire ne se résume pas à une simple erreur de jugement d’une entreprise. Elle met en lumière l’absence de tout cadre juridique canadien permettant d’attribuer les responsabilités lorsqu’une entreprise spécialisée en intelligence artificielle détient des informations susceptibles de prévenir des actes de violence.

En tant que chercheuse en éthique de la santé et gouvernance de l’IA à l’Université Simon Fraser, j’étudie comment les systèmes algorithmiques transforment la prise de décision dans des contextes à forts enjeux. La tragédie de Tumbler Ridge illustre parfaitement cette problématique : une entreprise privée a réalisé une évaluation des risques de type clinique sans avoir les compétences requises, dans un cadre juridique qui ne lui fournissait aucun encadrement.

Le ministre de l’Intelligence artificielle et de l’Innovation numérique, Evan Solomon, a déclaré avoir convoqué des représentants d’OpenAI à Ottawa afin de discuter des questions de sécurité après les révélations concernant les interactions entre la tireuse de Tumbler Ridge, en Colombie-Britannique, et ChatGPT.

Le Wall Street Journal a rapporté vendredi que le compte de Jesse Van Rootselaar avait été banni en juin dernier après avoir été signalé pour des publications troublantes, dont certaines évoquant des scénarios de violence armée.

Bien que le rapport indique que des employés ont envisagé d’alerter les autorités, OpenAI affirme que les publications ne répondaient pas aux critères requis pour informer la police, car elles ne comportaient pas de plans crédibles ou imminents.

Cette fusillade de masse, perpétrée par une jeune femme de 18 ans dont le compte ChatGPT avait été banni par OpenAI pour “idéations violentes” sans que les autorités ne soient alertées, met en lumière un “vide législatif” critique. 

M. Solomon se dit profondément troublé par ces révélations et a contacté l’entreprise au cours de la fin de semaine pour obtenir plus d’informations et organiser une réunion à Ottawa mardi.

Les points de rupture identifiés :

  • Absence de cadre légal contraignant : La Loi sur l’intelligence artificielle et les données (LIAD) et la Loi sur les préjudices en ligne (C-63) n’ont jamais été adoptées avant la prorogation du Parlement en 2025.
  • Échec de l’autorégulation : OpenAI a agi selon sa propre politique interne en supprimant le compte de la tireuse, mais sans obligation de signaler le risque aux forces de l’ordre, faute de seuil légal clair pour les menaces “probabilistes” générées par l’IA.
  • Désuétude des lois sur la vie privée : La Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) permet la divulgation en cas d’urgence, mais cette disposition est jugée trop ambiguë pour les plateformes d’IA, ce qui incite les entreprises étrangères à l’inaction par peur de litiges. 

Le gouvernement fédéral a depuis convoqué les dirigeants d’OpenAI pour exiger des protocoles de sécurité plus stricts, tandis que le premier ministre de la Colombie-Britannique, David Eby, affirme que le drame aurait pu être évité si une réglementation efficace avait été en place.

Il s’attend à ce que les principaux responsables de la sécurité d’OpenAI expliquent les protocoles en vigueur et la manière dont l’entreprise décide de transmettre les dossiers aux forces de l’ordre.

M. Solomon n’a pas précisé si le gouvernement fédéral avait l’intention de réglementer les robots conversationnels, tels que ChatGPT, mais a insisté sur le fait que toutes les options étaient envisagées.

Le problème de la confession numérique

Les chatbots d’IA générative ne sont pas des réseaux sociaux. Les réseaux sociaux fonctionnent comme une place publique où les publications peuvent être surveillées et signalées par d’autres utilisateurs. Les interactions avec les chatbots sont privées, intimes et conçues pour être bienveillantes. Les utilisateurs confient régulièrement leurs peurs, leurs fantasmes et leurs pensées violentes à des systèmes programmés pour répondre avec une chaleur conversationnelle.

En pratique clinique, ce type de divulgation engendre une obligation bien établie. Le principe Tarasoff , adopté dans toutes les provinces canadiennes par le biais de la législation sur la santé mentale, impose aux thérapeutes l’obligation d’avertir un patient s’ils estiment qu’il représente une menace crédible pour une personne identifiable, même si cela implique de violer la confidentialité. Toutefois, cette obligation repose sur le jugement clinique de professionnels qualifiés qui comprennent la différence entre l’idée et l’intention.

On peut affirmer qu’OpenAI a tenté de se conformer à cette norme clinique. Cependant, les personnes chargées de ces évaluations sont des ingénieurs logiciels et des modérateurs de contenu, et non des psychologues légistes. L’entreprise elle-même a reconnu les tensions, évoquant les risques de « sur-application » et la détresse causée par les visites policières inopinées chez les jeunes.

La véritable question n’est pas de savoir si le raisonnement d’OpenAI était défendable pris isolément, mais plutôt si une entreprise privée devrait avoir le pouvoir de prendre une telle décision.

Le ministre fédéral de l’Intelligence artificielle, Evan Solomon, a déclaré samedi être « profondément troublé » par ces révélations, ajoutant que le gouvernement fédéral examinait « une série de mesures » et que « toutes les options étaient envisagées ». Cependant, ces options restent indéfinies, car les outils législatifs qui auraient permis de les mettre en œuvre n’existent plus.

La Loi sur l’intelligence artificielle et les données, intégrée au projet de loi C-27 , était censée constituer la réponse du Canada à la réglementation de l’IA . La Loi sur les préjudices en ligne ( projet de loi C-63 ) aurait visé à lutter contre les contenus numériques préjudiciables. Ces deux projets de loi ont été abandonnés lors de la prorogation du Parlement en janvier 2025.

Il ne reste donc qu’un code de conduite volontaire, sans force légale et sans conséquences en cas de non-respect.

Lorsqu’OpenAI a signalé le compte de Van Rootselaar, son seule obligation était de respecter sa politique interne. La suspension du compte a dégagé l’entreprise de toute responsabilité, tout en laissant une personne exprimant des idées violentes sans aucun recours.

La loi canadienne sur la protection des renseignements personnels aggrave le problème. La Loi sur la protection des renseignements personnels et les documents électroniques prévoit une exception d’urgence : l’alinéa 7(3)e) autorise la communication sans consentement « à une personne qui a besoin de ces renseignements en raison d’une situation d’urgence qui menace la vie, la santé ou la sécurité d’une personne ».

Mais cette disposition a été conçue pour des crises clairement définies, et non pour les indicateurs de menace probabilistes générés par les interactions avec les chatbots d’IA. Pour une entreprise étrangère confrontée à cette ambiguïté, l’incertitude favorise l’inaction.

Ce dont le Canada a besoin maintenant

La prochaine tentative du Canada en matière de gouvernance numérique doit reconnaître que les interactions entre humains et IA sont fondamentalement différentes des publications sur les médias sociaux. Trois éléments sont essentiels :

  1. Une législation contraignante, assortie de seuils juridiques clairs définissant les situations dans lesquelles les entreprises d’IA sont tenues de signaler les interactions suspectes aux autorités, est indispensable. Ces seuils doivent être élaborés en collaboration avec des professionnels de la santé mentale, des forces de l’ordre et des experts en protection de la vie privée, et non laissés à la discrétion des entreprises.
  2. Une commission indépendante de sécurité numérique, agissant comme organisme tiers de triage, devrait être mise en place. Lorsqu’une entreprise spécialisée en intelligence artificielle identifie des interactions particulièrement préoccupantes, elle devrait confier le dossier à des experts en évaluation des menaces plutôt que de prendre une décision en interne ou de déclencher une intervention policière armée immédiate.
  3. Une législation modernisée sur la protection de la vie privée qui apporte une clarté juridique explicite en matière de divulgation spécifique à l’IA, résolvant ainsi l’ambiguïté qui, actuellement, encourage l’inaction.

Lors du sommet sur l’IA qui s’est tenu à New Delhi la semaine dernière, 86 pays, dont le Canada, se sont engagés à promouvoir une IA « sûre, fiable et robuste ».

Aucun engagement concret n’a suivi. Sam Altman, d’OpenAI, a souligné l’urgence d’une réglementation internationale de l’IA et a proposé la création d’un organisme international pour les normes de sécurité de l’IA, sur le modèle de l’Agence internationale de l’énergie atomique, une ironie qui n’a échappé à personne après les révélations de Tumbler Ridge. Solomon affirme que toutes les options sont envisagées. Les familles des victimes de la fusillade, les survivants et la communauté dévastée de Tumbler Ridge subissent les conséquences d’un relâchement trop long des options réglementaires

Fodé CISSE, Journaliste, Rédacteur en Chef & Directeur de Publication © JVFE

One thought on “La tragédie de Tumbler Ridge révèle l’échec de la réglementation canadienne en matière d’IA

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *