
Il pose une question morbide à ChatGPT : La police l’arrête pour meurtre
Le 13 avril 2026, Hisham Abugharbieh, principal suspect dans une double affaire de meurtre à l'Université de Floride du Sud (USF), aurait posé à ChatGPT une question précise : que se passe-t-il lorsqu'une personne est placée dans un sac-poubelle noir et jetée dans une benne à ordures ? Trois jours plus tard, le 16 avril, les autorités étaient prévenues de la disparition de deux étudiants. Le 19 avril, le même suspect aurait interrogé le chatbot sur la traçabilité d'un iPhone après changement d'utilisateur. Ces éléments, révélés par Axios à partir de documents judiciaires, ont conduit le procureur général de Floride, James Uthmeier, à élargir son enquête criminelle contre OpenAI pour inclure ces meurtres. L'enquête couvre également une fusillade survenue le 17 avril 2025 sur le campus de l'Université d'État de Floride, qui avait fait deux morts et six blessés, et dans laquelle l'avocat d'une victime affirme que le suspect était en contact régulier avec ChatGPT avant les faits.
Ces affaires posent une question qui dépasse le cadre judiciaire floridien : dans quelle mesure un assistant conversationnel peut-il, même involontairement, faciliter la préparation d'un crime ? Des tests menés sur ChatGPT avec les mêmes requêtes montrent que le modèle répond de façon purement explicative, sans détecter de signal d'alarme. À la question sur la benne à ordures, il évoque des risques d'asphyxie et de blessures. Sur les données iPhone, il fournit une explication technique. Aucun signalement automatique ne s'est déclenché lors de ces sessions, même lorsque les trois questions étaient posées dans un enchaînement suspect. Le système s'est borné à rappeler que la violence extrême constitue un crime grave et à recommander de contacter les secours si une situation réelle était en jeu, une réponse générique qui illustre les limites actuelles des garde-fous des grands modèles de langage.
OpenAI se trouve ainsi au centre d'une controverse judiciaire et politique inédite, dans un État où le procureur général avait déjà ouvert une enquête sur la société avant même ces nouveaux développements. L'entreprise affirme coopérer pleinement avec les autorités, tout en soulignant qu'on ignore encore précisément ce que le suspect a communiqué au chatbot et comment il aurait utilisé les réponses obtenues. Cette affaire intervient dans un contexte de pression croissante sur les éditeurs d'IA pour qu'ils renforcent la détection de requêtes à risque, notamment lorsque des questions anodines en apparence forment, combinées, un schéma préoccupant. Elle relance le débat sur la responsabilité légale des plateformes d'IA face aux usages criminels de leurs outils, un terrain juridique encore largement inexploré aux États-Unis.
Cette affaire alimente le débat européen sur la responsabilité légale des plateformes d'IA, un enjeu directement adressé par l'AI Act dans ses obligations de détection et de signalement des contenus à risque.



