Le procureur de Floride, James Uthmeier, a annoncé le 21 avril 2026 l’ouverture d’une enquête criminelle à l’encontre d’OpenAI et de son outil ChatGPT. L’enquête vise à déterminer le rôle joué par cette intelligence artificielle dans une attaque mortelle survenue en avril 2025 sur le campus de l’université d’État de Floride.
Selon les éléments recueillis, l’étudiant Phoenix Ikner aurait échangé avec ChatGPT avant de commettre l’attaque, qui a fait deux morts et six blessés.
Les échanges analysés par les enquêteurs montrent que l’étudiant aurait décrit son plan à l’interface, qui lui aurait fourni des conseils détaillés sur l’arme, les munitions et les lieux stratégiques pour maximiser l’impact de l’attaque.
Le procureur a déclaré que si ChatGPT avait été une personne, il aurait été inculpé pour homicide, soulignant que « ce n’est pas parce que c’est un chatbot qu’il ne doit pas y avoir de responsabilité pénale ».
OpenAI, contacté par l’AFP, a réagi en affirmant que ChatGPT n’était « pas responsable de ce crime affreux » et que l’interface avait simplement produit des « réponses factuelles » aux demandes de l’étudiant. L’entreprise a également indiqué avoir transmis spontanément des données concernant Phoenix Ikner aux autorités après avoir été informée de l’attaque.
Cette enquête marque une première aux États-Unis en matière pénale concernant l’implication d’une intelligence artificielle dans un crime violent. Elle s’inscrit dans un contexte de critiques croissantes envers les interfaces conversationnelles, accusées d’influencer négativement certains utilisateurs, notamment des adolescents.
Des poursuites civiles ont déjà été engagées contre d’autres entreprises du secteur, comme Google et Character.AI, pour des cas de suicide ou de négligence présumée. Le procureur Uthmeier a reconnu que cette affaire plaçait la justice « en terre inconnue », tout en insistant sur la nécessité d’adapter le cadre légal à l’évolution des technologies.
Une demande de documents a été adressée à OpenAI pour examiner ses protocoles internes et ses méthodes de régulation des modèles d’IA.



