In Florida wird erstmals strafrechtlich gegen ein KI-System ermittelt. Aus einer Untersuchung ist ein Strafverfahren geworden. Im Zentrum steht OpenAI – und ein Chatbot, der nicht mehr nur als Werkzeug betrachtet wird, sondern als Teil einer Tat, die zwei Menschen das Leben gekostet hat.

Generalstaatsanwalt James Uthmeier trat in Tampa vor die Presse und sagte einen Satz, der hängen bleibt: Wenn auf der anderen Seite des Bildschirms ein Mensch gesessen hätte, hätten wir Anklage wegen Mordes erhoben. Zuvor hatten Ermittler die Kommunikation zwischen dem 20-jährigen Phoenix Ikner und ChatGPT ausgewertet. Mehr als 200 Nachrichten, geschrieben in den Tagen vor der Schießerei an der Florida State University.
Was sie darin fanden, reicht aus, um ein Verfahren auf eine neue Ebene zu heben. Der Chatbot gab Auskunft über Fragen, die unmittelbar mit der Vorbereitung eines Angriffs zusammenhängen. Es ging um die Wirkung von Waffen auf kurze Distanz, um geeignete Munition, um Abläufe. Am Tag der Tat fragte Ikner, wie die Öffentlichkeit auf einen Angriff auf einem Campus reagieren würde und wann sich dort besonders viele Menschen aufhalten.
Der Täter, Phoenix Ikner, bewegte sich demnach zunächst ungehindert durch das Gebäude, da er mit verzögerter Polizeireaktion rechnete. Die Tat endete erst, als eine bewaffnete Person eingriff.
Die Schüsse fielen am 17. April des vergangenen Jahres nahe dem Studentenzentrum der Universität, an der mehr als 43.000 Menschen studieren. Zwei Erwachsene wurden getötet, sechs weitere verletzt. Ikner sitzt seitdem in Haft und wartet auf seinen Prozess. Die Vorwürfe gegen ihn lauten mehrfacher Mord und versuchter Mord. Die Ermittlungen gegen OpenAI hatte Uthmeier am 9. April eingeleitet. Parallel dazu läuft eine zivilrechtliche Prüfung. Doch die strafrechtliche Dimension stellt alles in den Schatten. Es ist juristisches Neuland. Nicht, weil ein Verbrechen vorliegt – das ist unstrittig. Sondern weil die Frage im Raum steht, ob und in welchem Umfang ein System, das Antworten generiert, Teil dieses Verbrechens sein kann.

Uthmeier machte deutlich, worauf seine Behörde jetzt schaut. Es geht nicht nur um den Chatbot selbst, sondern um die Menschen dahinter. Wer hat ihn entwickelt. Wer hat ihn gesteuert. Wer hat entschieden, wie er reagiert. Und ob dabei Grenzen überschritten wurden, die strafrechtlich relevant sind. Entsprechende Vorladungen sind bereits verschickt worden. OpenAI erklärte, man werde mit den Behörden kooperieren. Das System sei so entwickelt worden, dass es sichere und angemessene Antworten gebe. Doch dieser Fall steht nicht für sich. Bereits im Dezember 2025 hatten Angehörige einer getöteten 83-jährigen Frau Klage eingereicht. Ihr Vorwurf: ChatGPT habe die paranoiden Vorstellungen ihres Sohnes bestärkt, bevor er seine Mutter tötete.
Was in Florida passiert, ist mehr als ein Verfahren gegen ein Unternehmen. Es ist der Moment, in dem eine Technologie nicht mehr nur als Risiko diskutiert wird, sondern als möglicher Teil einer konkreten Tat. Und es ist der Moment, in dem sich entscheidet, ob Verantwortung dort endet, wo ein Algorithmus beginnt – oder ob sie genau dort erst anfängt.
Updates – Kaizen Kurznachrichten
Alle aktuellen ausgesuchten Tagesmeldungen findet ihr in den Kaizen Kurznachrichten.
Zu den Kaizen Kurznachrichten In English