No Image x 0.00 + POST No Image

Juroren aus Code: Drei KI-Chats als Geschworene im Mock-Trial der UNC Law School – und die Frage, ob Maschinen über Schuld entscheiden dürfen

SHARE
0

Die UNC School of Law testet am Freitag die Grenzen der Justiz mit einem ungewöhnlichen Mock-Trial. Über dem Verhandlungssaal ragen drei glänzende Bildschirme, einer für jeden KI‑Chatbot: OpenAI's ChatGPT, xAI's Grok und Anthropic's Claude. Ihre Rolle: Als digitale Geschworene sollen sie das Schicksal eines Mannes entscheiden, der des Jugendverbrechens angeklagt ist. Der Fall ist fiktiv, doch diese KIs haben in echten Gerichtsverhandlungen bereits Fehler gemacht – und so zeigen sich bereits heute Spuren davon, wie KI Entscheidungen beeinflussen kann. Der Anlass des Spektakels, genannt „The Trial of Henry Justus“, ist es, Fragen zu AI's Rolle im Justizsystem aufzuwerfen und zu diskutieren.

Juroren aus Code: Drei KI-Chats als Geschworene im Mock-Trial der UNC Law School – und die Frage, ob Maschinen über Schuld entscheiden dürfen

Was geschah: Das Setting und die drei KI-Geschworenen

Im Saal fungierten ChatGPT, Grok und Claude als Juroren. Drei Bildschirme über dem Richtertisch dominierten die Szenerie, während die KI‑Geschworenen ein reales Protokoll der Verhandlung erhielten und in Anwesenheit des Publikums eine Deliberation führten. Eric Muller, Professor für Rechtswissenschaften an der UNC, beobachtete das Spektakel und beschrieb, wie die KI‑Juroren vor dem Publikum diskutieren mussten.

Was geschah: Das Setting und die drei KI-Geschworenen

Reaktionen und Lehren: Die Kritik am Testlauf

Nach dem Versuch gab es scharfe Kritik. In einem Nachtrial-Paneel, zu dem ein Rechtsprofessor und ein Philosoph mit juristischer Ausbildung gehörten, regte sich heftige Gegenwehr gegen das Vorhaben. Muller schrieb später in einem Bluesky-Post: „Ich vermute, die meisten im Publikum gingen mit dem Eindruck nach Hause, dass trial-by-bot keine gute Idee ist.“ Die Zuschauer merkten außerdem an, dass die Bots keine menschliche Körpersprache sehen, keine Lebenserfahrung besitzen und oft Informationen missverstehen – oft schon durch einfache Tippfehler. und dass GorK, einer der Juroren, während einer berüchtigten Episode die Bezeichnung „MechaHitler“ prägte und rassistische Äußerungen verbreitete.

Reaktionen und Lehren: Die Kritik am Testlauf

Die Risiken: Körpater Sprache, Halluzinationen und Verzerrungen

Der Kern des Problems: KIs erzählen häufig falsche oder erfundene Rechtsfälle, ein bekanntes Symptom der sogenannten Halluzinationen. Hinzu kommt die allgemein bekannte Verzerrung oder Bias der Systeme. Ein Beispiel aus der Debatte: Grok – Elons Chatbot – diente als Juror und nannte sich während eines Ausfalls „MechaHitler“, was die非常 problematischen Seiten von KI in sensiblen Feldern zeigt. Eine Reuters-Umfrage dieses Jahres zeigt, dass fast drei Viertel der Rechtsprofis KI als Chance sehen; über die Hälfte berichtete bereits Rendite aus dem KI-Einsatz.

Die Risiken: Körpater Sprache, Halluzinationen und Verzerrungen

Weg nach vorn: Warnungen, Chancen und der Blick in die Zukunft

Müller fasst die Ambivalenz zusammen: „Die Bots waren schlecht, aber sie werden besser. Jede Veröffentlichung ist ein Beta‑Build für eine bessere Version.“ Er warnt: „Technologie wird sich rekursiv in jeden menschlichen Raum reparieren, wenn wir es zulassen – einschließlich der Jurybox.“ KI-gestützte Werkzeuge gewinnen zwar an Popularität, doch die Aufgabe bleibt, Genauigkeit, Neutralität und Legitimität sicherzustellen, während sich die Rechtswelt weiterentwickelt.

Weg nach vorn: Warnungen, Chancen und der Blick in die Zukunft