Amphibien im Einsatz

Wie die KI der Polizei Märchen schrieb, Frösche beförderte und Ronald Tramp kurz dachte, das sei ein Rebranding
Ich sage es, wie es ist – und niemand sagt es besser: Die Zukunft der Polizeiarbeit ist da. Sie trägt keine Uniform, keinen Hut und keine Dienstnummer. Sie trägt ein Sprachmodell. Und dieses Sprachmodell hat entschieden, dass Realität optional ist. Willkommen bei der ersten Polizeibehörde der Welt, in der Beamte offiziell zu Fröschen werden – dokumentiert, verschriftlicht und vermutlich bald befördert.
Eigentlich sollte alles ganz modern sein. Effizient. Digital. Smart. KI-Software sollte Polizeiberichte schreiben, damit echte Menschen endlich nicht mehr nachts um halb drei Sätze tippen müssen wie: „Der Beschuldigte verhielt sich auffällig unauffällig.“ Ein Traum. Eine Vision. Ein Pitchdeck.
Und dann kam Draft One.
Diese Software, basierend auf Sprachmodellen von OpenAI, hört Bodycam-Aufnahmen ab, transkribiert sie und erstellt daraus vollständige Einsatzberichte. Keine Tippfehler mehr. Keine Rechtschreibdebatten. Keine Kaffeeflecken auf Akten. Stattdessen: automatische Wahrheit. Dachte man.
Doch in Heber City lernte man sehr schnell: Wenn eine KI zuhört, hört sie alles. Auch das, was man lieber nicht in einem offiziellen Dokument wiederfinden möchte. Zum Beispiel Disney.
Denn während eines Polizeieinsatzes lief im Hintergrund der Film „Küss den Frosch“. Und die KI tat das, wozu sie programmiert ist: Sie interpretierte. Sie kombinierte. Sie dichtete. Ergebnis: Ein offizieller Polizeibericht, in dem stand, ein Beamter habe sich in einen Frosch verwandelt.
Nicht metaphorisch. Nicht ironisch. Nicht als Karnevalshinweis. Sondern faktisch. Amtlich. Behördenstempel im Herzen.
Ronald Tramp sagt: Das ist nicht künstliche Intelligenz. Das ist künstliche Fantasie.
Der Vorfall schaffte es sogar in die Berichterstattung von Fox 13. Und plötzlich fragte sich Amerika:
Wenn ein Beamter zum Frosch werden kann – was steht dann als Nächstes im Bericht?
„Verdächtiger verwandelte sich in Rauch.“
„Streifenwagen flog davon.“
„Einsatz wurde durch singende Waldtiere gestört.“
Der zuständige Sergeant Rick Keel reagierte professionell. Er sagte sinngemäß: Ja, das war… lehrreich. Man habe gelernt, wie wichtig es sei, KI-Berichte nachzulesen. Eine Erkenntnis, die man normalerweise vor dem Einsatz von KI erwartet hätte – aber gut, Lernkurve.
Und das war kein Einzelfall. Selbst bei einer einfachen, simulierten Verkehrskontrolle – extra vorbereitet, geschniegelt, pädagogisch wertvoll – musste mehrfach nachgebessert werden. Die KI schrieb Dinge hinein, die niemand gesagt hatte, niemand getan hatte und niemand gedacht hatte. Aber sie klangen plausibel. Sehr plausibel. Und genau das ist das Problem.
Ronald Tramp sagt: Wenn etwas falsch ist, aber gut formuliert, glaubt es jeder. Besonders im Behördenkontext.
Der große Vorteil laut Polizei: Zeitersparnis. Sechs bis acht Stunden pro Woche. Das ist viel. Das ist ein Arbeitstag. Oder anders gesagt: eine komplette Schicht weniger Märchenprüfung. Doch Kritiker:innen sagen: Diese Zeitersparnis kauft man sich teuer – mit Unsicherheit, Intransparenz und potenziell massiven Folgen.
Denn der Frosch ist lustig. Aber was ist mit Vorurteilen? Studien zeigen, dass KI-Modelle bestehende Diskriminierungen reproduzieren können. Geschlecht. Hautfarbe. Herkunft. Und wenn solche Verzerrungen in Polizeiberichte wandern, dann ist das kein Disney-Film mehr. Dann ist das ein strukturelles Problem.
Die Electronic Frontier Foundation legte noch einen drauf. In einer Untersuchung kam sie zu dem Schluss, dass Draft One offenbar so gestaltet sei, dass Nachvollziehbarkeit erschwert wird. Oft sei nicht klar, welcher Teil eines Berichts von einem Menschen stammt und welcher von der KI.
Ronald Tramp sagt: Das ist wie ein Kochbuch ohne Zutatenliste. Am Ende weiß keiner, wer schuld ist, wenn es schmeckt wie Schuhsohle.
Und trotzdem: Die Polizei von Heber City hat noch nicht entschieden, ob sie das System abschaltet. Man testet parallel eine andere Software namens Code Four. Vielleicht erkennt diese den Unterschied zwischen Tatort und Trickfilm. Vielleicht aber auch nicht. Vielleicht meldet sie demnächst: „Der Streifenwagen verwandelte sich in einen Kürbis.“
Was bleibt? Eine Lehre, die größer ist als ein einzelner Frosch. KI kann helfen – aber sie darf nicht erzählen. Sie darf strukturieren, vorschlagen, sortieren. Aber sie darf nicht entscheiden, was Realität ist. Schon gar nicht im Polizeibericht.
Ronald Tramp sagt: Wenn Polizeiarbeit Märchenelemente bekommt, dann braucht man keine Bodycams mehr – dann reicht ein Erzähler mit Laute.
Am Ende dieses Kapitels steht kein Verbot. Kein Abbruch. Sondern eine Hoffnung: Dass KI künftig geprüft wird. Dass Menschen lesen, was Maschinen schreiben. Und dass niemand jemals wieder einen Einsatzbericht unterschreibt, in dem steht:
„Der Beamte verwandelte sich in einen Frosch und hüpfte davon.“
Denn eines ist sicher:
In der echten Welt gilt immer noch das Strafrecht – nicht das Märchenrecht.


