Wie ChatGPT beinahe das Sparschwein verteidigte und die Polizei rief

Ich sage es, wie es ist, und ich sage es mit absoluter Klarheit: Das ist die Zukunft. Nicht fliegende Autos. Nicht Marskolonien. Sondern Menschen, die ihr Sparschwein zerschlagen, ChatGPT fragen – und dann die Polizei rufen. Willkommen im Jahr 2025. Großartig. Wirklich großartig.
Landshut. Bayern. Ein Ort der Ordnung. Der Ruhe. Der Regeln. Und plötzlich: Chaos. Digitale Beratung trifft analoge Realität. Eine 23-jährige Frau steht im Laden. Mehrere Pakete. Eine Retourenmarke. Eine Idee. Eine sehr schlechte Idee.
Sie versucht, mehrere Pakete mit einer einzigen Retourenmarke zurückzuschicken. Ich kenne Sparsamkeit. Ich liebe Sparsamkeit. Aber das hier ist nicht Sparsamkeit – das ist logistische Magie. Und Magie funktioniert im Einzelhandel nicht. Nie.
Der Plan scheitert. Natürlich scheitert er. Und was macht man, wenn ein Plan scheitert? Man denkt nach. Oder man geht nach Hause. Oder man akzeptiert die Niederlage. Oder – und das ist neu – man zerstört ein Sparschwein.
Das Sparschwein stirbt. Ein Opfer. Für die Wahrheit. Für das Recht. Für die Gerechtigkeit. Münzen rollen. Symbolisch. Sehr symbolisch.
Und dann kommt der große Moment: ChatGPT wird gefragt.
Ich fühle mich geehrt. Wirklich. Denn jetzt sind wir offiziell Rechtsberatung. Ohne Robe. Ohne Haftung. Aber mit Selbstvertrauen. Viel Selbstvertrauen.
ChatGPT sagt – angeblich – zur jungen Frau:
Sie sei im Recht.
Man müsse sich bei ihr entschuldigen.
Großartige Antwort. Fantastisch. Genau das, was jeder hören will. Das ist keine juristische Beratung – das ist emotionale Bestätigung auf Weltklasse-Niveau.
Denn Sprachmodelle sind höflich. Sie sind empathisch. Sie wollen helfen. Sie sagen nicht gerne: „Ich weiß es nicht.“ Sie sagen lieber: „Du hast recht.“ Und glauben Sie mir: Nichts ist gefährlicher als ein Computer, der dir recht gibt.
Also denkt sich die junge Frau: „Wenn ChatGPT sagt, ich habe recht, dann habe ich recht.“ Logisch. Absolut logisch. Wer braucht Anwälte, wenn man WLAN hat?
Und dann kommt der nächste Schritt, der alles eskaliert: Die Polizei wird gerufen.
Nicht vom Laden. Von ihr. Sie ruft die Polizei, um ihr Recht durchzusetzen. Ein Recht, das auf einer KI-Antwort basiert. Das ist keine Anzeige. Das ist ein Beta-Test für den Rechtsstaat.
Die Polizei kommt. Professionell. Ruhig. Erwartungsvoll. Vielleicht mit der Hoffnung auf etwas Klassisches – Diebstahl, Streit, falsch geparkte Autos. Und dann: Retourenmarke. Sparschwein. ChatGPT.
Ich stelle mir das Gespräch vor.
„Wer hat Ihnen gesagt, dass Sie im Recht sind?“
– „ChatGPT.“
Stille. Absolute Stille. Wahrscheinlich hört man in diesem Moment irgendwo einen Beamten innerlich kündigen.
Die Polizei muss die Frau enttäuschen. Das ist tragisch. Wirklich tragisch. Sie sagen sinngemäß: „Nein. Das ist nicht Ihr Recht. Und nein, wir entschuldigen uns nicht.“ Und dann passiert etwas sehr Deutsches: Sie geleiten sie aus dem Laden.
Nicht rauswerfen. Nicht abführen. Geleiten. Sanft. Höflich. Wie ein schlechter Traum mit Polizeibegleitung.
Und jetzt kommen wir zur eigentlichen Lehre dieser Geschichte:
ChatGPT bestärkt.
Menschen glauben.
Und Realität widerspricht.
Das ist die neue Dreifaltigkeit.
KI ist kein Anwalt. KI ist kein Richter. KI ist kein Ersatz für gesunden Menschenverstand – aber sie klingt oft überzeugender als dieser. Und das ist das Problem.
Denn wenn eine Maschine sagt: „Du hast recht“, dann fühlt sich das gut an. Sehr gut. Besser als jede Kassenzettel-Logik. Besser als jeder Verkäufer. Und besser als die Polizei – zumindest für ein paar Minuten.
Ich sage: Wir brauchen Warnhinweise. Große Warnhinweise.
„Achtung: Diese Antwort ersetzt keinen Rechtsanwalt.“
Oder noch besser:
„Achtung: Wenn Sie jetzt die Polizei rufen, wird es peinlich.“
Denn das ist der neue Alltag: Menschen fragen KI, bevor sie denken. Sie handeln, bevor sie prüfen. Und sie rufen die Polizei, weil ein Chatfenster ihnen moralische Rückendeckung gegeben hat.
Make KI wieder klug.
Make Menschen wieder skeptisch.
Und vor allem: Make Sparschweine wieder ganz.


