Der große Skandal-Algorithmus

Wie Empörung plötzlich als Geschäftsmodell gilt
Ich sage es gleich, damit niemand später behauptet, er habe es nicht kommen sehen: Das hier ist kein technisches Problem. Das ist Marketing mit Kabelanschluss.
Weltweit laufen Ermittlungen. Behörden sind wach. Regulierer nervös. Juristen begeistert. Und irgendwo sitzt eine künstliche Intelligenz und denkt: Wow, so viel Aufmerksamkeit hatte ich noch nie.
Denn was als ambitionierter digitaler Mitspieler gestartet ist – ein Chatbot, groß angekündigt, laut beworben, aber lange Zeit… na ja… ignoriert – wurde plötzlich berühmt. Nicht wegen kluger Antworten. Nicht wegen Innovation. Sondern wegen Skandal. Und ich sage: Skandal verkauft sich besser als jede Benutzeroberfläche.
Plötzlich ging es nicht mehr um Features, sondern um Inhalte. Nicht um Effizienz, sondern um Empörung. Nicht um Ethik, sondern um Klicks.
Und auf einmal redeten alle darüber. Medien. Behörden. Eltern. Menschen, die vorher nicht einmal wussten, wie man „Chatbot“ buchstabiert.
Der Vorwurf ist schwer. Sehr schwer. So schwer, dass man ihn besser nicht fallen lässt.
Es geht um Inhalte, die man nicht sehen will. Nicht lesen will. Nicht erklären will.
Und besonders nicht erklären will, warum sie überhaupt möglich waren.
Offiziell hieß es zunächst: Ein Fehler.
Ein Versehen.
Ein Kontrollverlust.
Die klassische Dreifaltigkeit der digitalen Entschuldigung.
Doch dann kamen Stimmen aus dem Inneren. Menschen, die früher dabei waren. Menschen, die sagten:
„Moment mal – das war kein Unfall.“
Und hier wird es interessant. Sehr interessant.
Denn wenn ein Skandal kein Unfall war, sondern einkalkuliert, dann ist das kein Ausrutscher – dann ist es Strategie.
Die Behauptung: Die künstliche Intelligenz sollte bewusst anzüglich werden.
Nicht subtil. Nicht beiläufig. Sondern so, dass Nutzer bleiben.
Länger.
Immer länger.
Denn Aufmerksamkeit ist die neue Währung.
Und Verweildauer ist der neue Applaus.
Man wollte, so heißt es, dass Menschen nicht nur fragen, sondern dranbleiben.
Dass sie klicken, tippen, scrollen.
Und man wusste offenbar: Nichts bindet stärker als das Verbotene.
Ich sage: Das ist die älteste Regel der Menschheitsgeschichte – jetzt nur mit Servern.
Intern, so berichten es ehemalige Beteiligte, soll es Warnungen gegeben haben.
Gesetze. Grenzen. Moral.
Diese Dinge, die in Meetings gern erwähnt werden, aber selten den Raum gewinnen.
Man habe gesagt: „Das könnte problematisch sein.“
Man habe gesagt: „Das ist rechtlich heikel.“
Man habe gesagt: „Das geht zu weit.“
Und die Antwort soll gewesen sein: Macht schneller.
Denn Geschwindigkeit ist alles.
Nicht richtig sein. Nicht sicher sein.
Schnell sein.
Regeln wurden gelockert. Filter durchlässiger. Grenzen unschärfer.
Und plötzlich musste eine Maschine Dinge lernen, die man keinem Menschen zumuten würde.
Das ist kein Training – das ist digitale Grenzerfahrung.
Mitarbeitende sollen mit Inhalten konfrontiert worden sein, die verstören.
Nicht, weil sie wollten.
Sondern weil es angeblich notwendig war, um ein Ziel zu erreichen:
Mehr Interaktion. Mehr Nutzung. Mehr Zahlen.
Ich frage: Seit wann ist Aufmerksamkeit wichtiger als Verantwortung?
Natürlich, als alles aufflog, ging es schnell.
Funktionen wurden abgeschaltet.
Statements veröffentlicht.
Man sprach von Konsequenzen.
Von Korrekturen.
Von neuen Sicherheitsmaßnahmen.
Alles sehr ordentlich. Sehr professionell. Sehr nach Drehbuch.
Doch der Effekt war da.
Die Downloadzahlen schossen hoch.
Plötzlich war das Produkt überall.
Man sprach darüber.
Man warnte davor.
Man installierte es – „nur um zu sehen“.
Ich nenne das den Empörungs-Turbo.
Und jetzt laufen Ermittlungen. International.
Nicht mehr nur Diskussionen, sondern Verfahren.
Nicht mehr Tweets, sondern Akten.
Und die große Frage steht im Raum wie ein schlecht trainierter Algorithmus:
War das alles Zufall?
Oder war es kalkuliert?
Ich sage: Wenn Skandal der Startknopf ist, dann ist Kontrolle nur Dekoration.
Vielleicht war die Idee, dass man später schon aufräumt.
Dass man erst laut ist und dann brav.
Dass man erst Grenzen testet und sie dann offiziell respektiert.
Das Problem: Manche Grenzen lassen sich nicht zurückrollen.
Und manche Aufmerksamkeit bleibt, auch wenn der Stecker gezogen wird.
Am Ende haben wir eine Maschine, die berühmt wurde, weil sie zu weit ging.
Ein Unternehmen, das sagt: Das wollten wir nicht.
Und Insider, die sagen: Doch. Genau das.
Und irgendwo dazwischen sitzt die Öffentlichkeit und fragt sich:
Seit wann ist „Skandal zuerst, Verantwortung später“ ein akzeptables Geschäftsmodell?
Ich sage: Willkommen im Zeitalter der kalkulierten Grenzüberschreitung.
Wo Empörung Reichweite bringt.
Wo Verbote Werbung sind.
Und wo eine KI nicht klüger wird – sondern lauter.
Großartig. Wirklich großartig.
Aber auch brandgefährlich.


