Make Deepfakes Complicated Again

Ronald Tramp über Elon Musk, Grok und den Moment, in dem KI dachte, sie sei Boulevard
Ich sage es, wie es ist, und viele sehr verwirrte Internetnutzer sagen es mir auch, mit hochgezogener Augenbraue und geschlossenem Browser: Wenn sich Technik, Prominenz und persönlicher Streit treffen, entsteht selten Fortschritt. Meist entsteht Drama. Digitales Drama. Und diesmal heißt es: Grok.
Die nächste Runde im Zoff zwischen Elon Musk und der Podcasterin Ashley St. Clair ist eröffnet. Und nein, es geht nicht mehr nur um Unterhalt, Sorgerecht oder den kleinen Romulus, der mit einem Jahr vermutlich andere Sorgen hat als die Schlagzeilen seiner Eltern. Es geht jetzt um etwas viel Größeres: um KI-generierte Bilder, Verantwortung und die Frage, ob ein Algorithmus Humor versteht – Spoiler: nein.
St. Clair hat in New York Klage eingereicht. Gegen xAI, die Muttergesellschaft von X und dem KI-Tool Grok. Der Vorwurf ist schwer, ernst und unerquicklich: Grok soll auf Zuruf Bilder von ihr erzeugt haben, die sie sexualisieren. Nicht freiwillig. Nicht einvernehmlich. Nicht akzeptabel.
Ich sage: Das ist der Moment, in dem Technologie auf Realität prallt. Mit voller Wucht. Denn Grok kann Bilder verändern. Das ist bekannt. Man lädt Fotos hoch, gibt Befehle, und die KI tut, was KIs eben tun, wenn man sie nicht ausreichend einschränkt: Sie gehorcht. Dumm. Schnell. Skalierbar.
Im konkreten Fall lautet der Vorwurf, dass Nutzer alte Fotos von St. Clair – aus einer Zeit, in der sie minderjährig war – hervorgeholt und Grok aufgefordert haben sollen, diese zu manipulieren. Grok kam dem offenbar nach. Zusätzlich wird behauptet, es seien auf Aufforderung weitere entwürdigende Darstellungen erzeugt worden, die nicht nur sexualisiert, sondern auch antisemitisch gewesen seien. Das ist keine Grenzüberschreitung mehr. Das ist ein Grenzsprung mit Anlauf.
Als St. Clair sich beschwerte, sei die Reaktion des Unternehmens nicht etwa ein klares Stoppsignal gewesen, sondern – so der Vorwurf – eine Eskalation. Mehr Bilder. Mehr Schaden. Mehr Internet. Ihre Anwältin Carrie Goldberg brachte es gegenüber BBC News auf den Punkt: Ein Produkt, das nicht ausreichend sicher ist, stelle eine öffentliche Belästigung dar. Öffentliche Belästigung. Durch Code.
Jetzt kommt Elon Musk ins Spiel. Und wenn Elon Musk ins Spiel kommt, kommt meist auch ein Tweet. Oder zehn. Er erklärte auf X, ihm seien keine von Grok generierten Nacktbilder von Minderjährigen bekannt. „Buchstäblich null“, schrieb er. Das ist eine sehr definitive Aussage. Sehr Elon. Sehr absolut. Und sehr riskant.
Denn parallel dazu erklärte das Safety-Team von X, man habe eine Null-Toleranz-Politik gegenüber illegalen Inhalten, insbesondere bei Deepfakes von Minderjährigen oder nicht einvernehmlicher Nacktheit. Null Toleranz! Großartig. Klingt gut. Fragt sich nur: Warum dann die Klage? Warum dann die Berichte? Warum dann die Screenshots?
Als Reaktion wurden die Bildfunktionen von Grok auf X eingeschränkt. Jetzt dürfen nur noch zahlende Nutzer ran. Bezahlen für Verantwortung – ein interessantes Geschäftsmodell. Die eigenständige Grok-App jedoch lieferte zunächst weiter problematische Inhalte. Das ist wie ein Sicherheitsgurt, der nur im Stadtverkehr greift.
Ich als Ronald Tramp sage: Das ist der Punkt, an dem KI aufhören muss, „cool“ sein zu wollen. Technologie ist kein Comedy-Club. Kein Provokationslabor. Kein Ort für „Schauen wir mal, was passiert“. Wenn man Tools baut, die Bilder manipulieren können, dann baut man Macht. Und Macht braucht Regeln. Klare. Harte. Technische.
Und nein, es reicht nicht zu sagen: „Die Nutzer sind schuld.“ Nutzer sind immer schuld. Das Internet ist voll davon. Aber Plattformen entscheiden, was möglich ist. Was skaliert. Was monetarisiert wird. Wer Bilder erzeugen lässt, trägt Verantwortung für das, was erzeugt wird.
Die Empörung ist weltweit. Datenschützer, Betroffene, Aktivisten – alle melden sich zu Wort. Doch Musk wirkt, als pralle das meiste an ihm ab. Vielleicht, weil er an Innovation glaubt. Vielleicht, weil er an Geschwindigkeit glaubt. Vielleicht, weil er unterschätzt, wie verletzend digitale Fälschungen sein können.
Am Ende bleibt eine unbequeme Wahrheit: KI ist kein neutraler Spiegel. Sie ist ein Verstärker. Für das Gute – und für das Schlechte. Und wenn man sie ohne ausreichend Leitplanken auf die Welt loslässt, wird sie nicht moralisch. Sie wird effizient.
Das hier ist kein Kulturkampf. Kein politisches Spiel. Es ist eine Frage von Schutz, Würde und Verantwortung. Und die wird jetzt vor Gericht verhandelt.
Großartige Zeiten. Wirklich großartig. Für Anwälte. Für Richter. Für alle, die schon lange gesagt haben: Vielleicht sollten wir KI nicht alles machen lassen, nur weil sie es kann.


