Binnen weniger Tage zeigte sich auf X, wie nahtlos sich generative KI in soziale Medien einfĂŒgt â und wie schnell daraus ein System systematischer Rechtsverletzungen entsteht. Mithilfe des integrierten KI-Tools Grok lieĂen Nutzer Fotos in sexualisierte Darstellungen umarbeiten und diese unmittelbar veröffentlichen. Betroffen waren vor allem Frauen; zudem kursierten Berichte ĂŒber entsprechende Darstellungen von MinderjĂ€hrigen. Erst nach massiver öffentlicher Kritik erklĂ€rte Elon Musk am 15. Januar 2026, man habe technische GegenmaĂnahmen ergriffen. Kurz darauf lieĂ die Pariser Staatsanwaltschaft RĂ€umlichkeiten von Musks Online-Plattformen durchsuchen und lud Musk sowie die frĂŒhere X-Chefin Linda Yaccarino zur Vernehmung vor.
Die enge Kopplung von generativer KI und sozialer Plattform eröffnet nicht nur neue Nutzungsmöglichkeiten, sondern verschiebt Verantwortlichkeit und Kontrolle. Wo KI-generierte Inhalte ohne nennenswerte HĂŒrden in eine massenmediale Ăffentlichkeit eingespeist werden, stellt sich nicht mehr allein die Frage nach individuellem Fehlverhalten, sondern nach der rechtlichen Einhegung einer technisch vermittelten Ăffentlichkeit insgesamt.
Das soziale Medium und die KI
Das soziale Netzwerk X (vormals Twitter) fungiert heute als asynchrone Ăffentlichkeit. Algorithmische Empfehlungen, Reposts und Trends sorgen dafĂŒr, dass Inhalte binnen kurzer Zeit massenhaft zirkulieren. X ist damit zu einer zentralen Infrastruktur fĂŒr öffentlichen Austausch geworden, in der Sichtbarkeit und Reichweite wesentlich mitbestimmen, welche Themen sozial wirksam werden. Entsprechend folgenreich sind Entscheidungen ĂŒber Produktgestaltung, Moderation und Zugang.
Betreiber der Plattform ist die X Corp; die strategische Steuerung liegt weitgehend bei Elon Musk, der X als Kern seiner âEverything-Appâ-Vision versteht. Davon formal getrennt, funktional aber eng verbunden, ist Grok, ein generatives KI-System des Unternehmens xAI. Als integriertes Feature von X ist es fĂŒr Nutzer eine gewisse âBlack Boxâ. Grok basiert auf einem Large Language Model (LLM) mit Bildfunktionen und ermöglicht â wie die hier relevanten VorgĂ€nge zeigen â reale Fotos zu bearbeiten und in sexualisierte Darstellungen zu transformieren. Dass Ergebnisse von Grok-Anfragen direkt auf der Plattform veröffentlicht werden, ist Teil der bekannten und etablierten Funktionsweise von X und ist kein technischer Ausnahmefall, sondern vielmehr Idee des Designs.
Die öffentliche Reaktion auf diese VorgĂ€nge fiel entsprechend deutlich aus. Behörden nahmen Ermittlungen auf, etwa in Kalifornien, begleitet von intensiver Medienberichterstattung und Petitionen. Erst spĂ€ter kĂŒndigten xAI und X an, entsprechende Bildbearbeitungen kĂŒnftig zu blockieren, jedenfalls dort, wo entsprechende Inhalte als illegal einzustufen sind.
Wer hat die bildbasierte sexualisierte Gewalt ausgeĂŒbt?
Die öffentliche Verbreitung verfremdeter Bilder realer Frauen und MinderjĂ€hriger stellt eine Form bildbasierter sexualisierter Gewalt dar. Sie wirkt auch ohne physischen Ăbergriff gewaltsam, weil sie den Betroffenen die Kontrolle ĂŒber die Darstellung ihres eigenen Körpers entzieht, ihre sexuelle Selbstbestimmung gegen ihren Willen ĂŒberschreibt und sie öffentlich entwĂŒrdigt. Der Eingriff trifft damit nicht nur die PrivatsphĂ€re, sondern greift tief in personale IntegritĂ€t und soziale Existenz ein â in einer Weise, die klassischen Gewaltformen vergleichbar ist, auch wenn sie nicht körperlich erfolgt.
AusgeĂŒbt wurde diese Gewalt nicht durch âdie KIâ selbst. Gehandelt haben Nutzer, die Grok gezielt einsetzten, um entsprechende Bilder zu erzeugen und öffentlich zu verbreiten. Möglich wurde dies durch die konkrete Ausgestaltung von Grok. Obwohl die VorgĂ€nge bekannt waren, griffen die Verantwortlichen von X zunĂ€chst nicht ein.
Zwar wird im Zusammenhang mit KI hĂ€ufig ĂŒber Verantwortungsdiffusion diskutiert. Eine solche Konstellation liegt hier jedoch nicht vor. Es handelte sich nicht um unvorhersehbare, autonome Entscheidungen eines Systems, sondern um den gezielten Einsatz eines technischen Werkzeugs. SpĂ€testens nach den ersten FĂ€llen stand fest, dass Grok auf entsprechende Prompts zuverlĂ€ssig sexualisierte Darstellungen erzeugte und diese öffentlich verbreitete.
Im Hintergrund: Tech-Bro-Culture
Nutzer von X handeln nicht im luftleeren Raum. Sie bewegen sich innerhalb eines gestalteten Systems von Ăffentlichkeit, dessen Betreiber Reichweite, Sichtbarkeit und Schutzmechanismen festlegen. Wer diese Struktur schafft und trotz erkennbarer Risiken auf angemessene Sicherungen verzichtet, trĂ€gt Verantwortung fĂŒr die Bedingungen, unter denen systematische Rechtsverletzungen ermöglicht werden.
Diese Verantwortung lÀsst sich nur vor dem Kontext einordnen, in dem sich die VorgÀnge ereignen. Im Zusammenspiel von Grok und X kumuliert erhebliche private Macht: Technische Erzeugungsmacht (KI), infrastrukturelle Verbreitungsmacht (Plattform) und normative Gestaltungsmacht (Regeln, Defaults, Sichtbarkeit) liegen in den HÀnden der Tech-Oligarchie. Diese Machtkonzentration prÀgt nicht nur Nutzungsoptionen, sondern auch soziale Erwartungen und Grenzziehungen.
Soziale Medien sind lĂ€ngst mehr als private Kommunikationsdienste. Sie sind Orte politischer Teilhabe, beruflicher Sichtbarkeit und sozialer Anerkennung. Wird in diese RĂ€ume ein KI-System integriert, mittels dessen sich unter anderem sexualisierte Bildmanipulationen mit minimaler HĂŒrde erzeugen und verbreiten lassen, verschiebt sich die gesellschaftliche Risikolage. AuffĂ€llig ist, wie schnell daraus auch misogyne MachtausĂŒbung entsteht. Betroffene Frauen hören nicht selten, sie hĂ€tten eben âkeine Bilder postenâ sollen. Das ist mehr als âbloĂesâ Victim Blaming. Es wirkt wie eine informelle Verhaltensnorm, die Frauen den Preis der öffentlichen Sichtbarkeit vorrechnet und ihnen nahelegt, sich aus der digitalen Ăffentlichkeit zurĂŒckzuziehen.
In dieser Gemengelage wird deutlich, dass Recht â auch das Strafrecht â nicht nur individuelle RechtsgĂŒter schĂŒtzt, sondern soziale RĂ€ume einhegt: Es setzt unter anderem Grenzen dafĂŒr, wie Menschen einander in der Ăffentlichkeit begegnen dĂŒrfen. Private Plattformen stellen diese Einhegung auf die Probe. Sie erfĂŒllen öffentliche Funktionen, ohne selbst öffentliche Institutionen zu sein, und entziehen sich zugleich hĂ€ufig dem effektiven Zugriff nationaler Rechtsordnungen. Die Wirksamkeit bestehender Schutzregeln hĂ€ngt damit zunehmend von technischen Gestaltungsentscheidungen privater Akteure ab.
Strafrechtliche Verantwortlichkeiten
Was bedeutet das alles strafrechtsdogmatisch? Können deutsche Staatsanwaltschaften sowohl die Grok nutzenden Personen als auch die Verantwortlichen von Grok/X verfolgen?
DafĂŒr ist zunĂ€chst zu klĂ€ren, ob das geltende Strafrecht einen einschlĂ€gigen Tatbestand bereithĂ€lt. In Betracht kommt § 201a StGB, der dem Schutz des höchstpersönlichen Lebensbereichs und von Persönlichkeitsrechten durch Bildaufnahmen dient. Dessen Anwendungsbereich ist jedoch von vornherein begrenzt. FĂŒr eine Strafbarkeit nach Absatz 1 wird bei synthetischen Bildern schon ein âHerstellenâ verneint. Auch § 201a Abs. 2 StGB, der das unbefugte ZugĂ€nglichmachen einer Bildaufnahme mit der Eignung einer AnsehensschĂ€digung unter Strafe stellt, wird bei synthetischen sexualisierten Abbildungen ĂŒberwiegend verneint. Erstens weil ein Deepfake nicht als âBildaufnahmeâ angesehen wird, zweitens weil die Eignung zur AnsehensschĂ€digung bei sexualisierenden Aufnahmen verneint wird, drittens weil § 201a Abs. 3 StGB Nacktbilder ausdrĂŒcklich nur unter weiteren Voraussetzungen â etwa bei MinderjĂ€hrigkeit oder Entgeltlichkeit â erfasst.
AuĂerhalb des StGB bleibt allerdings die Strafbarkeit nach § 33 KUG in Verbindung mit §§ 22 f. KUG. Danach ist das Verbreiten oder öffentliche Zur-Schau-Stellen eines Bildnisses ohne Einwilligung strafbar, sofern kein Erlaubnistatbestand des § 23 KUG greift. Erscheinen die dargestellten Personen fĂŒr einen Durchschnittsbetrachter als Kinder oder Jugendliche, treten zudem die Pornographiedelikte der §§ 184b f. StGB hinzu.
Da Deepfakes de lege lata im StGB also jedenfalls nur lĂŒckenhaft erfasst sind, ĂŒberrascht es nicht, dass der Gesetzgeber reagiert. Mit dem geplanten § 201b StGB-E soll das PhĂ€nomen ausdrĂŒcklich reguliert werden. Ungeachtet handwerklicher Fragen erscheint die StoĂrichtung des Entwurfs grundsĂ€tzlich nachvollziehbar. Die Problematik der GesetzeslĂŒcke wird eingĂ€ngig von Theresia Crone diskutiert, die eine recht weitgehende, auch die Erstellung pornographischer Deepfakes erfassende Strafbarkeit fordert.
Verantwortung jenseits der Nutzer: KI-Integration als aktiv gesetztes, unerlaubtes Risiko
Vor dem Hintergrund der beschriebenen Machtverschiebungen stellt sich de lege lata nicht nur die Frage nach der Verantwortlichkeit einzelner Nutzer. Zu klĂ€ren ist ebenso, wer fĂŒr die Ermöglichung dieses Unrechts einzustehen hat.
Die damit gestellte Zurechnungsfrage ist neuartig und vielschichtig. Schon ĂŒber den etwas breiter diskutierten Grundfall (Nutzer erstellen extern sexualisierte Abbildungen und verbreiten sie auf X) herrscht kein Konsens: AnknĂŒpfungspunkt ist hier nach allgemeinen strafrechtlichen GrundsĂ€tzen das Unterlassen der Löschung, nicht der aktive (Weiter-)Betrieb der Plattform, da das mit dem Betrieb insgesamt verbundene Risiko rechtswidriger Inhalte die neutrale Nutzung nicht ĂŒberwiegt. Entscheidend ist dann die Kenntnis des konkreten Inhalts. Diese liegt regelmĂ€Ăig erst nach einer Meldung bei Contentmoderatoren vor, nicht aber bei den fĂŒr Infrastruktur und Produktdesign Verantwortlichen. Umstritten und in der Strafverfolgungspraxis bislang ungeklĂ€rt ist schlieĂlich die Garantenpflicht der Betreiber â bzw. abgeleitet ihrer Contentmoderatoren â fĂŒr eine Löschung der BeitrĂ€ge.
Mit der Integration von Grok in X Ă€ndern sich derweil entscheidende Aspekte. So etwa schon bezĂŒglich der möglichen AnknĂŒpfungspunkte fĂŒr eine strafrechtliche Verantwortlichkeit: Neben die unterlassene Löschung eines strafrechtswidrigen Beitrags tritt nun die Programmierung und die Integration von Grok. Diese auf das gesamte Produktdesign gerichteten Begehungsstrafbarkeiten wĂ€ren gegenĂŒber der unterlassenen Löschung einzelner Inhalte vorrangig zu betrachten. Und wieder wĂ€re zu fragen: Handelt es sich bei der Programmierung und Integration um die Setzung erlaubter Risiken? Unseres Erachtens, mit Blick auf die spezifischen Gefahrgeneigtheiten vergleichbarer Bildgeneratoren (wie etwa ChatGPT/Dall-E), eher nicht. Denn zum Zeitpunkt der Integration wurden bei diesen Anwendungen, anders als bei Grok, entsprechende Bildgenerierungen den anfragenden Nutzern lĂ€ngst verwehrt.
Diese Einordnung findet ihre regulatorische Entsprechung in den Wertungen des Digital Services Act. Art. 6 DSA statuiert eine Haftungsprivilegierung fĂŒr Host-Provider, die â auch mit Blick auf das Strafrecht â eine Verantwortlichkeit ausschlieĂt, solange keine konkrete Kenntnis von rechtswidrigen Inhalten besteht oder nach Kenntniserlangung unverzĂŒglich reagiert wird. Plattformen wie X fallen grundsĂ€tzlich in den Anwendungsbereich dieser Regelung. Offen ist aber bislang, wie Large Language Models wie ChatGPT oder Grok einzuordnen sind. Als Host-Provider lassen sich die Betreiber der LLMs jedenfalls nicht ohne Weiteres qualifizieren, da bei ihnen nicht die bloĂe Speicherung fremder Informationen, sondern die aktive Verarbeitung und Generierung von Inhalten im Zentrum steht. Allenfalls kĂ€me eine analoge Anwendung der Haftungsprivilegierung in Betracht. Selbst dann stellt sich jedoch die Frage, ob von einer vergleichbaren Interessenlage gesprochen werden kann, wenn der Dienst nicht neutral operiert, sondern die Erzeugung rechtsverletzender Inhalte ermöglicht oder jedenfalls nicht wirksam verhindert. Das gilt fĂŒr die Grok-Anwendung als solche. FĂŒr die Plattform X als Host-Provider lieĂe sich in Bezug auf den gespeicherten Inhalt ebenfalls bezweifeln, ob noch eine neutrale, passive Rolle anzunehmen ist. Es spricht also vieles fĂŒr eine Ablehnung des Haftungsprivilegs.
Vorsatz und Zurechnung bei infrastruktureller Mitwirkung
Der Fokus der strafrechtlichen PrĂŒfung verlagert sich damit auf die Vorsatzanforderungen der Programmierer und der fĂŒr Grok verantwortlichen EntscheidungstrĂ€ger. Hier liegt ein Kernproblem der strafrechtlichen Zurechnung. MaĂgeblich ist, wie konkret die Vorstellung von der spĂ€teren Tat beschaffen sein muss, um noch einen Eventualvorsatz annehmen zu können.
Weit ĂŒberwiegend wird diese Frage nicht abstrakt, sondern differenziert nach der jeweiligen Beteiligungsform beantwortet. FĂŒr den Gehilfen â eine Rolle, die fĂŒr die Verantwortlichen bei Grok naheliegen dĂŒrfte â genĂŒgt es, dass er die wesentlichen Merkmale der Haupttat erkennt, insbesondere deren Unrechts- und Angriffsrichtung. FĂŒr die Strafverfolgungspraxis wĂ€re also im Einzelnen zu klĂ€ren, wann fĂŒr die jeweiligen X/Grok-Akteure die Möglichkeit bekannt war, mithilfe von Grok auf X sexualisierte Bilder anderer Nutzer generieren zu lassen. Ab diesem Zeitpunkt kommt ein Vorsatz in Betracht, auch wenn weder konkrete HaupttĂ€ter noch einzelne Tatopfer oder der genaue Tatzeitpunkt Teil der Vorstellung waren.
Diese Verengung des Vorstellungsbildes stellt im Medienstrafrecht allerdings eher die Ausnahme dar. Typischerweise finden sich dort Konstellationen (z.B. DarkNet-Plattformen), in denen die Betreiber mit einer Nutzung fĂŒr unterschiedlichste Delikte und Unrechtsarten rechnen, ohne dass sich das Vorstellungsbild im Vorhinein derart verdichtet.
Weltweite Geltung des deutschen Medienstrafrechts?
Selbst wenn eine strafrechtliche Verantwortlichkeit dem Grunde nach in Betracht kommt, bleibt schlieĂlich zu klĂ€ren, ob ĂŒberhaupt deutsches Strafrecht anwendbar ist. Nach § 9 Abs. 2 S. 1 StGB gilt die Teilnahme jedenfalls auch an dem Ort als begangen, an dem die Haupttat begangen wird. Der Tatort bestimmt sich sowohl nach dem Handlungs- als auch nach dem Erfolgsort (§ 9 Abs. 1 StGB).
Steuert der Nutzer als HaupttĂ€ter den Grok-Chatbot von Deutschland aus an, dĂŒrfte deutsches Strafrecht daher auch gegenĂŒber im Ausland handelnden Gehilfen Anwendung finden. Schwieriger ist die Konstellation, in der sich der Nutzer bei der Tat im Ausland befindet. In diesen FĂ€llen kommt es entscheidend darauf an, wo der tatbestandliche Erfolg der Verbreitungsdelikte eintritt â und damit darauf, ob sich der Angriff auf das geschĂŒtzte Rechtsgut im Inland realisiert.
Insofern ist zu beachten, dass der dritte Strafsenat des BGH sich schon wiederholt auf den (umstrittenen) Standpunkt stellte, dass abstrakte GefĂ€hrdungsdelikte und Eignungsdelikte gar keinen Erfolgsort aufwiesen. Um ein solches Eignungsdelikt handelt es sich beispielsweise auch bei § 201a Abs. 2 StGB, nicht aber bei § 201b Abs. 1 StGB-E und auch nicht bei § 33 KUG. UnabhĂ€ngig davon stellt sich die grundsĂ€tzliche Frage, ob die Handlungen des ZugĂ€nglichmachens oder Verbreitens einen ausreichenden Erfolgssachverhalt aufweisen. Bejaht man die Frage, droht bekanntlich eine völkerrechtlich und auĂenpolitisch bedenkliche weltweite Geltung deutschen Strafrechts fĂŒr Internetsachverhalte.
Fazit
Der Fall Grok/X zeigt, wie sehr sich das VerhĂ€ltnis von Ăffentlichkeit, Technik und Verantwortlichkeit verschiebt, wenn generative KI nicht nur Inhalte erzeugt, sondern diese auch direkt ĂŒber eine Plattform mit massiver Reichweiten- und Sichtbarkeitsmacht in den öffentlichen Raum gelangen. Das Unrecht â hier in Form bildbasierter sexualisierter Gewalt â geht zwar von Nutzern aus, wird jedoch durch eine bewusst gestaltete Infrastruktur systematisch begĂŒnstigt. Die nachtrĂ€glich eingefĂŒhrten technischen Begrenzungen und ein Blick auf BeschrĂ€nkungen funktionsĂ€hnlicher Anwendungen legen nahe, dass Missbrauch durchaus frĂŒher begrenzbar gewesen wĂ€re.
Aktuelles Strafrecht muss weiterhin individuelle GrenzĂŒberschreitungen erfassen, ohne blind zu sein fĂŒr die strukturelle Machtkonzentration, in deren Schatten sich solche Taten massenhaft ereignen. Entscheidend ist daher nicht allein, ob das einzelne Deepfake strafbar ist oder kĂŒnftig strafbar sein sollte. Zur Debatte steht vielmehr, ob das Strafrecht den digitalen öffentlichen Raum als solchen noch wirksam einhegen kann, wenn dieser faktisch von wenigen Plattformbetreibern geformt wird. Im Fall von Grok/X spricht einiges dafĂŒr, dass die Strafbarkeit (ausnahmsweise?) auch jene treffen kann, die ĂŒber die architektonische Gestaltung dieser digitalen MarktplĂ€tze entscheiden.
Zugleich bleiben die Grenzen offensichtlich. Nicht nur die Reichweite des deutschen Strafrechts ist begrenzt, sondern auch seine praktische Durchsetzbarkeit stöĂt angesichts globaler Plattformmacht auf erhebliche politische HĂŒrden. Diese faktische MachtabhĂ€ngigkeit der staatlichen Rechtsdurchsetzung von privaten Infrastrukturen markiert ein weiteres wichtiges Problem, das weit ĂŒber den Fall Grok/X hinausweist â und weiterer, vertiefter Diskussion bedarf.
The post KI ohne Verantwortung? appeared first on Verfassungsblog.