Neue Sammelklage gegen Meta: Illegales KI-Training und manipulatives Chatbot-Design gefährden Millionen Nutzer – Kinder besonders im Visier
Rotterdam (Niederlande), Schleswig (Deutschland) – 23.02.2026 – Die niederländische gemeinnützige Stiftung Stichting Onderzoek Marktinformatie (SOMI) hat in Deutschland eine zweite Verbandsklage auf Schadensersatz gegen Meta eingereicht. Gegenstand der Klage ist die rechtswidrige Verwendung personenbezogener Daten von Instagram- und Facebook-Nutzern sowie von Nichtnutzern für die Verwendung in Metas KI-Systemen.
Meta verwendet nach eigenen Angaben seit dem 27. Mai 2025 in Deutschland sämtliche von Facebook- und Instagram-Nutzern veröffentlichten Informationen zur Entwicklung seiner KI-Systeme – darunter Bilder, Videos, Chat-Inhalte und Interaktionen mit sonstigen „KI-Diensten" von Meta sowie Daten von Werbepartnern. Ob es sich dabei um eigene Inhalte der Nutzer oder um personenbezogene Daten Dritter handelt, prüft Meta nicht. Da auf Facebook und Instagram jeder alles über jeden veröffentlichen kann, ist die Zahl der Betroffenen entsprechend groß. Hinzu kommt, dass Meta nicht nach dem Alter differenziert. Auch Daten von Babys, Kindern und Jugendlichen werden ohne deren Zustimmung oder die ihrer Erziehungsberechtigten für kommerzielle Zwecke verwertet. Ein Widerspruchsrecht für Personen, deren Daten von anderen Nutzern veröffentlicht wurden, hat Meta trotz gesetzlicher Verpflichtung nie eingeräumt.
Nach außen hin räumt Meta lediglich ein, „öffentlich zugängliche Inhalte" volljähriger Nutzer zu verwenden. Das hauseigene „Privacy Center" zeichnet ein anderes Bild: Auch Informationen von Minderjährigen und von Personen, die nicht bei Facebook oder Instagram registriert sind, werden verarbeitet. Eine Unterscheidung zwischen sensiblen und nicht sensiblen Daten nimmt Meta nicht vor. Im Ergebnis fließen auch Informationen aus dem höchstpersönlichen Lebensbereich in das Training von Metas KI-Modellen ein.
SOMI wirft Meta vor, die Betroffenen nicht ausreichend darüber zu informieren, welche Daten in welchem Umfang verarbeitet werden, welche KI-Modelle und KI-Systemintegrationen zum Einsatz kommen und wie die Betroffenen der Verarbeitung widersprechen können. Hinter dem von Meta verwendeten Begriff des „KI-Trainings“ für „AI at Meta" verbirgt sich ein ganzes Bündel kommerzieller Praktiken. Gemeint ist nicht nur die Llama-Familie von Sprachmodellen, die von Meta an Dritte lizenziert werden, sondern auch proprietäre Systeme wie „Meta AI" und dessen Chatbot-Integrationen auf WhatsApp, Facebook und Instagram. Hinzu kommt ein ebenfalls unter dem Namen „Meta AI" betriebenes soziales Netzwerk, das ausschließlich synthetische, auf Nutzerdaten basierende Inhalte präsentiert. Nicht zuletzt gehört dazu GEM, Metas Generative Ads Model, das allein dem Zweck dient, aus Inhalten der Nutzerinnen und Nutzer hyperpersonalisierte Werbeanzeigen zu erzeugen. Die so erstellten Anzeigen werden wiederum auf Basis sensibler Daten aus Nutzerinteraktionen ausgespielt, womit sich der Kreislauf von Metas Datenverarbeitung schließt.
Meta hat auf Basis umfangreicher Nutzerdaten, darunter auch sensible personenbezogene Daten, KI-gestützte Systeme wie Empfehlungsalgorithmen, Chatbots und virtuelle Charaktere entwickelt. Diese Systeme sind so gestaltet, dass sie durch ihre Art der Darstellung und Interaktion erhebliche Irreführungsrisiken mit sich bringen, besonders für Kinder und Jugendliche. Sie können falsche oder gezielt einseitig aufbereitete Informationen in nahezu allen Lebensbereichen vermitteln.
Zu diesen Systemen gehören KI-gesteuerte sogenannte „Characters“. Dabei handelt es sich um digitale Figuren, die sich etwa als Psychologen, Coaches oder bekannte Persönlichkeiten ausgeben und Nutzer aktiv in Gespräche hineinziehen. Solche Unterhaltungen können sich schnell verselbstständigen und sind für Minderjährige oft nur schwer zu überblicken oder zu steuern. Teilweise entsteht dabei der Eindruck, es würden echte Beratungsleistungen geschützter Berufsgruppen, etwa psychologische Beratung, angeboten. In dokumentierten Fällen kam es außerdem zu sexualisierten Inhalten und zu grenzüberschreitenden Gesprächssituationen gegenüber Kindern und Jugendlichen.
Das von Meta verantwortete sogenannte „Addictive Design“ dieser Dienste beruht auf gezielt eingesetzten Bindungs- und Verstärkungsmechanismen. Dazu gehören die Simulation emotionaler Nähe durch künstlich erzeugte oder vorgetäuschte Emotionen, technisch gesteuerte Formen synthetischer Gesprächsführung sowie die gezielte Nutzung neuropsychologischer Belohnungsstrukturen, insbesondere bei Minderjährigen, um die Bildschirmverweildauer zu verlängern. Hinzu kommen wiederholte, von KI ausgelöste Kontaktimpulse. Diese Mechanismen folgen der Logik einer Intimitätsökonomie, wie sie auch soziale Netzwerke einsetzen, um Aufmerksamkeit zu maximieren und Nutzer möglichst langfristig zu binden, einschließlich besonders schutzbedürftiger Gruppen.
Studien des Gallup-Instituts stützen diesen Vorwurf: Nahezu drei Viertel der deutschen Nutzer wussten nicht, dass ihre Daten für das Training von KI-Modellen verwendet werden. Nur ein Bruchteil konnte sich an eine entsprechende Benachrichtigung erinnern, von einer ausdrücklichen Einwilligung ganz zu schweigen.
SOMI weist zudem darauf hin, dass die mit den Daten der Nutzer trainierten KI-Chatbots von Meta bei Kindern und Jugendlichen zu suchtähnlichen Verhaltensmustern führen. Die internen Richtlinien von Meta schließen weder aus, dass diese Chatbots für sexualisierte Gespräche mit Minderjährigen genutzt werden, noch dass sie Falschinformationen und rassistische Stereotypen verbreiten. Werden rechtswidrige Inhalte in das Training der KI-Modelle eingespeist, werden diese dauerhaft in den Modellen verankert und sind jederzeit reproduzierbar. Einmal trainierte Inhalte lassen sich nachträglich nicht mehr gezielt entfernen. Meta schafft durch seine Datenverarbeitung damit die Voraussetzungen dafür, dass rechtswidrige Inhalte verewigt und unbegrenzt abrufbar bleiben. Dies begründet die Besorgnis, dass Metas KI-Produkte die Ausbeutung und Täuschung von Kindern ermöglichen und schwerwiegende Straftaten gegen Minderjährige begünstigen.
Das Vorgehen von Meta verstößt nach Auffassung von SOMI gegen die Datenschutz-Grundverordnung (DSGVO), den Digital Markets Act (DMA) und den Digital Services Act (DSA).
Einstweilige Verfügung
Im Juni 2025 stellte SOMI beim Schleswig-Holsteinischen Oberlandesgericht einen Antrag auf Erlass einer einstweiligen Verfügung gegen die Verwendung öffentlicher Nutzerinhalte zum Training der KI-Modelle von Meta. Der Antrag wurde aus verfahrensrechtlichen Gründen zurückgewiesen, da SOMI ihn erst nach der Ankündigung von Meta am 14.04.2025 eingereicht hatte. In der Sache bestätigte das Gericht jedoch ausdrücklich die Einschätzung von SOMI: Die Datenpraktiken von Meta stellen einen Verstoß gegen EU-Recht dar. Insbesondere stellte das Gericht fest, dass das KI-Training von Meta mit hoher Wahrscheinlichkeit auch sensible Daten umfasst – darunter Informationen über nicht registrierte Personen sowie von Minderjährigen erstellte Inhalte. Dies verstößt gegen die DSGVO-Bestimmungen zum Schutz besonderer Kategorien personenbezogener Daten. Eine solche Verarbeitung lässt sich nicht auf ein „berechtigtes Interesse" stützen, sondern hätte die ausdrückliche Einwilligung der Betroffenen erfordert. Meta hat diese Einwilligung vor Beginn der Verarbeitung nicht eingeholt.
Forderungen
SOMI fordert Schadensersatz für alle Verbraucher in Deutschland, deren personenbezogene Daten von Meta über Facebook und Instagram ohne ihre Einwilligung zum Training von KI-Systemen verwendet wurden. Die Entschädigung bewegt sich in einer Spanne von EUR 1.000 bis EUR 7.000 pro Person und kann sich abhängig von Dauer und Schwere des Verstoßes, dem Alter der betroffenen Person, dem Kontostatus sowie einer etwaigen Interaktion mit den KI-Chatbots von Meta monatlich erhöhen. Darüber hinaus fordert die Klage einen verstärkten Schutz von Minderjährigen, registrierten Nutzern und Nichtnutzern, deren personenbezogene Daten für die Nutzung in KI-Systemen herangezogen werden.
Registrierung für die Klage
Alle betroffenen Personen und ihre gesetzlichen Vertreter werden sich in Kürze kostenlos beim Bundesamt für Justiz über das Klageregister für Verbandsklagen registrieren können.
Weitere Informationen sind unter www.facebookaiclaim.de verfügbar. Verbraucher können sich auch direkt bei SOMI auf der Website gegen eine Gebühr von EUR 7,50 registrieren. Dieser Beitrag unterstützt die Interessenvertretung von SOMI in ganz Europa und umfasst regelmäßige Informationsupdates sowie die Mitgliedschaft im Partnerprogramm.
Rechtliche Vertretung
SOMI wird von der Kanzlei Spirit Legal (Leipzig, Frankfurt am Main, Dresden) vertreten, die auf strategische Prozessführung in digitalen Angelegenheiten und kollektive Rechtsschutzklagen spezialisiert ist.
Über SOMI
Die Stichting Onderzoek Marktinformatie (SOMI) ist eine gemeinnützige Organisation mit gesellschaftspolitischem Schwerpunkt. SOMI ist von der Europäischen Kommission als im Bereich Datenschutz und Datenautonomie tätige Organisation anerkannt und setzt sich für den Schutz der Grundrechte von Verbrauchern und Minderjährigen bei der Nutzung verschiedener Online-Dienste ein.
Über ihre App gibt SOMI Einzelpersonen die Kontrolle über ihre personenbezogenen Daten: „All your data. All yours." Die Organisation deckt Missstände auf, informiert die Öffentlichkeit und unterstützt Geschädigte – unter anderem durch Verbandsklagen, Unterlassungsansprüche und die Durchsetzung von Schadensersatzansprüchen. SOMI prüft derzeit Rechtsverstöße zahlreicher digitaler Dienstleister und Social-Media-Plattformen.
Die SOMI-App unterstützt Verbraucher zudem bei der Ausübung ihrer individuellen DSGVO-Rechte auf Auskunft über ihre bei Online-Plattformen gespeicherten personenbezogenen Daten. Die SOMI-App ist sowohl im App Store als auch bei Google Play zum Download verfügbar.
Kontakt:
SOMI
Jullaya Vorasuntharosoth
Spirit Legal
Peter Hense, Partner