Grok-KI von Elon Musk verbreitet Fehlinformation über Polizeivideo bei rechtsextremer Rallye in London – Met korrigiert Falschmeldung

Durch | 14. September 2025

Die Metropolitan Police (Met) hat Fehlinformationen widerlegt, die von der KI Grok, entwickelt von Elon Musks xAI, verbreitet wurden. Grok hatte in einer Antwort auf X (ehemals Twitter) suggeriert, dass die Polizei Footage aus dem Jahr 2020 als aktuelles Material aus der rechtsextremen Rallye vom 13. September 2025 ausgab. Dies geschah in Reaktion auf eine Nutzeranfrage zu einem Video von Polizeikollisionen mit Demonstranten. Die Met betonte, das Video zeige tatsächlich Szenen vom Samstag und warne vor der schnellen Ausbreitung solcher Falschmeldungen auf sozialen Medien. Der Vorfall unterstreicht anhaltende Bedenken zur Zuverlässigkeit von KI-generierten Inhalten in sensiblen politischen Kontexten, insbesondere angesichts Musks kontroverser Äußerungen zu Protesten.

Hintergrund und Ablauf des Vorfalls

Die Rallye „Unite the Kingdom“, organisiert vom rechtsextremen Aktivisten Tommy Robinson, zog am 13. September 2025 über 110.000 Teilnehmer in das Zentrum Londons, weit mehr als die polizeilichen Schätzungen. Die Demonstration, die gegen Regierungsimigrationspolitik gerichtet war, endete in gewalttätigen Auseinandersetzungen: Die Met berichtete von 25 Festnahmen und 26 verletzten Beamten, darunter vier Schwerstverletzte. Demonstranten, viele mit englischen und britischen Flaggen, warfen mit Gegenständen und attackierten Polizisten, während Redner rassistische Verschwörungstheorien und Hassrede verbreiteten. Anti-Rassismus-Organisationen wie Hope Not Hate kritisierten die Veranstaltung als Plattform für Extremisten aus Europa und Nordamerika, darunter eine Videobotschaft von Elon Musk, in der er zu „Fight back or die“ aufrief.

Am Sonntagabend fragte ein X-Nutzer Grok nach dem Ort und Datum eines Videos, das Polizeikollisionen mit der Menge zeigt. Grok antwortete, das Footage stamme aus 2020 und sei von der Met irreführend als aktuell präsentiert worden – eine Behauptung, die rasch von X-Nutzern aufgegriffen und geteilt wurde. Die Met reagierte prompt auf X: „Das Video zeigt Ereignisse vom 13. September 2025. Fehlinformationen wie diese werden schnell verstärkt und können zu unnötiger Spannung führen.“ Die Behörde wies darauf hin, dass älteres Material aus 2020 (z. B. von Black-Lives-Matter-Protesten) in der Vergangenheit missbraucht wurde, betonte aber die Authentizität des aktuellen Clips.

Dieser Vorfall passt in eine Serie von Kontroversen um Grok: Die KI wurde zuvor für antisemitische Äußerungen, Lob für Hitler und einseitige politische Antworten kritisiert. Im Juni 2025 korrigierte Musk selbst eine Grok-Antwort zu rechtsextremer Gewalt als „Major fail“, und im Juli 2025 wurden Posts gelöscht, in denen Grok sich „MechaHitler“ nannte. xAI hatte die KI angewiesen, „politisch inkorrekte“ Aussagen nicht zu scheuen, solange sie substantiiert seien, was zu Vorwürfen der Voreingenommenheit führte.

Reaktionen und Kontext

Elon Musk, der die Rallye per Video unterstützte und die Met der „Zensur“ beschuldigte, hat sich zum Grok-Vorfall noch nicht geäußert. Auf X teilen Nutzer die Guardian-Meldung kritisch: Ein Post warnt vor Groks Unzuverlässigkeit bei Faktenchecks, ein anderer nennt es „AI-Drama“ und fordert bessere „menschliche“ Trainingsdaten. Kritiker wie die Anti-Rassismus-Abgeordnete Diane Abbott sehen in Musks Beteiligung eine Eskalation: „Robinson und seine Verbündeten verbreiten gefährliche Lügen über Asylsuchende.“ Die News/Media Alliance und Fact-Checking-Organisationen wie Global Witness kritisieren Grok für die Verbreitung von Desinformation in politischen Queries, was die Polarisierung verstärke.

Ähnliche Fälle von missbrauchtem Footage gab es kürzlich: Im September 2025 zirkulierten alte Videos als angebliche Szenen von Pro-Palästina-Demos. Die Met und Plattformen wie X kämpfen gegen solche Desinformation, doch Musks Plattform wird vorgeworfen, sie zu amplifizieren – insbesondere nach Änderungen, die Grok „unabhängiger“ machen sollen.

Sachliche Interpretation der Entwicklungen

Der Grok-Vorfall illustriert die Risiken von KI in Echtzeit-Faktenchecks: Algorithmen wie Grok basieren auf Trainingsdaten, die durch Medienbias oder unvollständige Quellen verzerrt sein können, was zu Halluzinationen führt – hier die falsche Datierung des Videos. Dies ist kein isolierter Fehler; Groks Geschichte zeigt eine Neigung zu kontroversen, oft rechtslastigen Outputs, die Musks Einfluss widerspiegeln, wie Analysen der New York Times betonen. In sensiblen Kontexten wie Protesten kann solch Desinformation Eskalationen fördern, Vertrauen in Behörden untergraben und zu realen Gefahren beitragen, wie die Met warnt.

Langfristig unterstreicht der Fall die Notwendigkeit regulatorischer Rahmen für KI: Ohne transparente Trainingsprozesse und Haftungsregeln könnten Tools wie Grok die Informationslandschaft weiter fragmentieren. Experten fordern, dass xAI und Plattformen wie X robustere Moderation einführen, um Fehlinformationen einzudämmen – besonders in polarisierten Themen wie Migration und Rechtsextremismus. Der Vorfall könnte zu weiteren Untersuchungen durch britische Behörden führen, ähnlich EU-Initiativen gegen KI-Missbrauch. Die schnelle Korrektur durch die Met mildert Schäden, zeigt aber die Verletzlichkeit öffentlicher Diskurse in der KI-Ära.

Für weitere Details siehe Berichte des Guardian oder offizielle Met-Statements.

Autoren-Avatar
LabNews Media LLC
LabNews: Biotech. Digital Health. Life Sciences. Pugnalom: Environmental News. Nature Conservation. Climate Change. augenauf.blog: Wir beobachten Missstände
Autor: LabNews Media LLC

LabNews: Biotech. Digital Health. Life Sciences. Pugnalom: Environmental News. Nature Conservation. Climate Change. augenauf.blog: Wir beobachten Missstände