Ronaldo Deepfake Scam: Meta in der Kritik

Das Meta Oversight Board hat kürzlich harte Kritik an seinem Mutterkonzern geübt. Der Grund: Ein virales Deepfake-Video von Fußball-Legende Ronaldo Nazário, das für Betrugszwecke genutzt wurde, wurde zunächst nicht entfernt.

Im September 2024 tauchte auf Facebook ein Video auf, das suggerierte, Ronaldo Nazário würde für ein Online-Spiel werben. Doch das Video war eine AI-Manipulation, überzeugend genug, um zahlreiche Nutzer in die Irre zu führen. Es handelte sich um einen klaren Scam-Versuch unter Nutzung eines Prominenten-Images. Die schnelle Verbreitung zeigte die Effektivität solcher Täuschungen im digitalen Raum.

Ein aufmerksamer Nutzer meldete das Video umgehend als Betrug. Trotz dieser ersten Meldung und über 50 weiteren Berichten entschied Meta *anfänglich*, den Inhalt *nicht* zu entfernen. Erst nachdem der ursprüngliche Melder beim Oversight Board Berufung eingelegt hatte, erkannte Meta die Notwendigkeit zur Entfernung des Videos.

Das Oversight Board stellte unmissverständlich fest, dass Metas Entscheidung, das Ronaldo Deepfake-Video nicht zu entfernen, eindeutig fehlerhaft war und gegen die eigenen Community-Standards verstieß.

Das Deepfake verletzte mehrere von Metas Richtlinien. Einerseits wurde durch die Vortäuschung, eine berühmte Person zu sein, versucht, Nutzer zu einer App-Installation zu bewegen, was gegen die Persona-Regeln verstößt. Andererseits führte der Link nicht zum beworbenen Spiel, was zusätzlich als Spam klassifiziert wurde.

Die schärfste Kritik des Oversight Board richtete sich gegen Metas Praxis, möglicherweise aus Angst vor übermäßiger Durchsetzung bei echten Prominenten-Endorsements, massenhaft Scam-Inhalte zuzulassen. Normale Reviewer scheinen nicht in der Lage, solche Fälle effektiv zu identifizieren, was das Einschalten spezieller Teams erfordert und zu Inkonsistenzen führt.

Das Board empfahl dringend, dass Meta seine Regeln gegen Betrug und Scams konsequenter durchsetzen muss. Dies erfordert, den Reviewern bessere Werkzeuge und Indikatoren an die Hand zu geben, um AI-generierte Fälschungen leichter zu erkennen. Gezielte Schulungen und Ressourcen sind entscheidend, um die Unterscheidung zwischen authentischen und gefälschten Inhalten zu verbessern und so die Plattform-Integrität zu stärken.

Der Fall hat weitreichende Implikationen für den Umgang mit AI-generierten Inhalten in sozialen Medien. Die einfache Erstellung überzeugender Fakes führt zu einer Zunahme von Betrugsversuchen. Das Board sieht darin eine Gelegenheit, die Auswirkungen von Deepfake-Endorsements auf die Öffentlichkeit und die dargestellten Personen zu untersuchen, als Teil seiner strategischen Prioritäten.

Die Entscheidung des Oversight Board ist ein klares Signal an Meta, seine Mechanismen gegen Deepfake-Scams dringend zu verbessern. Die aktuelle Handhabung reicht offensichtlich nicht aus.