Fotorealistisch und gefährlich: Die Macht von KI-Videos
Darum geht es: In den sozialen Medien sind immer häufiger KI-generierte Inhalte zu sehen. Eine Studie der europäischen Organisation AI Forensics zeigt, dass Tiktok und Instagram mit KI-Videos regelrecht geflutet werden. Die Studienautoren warnen, das Desinformationspotenzial sei hoch und könnte bald Demokratien gefährden.
Die Ergebnisse der Studie: Die Forscher analysierten Top-30-Suchergebnisse zu 13 populären Hahstags (Suchbegriffen) auf Tiktok und Instagram in Deutschland, Spanien und Polen. Darunter Hahstags wie #Trump oder #History. Rund ein Viertel der Treffer auf Tiktok zeigte Inhalte, die mit generativer KI erstellt wurden. Auf Instagram waren fünf Prozent der analysierten Videos KI-generiert. In rund 80 Prozent der Fälle waren die Bilder und Videos so fotorealistisch, dass sie auf den ersten Blick nicht als KI-Inhalte zu erkennen waren.

KI wird selten gekennzeichnet: Viele der KI-Videos haben laut den Forschungsteams das Ziel, als wirklichkeitsgetreue Faktendarstellungen wahrgenommen zu werden. So würden beispielsweise Clips mit manipulierten Bildern aus der Zeit des Naziregimes vermeintlich die Perspektive von Opfern im Konzentrationslager Auschwitz zeigen. Das Problem: Die Plattformen markieren viele dieser Inhalte nicht als künstlich erzeugt. Auf Tiktok fehlte eine Kennzeichnung bei etwa der Hälfte der analysierten Beiträge. Bei Instagram waren nur ein Viertel der KI-Videos als solche gekennzeichnet.
Das sagt die SRF-Digitalredaktorin: Die KI-Flut könne weitreichende Folgen auch auf gesellschaftlicher Ebene haben, sagt Tanja Eder von der SRF-Digitalredaktion. «Die Leute wissen nicht mehr, was real ist. Es kann passieren, dass man etwas glaubt, was nicht stimmt. Oder man glaubt einfach gar nichts mehr». Sie warnt davor, dass die Leute irgendwann die Plattformen verlassen würden, weil sie nur noch «Mist» sehen. «Kurzfristig profitieren die sozialen Netzwerke von den KI-Inhalten. Längerfristig wird es aber zum Problem, weil es die Menschen vergrault.»
Das sagt ein KI-Experte: Die KI-Generatoren hätten ein Level erreicht, bei dem es immer schwieriger werde, KI-Inhalte zu erkennen, sagt Patrick Karpiczenko. «Kürzlich bin ich selbst bei einem Hasen-Video reingefallen.» Das Problem liege auch darin, dass die Zuschauer glauben wollen. «Ich wollte glauben, dass die Hasen auf dem Trampolin echt sind und schaute gar nicht erst, ob es überhaupt Sinn macht». Dies berge Gefahren. «Eine Einzelperson kann heute in einer Demokratie sehr viel Schaden anrichten», sagt Karpiczenko und fügt an: «Der einzige Weg ist Bildung und Aufklärung, gerade bei den Jüngsten und den Ältesten.»
Das sagt SRF-Faktencheck: Ein KI-Video zu erkennen sei nicht einfach, aber es gebe ein paar Klassiker, weiss Manuel Haldi von SRF-Faktencheck. «Bei den Menschen sind es beispielsweise die Finger, Haare oder die Kleidung. Was auch immer wieder falsch wiedergeben wird, sind Schriften.» Oft würden bei KI-Videos Menschen oder Bäume im Hintergrund dupliziert. «Was auch häufig vorkommt sind Objekte, die plötzlich auftauchen und wieder verschwinden, wie beim Hasen-Video. Solche simulierten Überwachungskameras sehen oft harmlos aus.» Noch schwieriger werde es bei Inhalten, die aus KI-generierten und echtem Material bestehen würden. «Diese wirken tendenziell echter, weil ein Teil davon wirklich echt ist.»
Haftungsausschluss: Das Urheberrecht dieses Artikels liegt bei seinem ursprünglichen Autor. Der Zweck dieses Artikels besteht in der erneuten Veröffentlichung zu ausschließlich Informationszwecken und stellt keine Anlageberatung dar. Sollten dennoch Verstöße vorliegen, nehmen Sie bitte umgehend Kontakt mit uns auf. Korrektur Oder wir werden Maßnahmen zur Löschung ergreifen. Danke