Screenshot einer gefälschten tagesschau-Sendung
faktenfinder

Künstliche Intelligenz tagesschau als Ziel von Deepfakes

Stand: 28.01.2025 10:06 Uhr

Immer wieder kursieren in den sozialen Netzwerken mithilfe von KI verfälschte Videos, die tagesschau-Beiträge zeigen sollen. Kurz vor der Bundestagswahl kursieren Fakes, die politisch Einfluss nehmen wollen.

Im Netz kursiert ein Video, welches einen tagesschau-Beitrag zeigen soll, der die Probe einer angeblichen Vereidigungszeremonie von AfD-Spitzenkandidatin Alice Weidel als neue Bundeskanzlerin thematisiert. Dieses Video ist eine Fälschung - erstellt mithilfe von Künstlicher Intelligenz.

"Das Stabsmusikkorps der Bundeswehr probt vor dem Bundeskanzleramt die Vereidigungszeremonie der neuen Bundeskanzlerin Frau Dr. Alice Weidel" sagt tagesschau-Moderatorin Susanne Holst in dem gefälschten Video. Es startet ein Beitrag, welcher das Stabsmusikkorps der Bundeswehr vor dem Bundeskanzleramt zeigt - das Blasorchester spielt die Melodie des Songs "L'amour toujours" von Gigi D'Agostino.

Der Song wird in rechten Kreisen mit den rassistischen Parolen "Deutschland den Deutschen, Ausländer raus" gesungen. Ein Video, das junge Menschen auf Sylt zeigte, wie sie ebendiese Parolen zu dem Song sangen, sorgte im Mai 2024 für Empörung. Auch das reine Spielen der Melodie ist mittlerweile zum rechten Chiffre geworden.

Das identische Bewegtbildmaterial des Stabsmusikkorps lässt sich auf einem YouTube-Kanal finden. Gespielt wird jedoch der Regimentsgruß, ein bekannter Militärmarsch.

Screenshot einer gefälschten tagesschau-Sendung

Dieses angebliche tagesschau-Video ist eine Fälschung - erstellt mithilfe von Künstlicher Intelligenz.

"Kein Beitrag der tagesschau"

Das Video beginnt mit einer authentischen Ausgabe der "tagesschau in einfacher Sprache". Nach Ertönen des bekannten tagesschau-Jingles begrüßt Holst die Zuschauerinnen und Zuschauer wie gewohnt.

Eine Bilderrückwärtssuche zeigt, dass es sich um die erste Sendung der tagesschau in einfacher Sprache vom 12.06.2024 handelt, da Holst dieselbe Kleidung trägt. Erst ab der Anmoderation zum Beitrag über das Stabsmusikkorps ist das Video ein Fake.

tagesschau in Einfacher Sprache 19:00 Uhr, 12.06.2024

tagesschau in Einfacher Sprache (Video), 12.06.2024 19:00 Uhr

Hört man genau hin, klingt die Stimme von Holst etwas mechanischer. Des Weiteren ist oben links im Video das Wort "Dauerwerbesendung" eingeblendet. Nach dem Beitrag erscheint eine Zitatkachel von Alice Weidel, sowie der Hinweis, bei der Bundestagswahl die AfD zu wählen.

"Es handelt sich um ein mit KI generiertes Video und keinen Beitrag der tagesschau", betont Marcus Bornheim, Chefredakteur von ARD-aktuell. "Die tagesschau ist ein Nachrichtenmedium und verbreitet per se keine Werbung."

Gefälschte Videomontagen kein Einzelfall

Das Video fungiere als "self fulfilling prophecy", also als sich selbst erfüllende Prophezeiung, erläutert Simone Rafael, Sprecherin vom Center für Monitoring, Analyse und Strategie (CeMAS). Ein erträumter Zustand werde dargestellt, als sei er schon eingetreten, in der Hoffnung, dadurch werde er tatsächlich eintreten. "Wenig informierte Betrachterinnen und Betrachter könnten den Eindruck haben, Alice Weidel sei bereits Bundeskanzlerin. Aber auch diejenigen, die dieses Video als Fälschung erkennen, können sich leichter vorstellen, Weidel könnte tatsächlich Bundeskanzlerin werden."

Gefälschte Videomontagen wie diese seien laut Rafael gerade in Unterstützerkreisen der AfD beliebt. Oft würden sie als "Humor" dargestellt. Einige dieser Videos werden als Satire gekennzeichnet. Josef Holnburger, Geschäftsführer des CeMAS, weist jedoch darauf hin, dass dies nicht unbedingt ein Hinweis für das Publikum sein müsse. "Häufig wird ein Satirehinweis gezielt als Strategie von Desinformationsverbreitern genutzt, um sich im Rahmen der Kunstfreiheit gegen mögliche drohende Anklagen zu schützen." Dies sei mal mehr, mal weniger erfolgversprechend.

Das aktuelle Video ist nicht als Satire gekennzeichnet. "Da das Erstellen eines solchen Videos ein Verstoß gegen Markenrechte darstellt, prüfen wir derzeit ein juristisches Vorgehen", sagt Bornheim. Es werde bewusst die Popularität der Marke tagesschau ausgenutzt. "Die Gefahr ist, dass die Nutzerinnen und Nutzer das seriöse und glaubwürdige Image der tagesschau in Verbindung mit Wahlwerbung setzen könnten", so der Chefredakteur von ARD-aktuell.

Missbrauch der Glaubwürdigkeit

Denn auf den ersten Blick wirke das manipulierte Video seriös, sagt Christoph Maerz, Leiter des Kompetenzzentrums "Generative KI" am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). "Seriöse Medien wie die tagesschau haben einen gewissen Vertrauensvorschuss, weshalb sie speziell ins Visier genommen und gezielt genutzt werden."

Neben der Glaubwürdigkeit, die die tagesschau in der Bevölkerung habe, erziele sie auch eine große Reichweite und es existierten viele Sendungen und Beiträge. "Es gibt also umfangreiches Trainingsmaterial für die KI und man kann ohne viel Aufwand bei der Erstellung von KI-Videos sehr gute Ergebnisse erzielen", sagt Maerz.

Dies machen sich die Ersteller von Deepfakes nicht nur für vermeintliche Wahlwerbung zunutze. Ende 2023 machten gefälschte tagesschau-Audios die Runde, welche den Eindruck erweckten, die tagesschau entschuldige sich für angebliche Lügen in der Berichterstattung.

Fake-Kampagnen von Investitionsbetrügern

Auch kursieren immer wieder falsche Inhalte der tagesschau, in denen Nachrichtensprecherinnen und -sprecher vermeintlich Werbung für dubiose Finanzanlagen machen. So kursierte jüngst etwa ein Videos des tagesschau-Sprechers Thorsten Schröder, in dem er vermeintlich eine Plattform von Joko Winterscheidt bewarb, mit der "jeder seine finanzielle Situation" verbessern könne.

"Ersteller dieser gefakten Anlage-Empfehlungen, auch Scams genannt, nutzen häufig bekannte Persönlichkeiten, um ihren angeblichen Investitionsempfehlungen mehr Glaubwürdigkeit zu verleihen", sagt Holnburger. Die Hoffnung der Betrüger sei dabei, dass bei den Leuten ankomme: Wenn selbst die tagesschau darüber berichtet, kann es nur seriös sein.

Eine alte Masche professionalisiert

Diese Strategie wird schon seit Jahren genutzt. Cyberkriminelle nutzen regelmäßig geklonte Webseiten für Betrug und Phishing. Maerz bezeichnet diese Scams als "Fortsetzung von dem afrikanischen Prinz, der einem Geld spenden will". "Was früher als Spam in unserem Posteingang gelandet ist, wird nun als Video noch einmal glaubhafter."

Die Professionalität und Qualität der Fakes steigt und sie werden als Werbeanzeigen massenhaft in den sozialen Netzwerken geschaltet. Oftmals bleiben sie stunden oder gar tagelang online abrufbar, obwohl Inhalte wie diese gegen den Digital Service Act (DSA) verstoßen und europaweit schneller von den Plattformen entfernt werden müssten.

Das sei ein ernstzunehmendes Problem, so Maerz. "Wenn solche Fakes in meinem Social Media Feed auftauchen, sind diese viel schwerer als Fake zu erkennen, als wenn ich sie in einem anderen Setting in Ruhe anschaue und bewerte." Die Erkennungsquote sei bei der Flut an Informationen und Bilder, die auf den sozialen Netzwerken auf einen einprasseln, viel geringer.

Deepfakes werden immer besser

Hinzu käme laut KI-Experte Maerz, dass sich in den letzten zwei Jahren einiges in der Entwicklung und Qualität von Tools, die mit Generativer Künstlicher Intelligenz arbeiten, getan hätte. "Deepfakes selbst gibt es ja wirklich schon viele, viele Jahre. Aber durch den Bereich Generative KI ist da nochmal ein Riesenschritt passiert." Es sei super einfach geworden, Deepfakes mithilfe von Tools zu erstellen.

Die Sprache sei "unglaublich gut" geworden und Bilder sehen "unglaublich realistisch" aus. Auch Videotechnisch habe sich einiges getan. Allerdings müsse man hier differenzieren. Das Ergebnis werde besser, je mehr man die KI mit Material füttere. Wenn man also ein bestehendes Video einer realen Person mit KI verfälsche, erziele man deutlich bessere Ergebnisse, als wenn man einen rein originären Avatar erstelle.

Viele der erstellten Avatare, die Mimik und Gestik beinhalten, könne man noch gut als Fakes entlarven. "Die erkennt man an Sachen wie dem Augenblinzeln oder dem Haaransatz, der oftmals ein bisschen verschwommen ist", so Maerz. Auch gibt es bereits KI basierte Tools, die Deepfakes erkennen. "Allerdings hinkt die Erkennung oft hinterher, da die Fälschungstechniken sich sehr schnell weiterentwickeln und es immer schwerer wird, diese überhaupt zu erkennen", sagt Maerz.

"Demokratiegefährdend"

Der KI-Forscher hält insbesondere gefälschte Videos, die eine politische Agenda verfolgen, für ein "Riesenproblem" - gerade im Hinblick auf den laufenden Wahlkampf. "Das ist tatsächlich demokratiegefährdend. Denn wir können gerade live verfolgen, wie wichtig Narrative sind und wie damit Meinungen und Entscheidungen beeinflusst werden können."

Gefälschte Videos eliminierten Vertrauen und Desinformationskampagnen würden genau darauf abzielen. Das sieht auch das CeMAS so. Durch Videos, die zeigen, wie die AfD Wahlen gewinnt, trete ein Normalisierungseffekt ein. Das könne Einfluss auf ihr Handeln nehmen. "Außerdem wird so Misstrauen in mediale Informationen gestreut: Wenn das Video gefälscht ist, was kann ich noch glauben? Das dient zur Destabilisierung demokratischer Institutionen wie der Presse als vierte Gewalt im Staat", so Rafael.

Dieses Thema im Programm: Über dieses Thema berichtete SWR aktuell am 22. September 2024 um 06:06 Uhr.