>
Research (Insikt)

Ziele, Zielsetzungen und aufkommende Taktiken politischer Deepfakes

Veröffentlicht: 24. September 2024
Von: Insikt Group®

insikt-group-logo-aktualisiert-3-300x48.png

Das Aufkommen von Deepfakes stellt eine erhebliche Bedrohung für Wahlen, öffentliche Personen und die Medien dar. Eine aktuelle Untersuchung der Insikt Group zeigt, dass zwischen Juli 2023 und Juli 2024 82 Deepfakes auf Persönlichkeiten des öffentlichen Lebens in 38 Ländern abzielten. Deepfakes, die auf finanziellen Gewinn, Wahlmanipulation, Rufmord und die Verbreitung nicht einvernehmlicher Pornografie abzielen, nehmen zu. Um diesen Risiken zu begegnen, müssen Unternehmen schnell handeln, das Bewusstsein schärfen und fortschrittliche KI-Erkennungstools einsetzen.

2024 Deepfakes und politische Desinformation: Neue Bedrohungen und Strategien zur Minderung

Die Verbreitung von KI-generierten Deepfakes verändert die politische und Desinformationslandschaft. Zwischen Juli 2023 und Juli 2024 tauchten Deepfakes, die sich als Personen des öffentlichen Lebens ausgaben, in 38 Ländern auf und gaben Anlass zur Sorge über Wahlbeeinflussung, Rufschädigung und mehr. Hier finden Sie eine detaillierte Aufschlüsselung dieser aufkommenden Bedrohungen und Strategien, um sie zu entschärfen.

82 Deepfakes wurden in 38 Ländern identifiziert, wobei 30 Nationen im Zeitraum des Datensatzes Wahlen abhielten oder für 2024 Wahlen geplant hatten. Politische Persönlichkeiten, Staatsoberhäupter, Kandidaten und Journalisten wurden ins Visier genommen, was das Potenzial zur Störung demokratischer Prozesse erhöhte.

Hauptziele

Betrügereien (26,8 %): Deepfakes werden häufig verwendet, um Finanzbetrügereien zu fördern und so die Aufmerksamkeit bei Wahlen zu erhöhen. Prominente Persönlichkeiten wie der kanadische Premierminister Justin Trudeau und die gewählte mexikanische Präsidentin Claudia Sheinbaum wurden Opfer dieser Form des Identitätsdiebstahls.

Falsche Aussagen (25,6 %): Deepfakes fälschen oft die Aussagen von Persönlichkeiten des öffentlichen Lebens, um die Wähler in die Irre zu führen. So tauchten beispielsweise gefälschte Audioaufnahmen auf, in denen der britische Premierminister Keir Starmer seine eigene Partei kritisiert und Taiwans Ko Wen-Je falsche Anschuldigungen erhebt.

Wahlkampf (15,8 %): Politische Parteien nutzen zunehmend Deepfakes, um das Wählerverhalten zu beeinflussen. Der türkische Präsident Erdoğan nutzte einen Deepfake, um einen Oppositionsführer mit terroristischen Gruppen in Verbindung zu bringen, und in Argentinien wurden im Wahlkampf zwischen Milei und Massa Deepfakes eingesetzt.

Charaktermord (10.9 %): Figuren wie der philippinische Präsident Ferdinand Marcos Jr. wurden mit unethischem Verhalten dargestellt, das das Vertrauen der Öffentlichkeit untergrub.

Nicht-einvernehmliche Pornographie (10.9 %): Frauen in der Politik werden überproportional oft mit gefälschter Pornografie bedroht, was dem Ruf schadet und von politischer Beteiligung abhält.

Neuartige Deepfake-Taktiken

Mehrere neue Taktiken sind aufgetaucht, die aufzeigen, wie ausgeklügelt die Deepfake-Operationen geworden sind:

  • Gefälschte Whistleblower: Mithilfe von KI erstellten Deepfakes von Dritten, die sich als Whistleblower ausgeben, versuchen Einflussnehmer, die öffentliche Meinung zu manipulieren, indem sie Skandale fabrizieren.
  • Audio-Deepfakes: Ein wachsender Trend ist die Verwendung von gefälschten Audioclips, um falsche Aussagen zu machen, wie z. B. Präsident Biden, der angeblich die Wähler auffordert, die Vorwahlen zu überspringen.
  • Gefälschte Medieninhalte: Einflussakteure verwenden zunehmend legitime Nachrichtenmarken, wie Logos oder Einblendungen von France24 und BBC, um ihren Deepfakes Glaubwürdigkeit zu verleihen.
  • Identitätsfälschungen im Zusammenhang mit ausländischen Staatsoberhäuptern: Videos wie die mit Xi Jinping aus China oder Donald Trump aus den USA wurden wiederverwendet, um die Wahlen in Taiwan bzw. Südafrika zu beeinflussen.
  • Nachahmung von Familienmitgliedern: Deepfakes zielen sogar auf Familienmitglieder von politischen Persönlichkeiten ab und fügen eine weitere Ebene der Desinformation und Manipulation hinzu.

Die Auswirkungen von Deepfakes auf Wahlen

Deepfakes sind zu einem Instrument der politischen Kriegsführung geworden. In der Slowakei zum Beispiel tauchte kurz vor den Wahlen ein Deepfake-Audio auf, das Desinformation über Wahlbetrug verbreitete, während in der Türkei ein Kandidat nach der Veröffentlichung eines angeblichen Deepfake-Sexvideos aus dem Präsidentschaftswahlkampf ausschied. Das Desinformationspotenzial von Deepfakes ist enorm, insbesondere in einem instabilen politischen Klima. Das Risiko, politische Kandidaten zu diskreditieren und falsche Narrative zu verbreiten, macht fortschrittliche Gegenmaßnahmen umso dringlicher.

Bekämpfung der Deepfake-Bedrohung

  • Schnelligkeit und Genauigkeit: Wenn Deepfakes viral gehen, ist es wichtig, schnell zu handeln. Persönlichkeiten des öffentlichen Lebens sollten authentische Inhalte veröffentlichen, um falsche Behauptungen schnell zu entlarven.
  • Bekanntheitskampagnen: Ermutigen Sie Persönlichkeiten des öffentlichen Lebens, ihre Sichtbarkeit zu erhöhen, damit die Menschen mit ihrem wahren Erscheinungsbild vertraut werden.
  • Urheberrecht als Hebel: Deepfakes, die urheberrechtlich geschütztes Material verwenden, können über DMCA-Anträge (Digital Millennium Copyright Act) entfernt werden, was eine mögliche rechtliche Handhabe gegen KI-generierte Desinformationen bietet.
  • Fortschrittliche KI-Erkennung: Regierungen und Medien müssen in KI-gestützte Erkennungstools investieren, um Deepfakes zu identifizieren und zu entfernen, bevor sie erheblichen Schaden anrichten.
  • Zusammenarbeit mit Faktenprüfern: Die Zusammenarbeit zwischen Social-Media-Plattformen und Faktenprüfungsorganisationen wird entscheidend sein, um die Verbreitung von Deepfakes und falschen Narrativen einzudämmen.

Deepfakes werden bei den US-Wahlen 2024 und den weltweiten politischen Prozessen wahrscheinlich eine bedeutende Rolle spielen, da sie den Ruf schädigen und das Vertrauen in die Wahlen untergraben. Die Vorschriften an die sich schnell weiterentwickelnde Technologie anzupassen, ist eine Herausforderung, insbesondere was ausländische Einmischung und Wahlmanipulation betrifft. Die Forschung deutet darauf hin, dass Deepfakes ab einer bestimmten Qualität nicht unbedingt sehr raffiniert sein müssen, um Schaden anzurichten. Daher ist es effektiver, sich auf Reaktions- und Abschwächungsstrategien zu konzentrieren. Dazu gehört auch, dass das Publikum mit dem echten Aussehen der nachgemachten Personen konfrontiert wird und dass Erzählungen schnell auf Fakten überprüft werden.

Um die gesamte Analyse zu lesen, klicken Sie hier, um den Bericht als PDF herunterzuladen.

Verwandt