Ziele, Zielsetzungen und aufkommende Taktiken politischer Deepfakes

Ziele, Zielsetzungen und aufkommende Taktiken politischer Deepfakes

insikt-group-logo-aktualisiert-3-300x48.png

Das Aufkommen von Deepfakes stellt eine erhebliche Bedrohung für Wahlen, öffentliche Personen und die Medien dar. Eine aktuelle Untersuchung der Insikt Group zeigt, dass zwischen Juli 2023 und Juli 2024 82 Deepfakes auf Persönlichkeiten des öffentlichen Lebens in 38 Ländern abzielten. Deepfakes, die auf finanziellen Gewinn, Wahlmanipulation, Rufmord und die Verbreitung nicht einvernehmlicher Pornografie abzielen, nehmen zu. Um diesen Risiken zu begegnen, müssen Unternehmen schnell handeln, das Bewusstsein schärfen und fortschrittliche KI-Erkennungstools einsetzen.

2024 Deepfakes und politische Desinformation: Neue Bedrohungen und Strategien zur Minderung

Die Verbreitung von KI-generierten Deepfakes verändert die politische und Desinformationslandschaft. Zwischen Juli 2023 und Juli 2024 tauchten Deepfakes, die sich als Personen des öffentlichen Lebens ausgaben, in 38 Ländern auf und gaben Anlass zur Sorge über Wahlbeeinflussung, Rufschädigung und mehr. Hier finden Sie eine detaillierte Aufschlüsselung dieser aufkommenden Bedrohungen und Strategien, um sie zu entschärfen.

82 Deepfakes wurden in 38 Ländern identifiziert, wobei 30 Nationen im Zeitraum des Datensatzes Wahlen abhielten oder für 2024 Wahlen geplant hatten. Politische Persönlichkeiten, Staatsoberhäupter, Kandidaten und Journalisten wurden ins Visier genommen, was das Potenzial zur Störung demokratischer Prozesse erhöhte.

Hauptziele

Betrügereien (26,8 %): Deepfakes werden häufig verwendet, um Finanzbetrügereien zu fördern und so die Aufmerksamkeit bei Wahlen zu erhöhen. Prominente Persönlichkeiten wie der kanadische Premierminister Justin Trudeau und die gewählte mexikanische Präsidentin Claudia Sheinbaum wurden Opfer dieser Form des Identitätsdiebstahls.

Falsche Aussagen (25,6 %): Deepfakes fälschen oft die Aussagen von Persönlichkeiten des öffentlichen Lebens, um die Wähler in die Irre zu führen. So tauchten beispielsweise gefälschte Audioaufnahmen auf, in denen der britische Premierminister Keir Starmer seine eigene Partei kritisiert und Taiwans Ko Wen-Je falsche Anschuldigungen erhebt.

Wahlkampf (15,8 %): Politische Parteien nutzen zunehmend Deepfakes, um das Wählerverhalten zu beeinflussen. Der türkische Präsident Erdoğan nutzte einen Deepfake, um einen Oppositionsführer mit terroristischen Gruppen in Verbindung zu bringen, und in Argentinien wurden im Wahlkampf zwischen Milei und Massa Deepfakes eingesetzt.

Charaktermord (10.9 %): Figuren wie der philippinische Präsident Ferdinand Marcos Jr. wurden mit unethischem Verhalten dargestellt, das das Vertrauen der Öffentlichkeit untergrub.

Nicht-einvernehmliche Pornographie (10.9 %): Frauen in der Politik werden überproportional oft mit gefälschter Pornografie bedroht, was dem Ruf schadet und von politischer Beteiligung abhält.

Neuartige Deepfake-Taktiken

Mehrere neue Taktiken sind aufgetaucht, die aufzeigen, wie ausgeklügelt die Deepfake-Operationen geworden sind:

Die Auswirkungen von Deepfakes auf Wahlen

Deepfakes sind zu einem Instrument der politischen Kriegsführung geworden. In der Slowakei zum Beispiel tauchte kurz vor den Wahlen ein Deepfake-Audio auf, das Desinformation über Wahlbetrug verbreitete, während in der Türkei ein Kandidat nach der Veröffentlichung eines angeblichen Deepfake-Sexvideos aus dem Präsidentschaftswahlkampf ausschied. Das Desinformationspotenzial von Deepfakes ist enorm, insbesondere in einem instabilen politischen Klima. Das Risiko, politische Kandidaten zu diskreditieren und falsche Narrative zu verbreiten, macht fortschrittliche Gegenmaßnahmen umso dringlicher.

Bekämpfung der Deepfake-Bedrohung

Deepfakes werden bei den US-Wahlen 2024 und den weltweiten politischen Prozessen wahrscheinlich eine bedeutende Rolle spielen, da sie den Ruf schädigen und das Vertrauen in die Wahlen untergraben. Die Vorschriften an die sich schnell weiterentwickelnde Technologie anzupassen, ist eine Herausforderung, insbesondere was ausländische Einmischung und Wahlmanipulation betrifft. Die Forschung deutet darauf hin, dass Deepfakes ab einer bestimmten Qualität nicht unbedingt sehr raffiniert sein müssen, um Schaden anzurichten. Daher ist es effektiver, sich auf Reaktions- und Abschwächungsstrategien zu konzentrieren. Dazu gehört auch, dass das Publikum mit dem echten Aussehen der nachgemachten Personen konfrontiert wird und dass Erzählungen schnell auf Fakten überprüft werden.

Um die gesamte Analyse zu lesen, klicken Sie hier, um den Bericht als PDF herunterzuladen.