Darum können Fake Videos gefährlich sein
Es wird immer einfacher Deepfakes von Personen zu erstellen und diese etwas tun oder sagen zu lassen, was sie nie getan oder gesagt haben. Vielleicht ist dir im Netz zum Beispiel schon ein Video begegnet, in dem sich unsere ehemalige Bundeskanzlerin Angela Merkel über Dönerpreise beschwert. Was in manchen Fällen vielleicht lustig klingt, kann in anderen Fällen problematisch sein.
1. Pornografische Deepfakes
Vor kurzem erst gingen pornografische Deepfakes der Sängerin Taylor Swift viral. Sie ist allerdings nicht die einzige Betroffene. Schätzungen aus 2019 ergeben, dass über 90% der Deepfakes pornografisch sind. Die Betroffenen sind meistens Frauen.
2. Politische Deepfakes
Dass Angela Merkel sich nicht wirklich über die Dönerpreise beschwert (zumindest nicht öffentlich), ist für die meisten wahrscheinlich nicht schwer zu erkennen. Sobald aber Politiker*innen genutzt werden, um gezielt Fake News zu verbreiten, kann es wirklich gefährlich werden. So wurde 2022 ein KI generiertes Video veröffentlicht, in dem man ein Deep Fake des ukrainischen Präsidenten Selenskyj sieht. In diesem erklärte er einen Waffenstillstand der Ukraine. Auf dieses Video konnte schnell reagiert werden. Die Sorge bleibt allerdings, dass solche Versuche auch zukünftig eingesetzt werden, um Wahlen und Kriege zu beeinflussen.
3. Fake Werbung
Hier handelt es sich um Deepfakes von Prominenten, die ungefragt für Werbung missbraucht wurden. So zum Beispiel im Falle des Tagesschau-Moderators André Schünke oder der englischsprachigen Ärztin Dr. Dana Brems.
Darum können Fake Audios gefährlich sein
Auch Stimmen können immer besser gefälscht werden. Das kann nicht nur politische Folgen haben, sondern dich auch privat betreffen.
1. Politische Deepfakes 2.0.
Besonders in Bezug auf die kommenden US-Wahlen haben Expert*innen die Sorge, dass immer mehr Deepfakes auftauchen, um die Wahlen zu beeinflussen. Anfang des Jahres 2024 wurde zum Beispiel die Stimme des US-Präsidenten Joe Biden gefälscht, um Wähler*innen davon abzuhalten ihre Stimme abzugeben.
2. Betrugsmasche Telefonanruf
Nicht nur berühmte Persönlichkeiten oder Politiker*innen können direkt von Deepfakes betroffen sein. Betrüger*innen nutzen KI-Stimmen auch schon, um Fake-Anrufe zu tätigen. So nutzen Betrüger*innen Sprachfetzen aus Social Media, um die Stimmen von Verwandten nachzuahmen und sich als Enkel oder Kind auszugeben.
Wie kannst du Deepfakes erkennen?
Es wird immer schwieriger Deepfakes zu erkennen. Deshalb solltest du immer sichergehen, welche Quellen sich hinter bestimmten Informationen befinden. Sei dir bewusst, dass mittlerweile sowohl Bilder als auch Audioaufnahmen, die auf Social Media zu finden sind, genutzt werden können, um Deepfakes zu erstellen. Das passiert nicht nur Promis, auch ganz normalen Menschen ist das schon passiert. Einfach so Bilder von anderen zu nutzen, um Deepfakes zu erstellen, ist zwar nicht erlaubt und verstößt gegen das Recht am eigenen Bild … dennoch wird es leider oft gemacht. Was du tun kannst, wenn andere ein Bild von dir irgendwo hochladen, oder auch Deepfakes erstellen, erfährst du hier.
Schau dir gerne auch unsere Infografik zum Thema Fake News an.
Artikel vom 12.02.2024.