Deepfake: Künstliche Intelligenz erstellt Pornos mit Deinem Gesicht!

Deepfake: Aktuell macht eine Technik im Netz die Runde, in der künstliche Intelligenz mal für etwas ganz anders eingesetzt wird. Denn in der Deepfake-App (Name geändert) schneidet ein Algorithmus Gesichtsaufnahmen (Fotos aus sozialen Netzwerken, Aufnahmen von Prominenten) auf die Gesichter von Darstellern in Pornofilmen. Die Technik ist mittlerweile so ausgereift, dass die fertigen Filme zum Teil echt aussehen. Was jetzt noch wie ein großer Spaß klingt, seine favorisierte Lieblingsschauspielerin auf ein nacktes Pornodarsteller-Double zu legen, um diese dann auch mal in etwas anderen Szenen sehen zu können, wäre im Privaten und ohne Weiterverbreitung evtl noch irgendwie tragbar. Jetzt lässt sich die Technik aber auf jedermann anwenden.

Deepfake-Videos pushen Mobbing auf eine ganz neue Stufe

Und in Zeiten, in denen von fast jedem von uns eine Vielzahl von Gesichtsaufnahmen in sozialen Netzwerken oder generell im Netz zu finden sind, besteht hier durchaus die Gefahr, dass wenn jemand im Besitz Eurer Bilder ist und sich ein wenig Zeit nimmt, ein entsprechendes Werk erstellen könnte. Wenn dieser ein solches Werk dann in einem sozialen Netzwerk oder im Internet verbreitet, besteht natürlich die Möglichkeit gegen die missbräuchliche Nutzung Eurer Bilddaten vorzugehen.

Ob das hilft, wenn die halbe Schule/Firma den Clip bereits gesehen hat, lass ich mal außen vor. Allein im Bereich Mobbing unter Jugendlichen oder Arbeitskollegen scheinen die Fakes bereits deutlich an Bedeutung zuzunehmen, was vereinzelte Berichte in US-Newsblogs zeigen.

Vor Deepfake-Missbrauch schützt vernünftiger Umgang mit eigenen Bilddaten!

Wir verzichten daher absichtlich darauf jetzt auf entsprechende Seiten zu verlinken, in denen sich ganze Communities zusammengefunden haben, die sich gegenseitig Tipps und Tricks geben, wie die Filme besonders realitätsnah werden. Uns geht es vielmehr darum, Aufmerksamkeit dafür zu schaffen, dass wir uns aktuell in einer Zeit befinden, in der es wohl auch möglich wäre, zum Beispiel einen Politiker mit der Deepfake-KI digital zu animieren und diesen dann sagen zu lassen, was man möchte.

Es wird bestimmt auch nicht so einfach, wenn ein solcher Film bei einem Ehepartner eintrifft, der selbst nicht so megamäßig viel technisches Know-how besitzt. Dem jetzt klarzumachen, dass es sich um ein Fake handelt, kann schwer werden, wenn die bewegten Bilder eine eindeutige Sprache sprechen. Dass diese Technologie jetzt in Privathände gefallen ist, könnte ungeahnte Folgen für uns alle haben. Also besser zweimal überlegen, bevor Ihr zukünftig Fotos oder Videos von Euch im Netz veröffentlicht.

Zurück zur Apple News Übersicht

Leser-Interaktionen

Was Denkst Du?