Deepfake Betrug

“Seeing isn’t believing.”

Aktuell erscheint beinahe täglich ein neues, überzeugendes deepfake Video, das uns zeigt, dass wir uns tatsächlich nicht mehr auf das verlassen können, was wir sehen oder hören.  

Deepfakes setzen AI Anwendungen (Deep Learning) ein, um täuschend echt wirkende Bilder, Tonspuren und Videos zu erzeugen. Grundlage dafür bildet existierendes Bild- und Tonmaterial einer Person. Politiker, Schauspieler und andere in der Öffentlichkeit stehende Personen sind beliebte Opfer, da von ihnen genügend Bild- und Videomaterial vorhanden ist.  Dieses Material kann in Folge verwendet werden, um zum Beispiel in einem Video das Gesicht einer Person durch das einer anderen zu ersetzen. Auch die Mimik wird dabei täuschend echt nachgeahmt. Genauso lassen sich Stimmen, Sprachmelodie und Sprachfluss verändern und nachahmen. Mit deepfake ist es also möglich Personen Worte in den Mund legen, so lange nur genug Referenzmaterial des vermeintlichen Sprechers zur Verfügung steht. Deepfakes ermöglichen audio-visuelle Fake News, die aktuell einen neuen Grad der Glaubwürdigkeit erreichen.

Deepfakes können aber auch in Betrugsfällen eingesetzt werden. Zumindest einen Fall dieser Art dürfte es auch bereits geben:  Beim sogenannten CEO Fraud war der bisherige Weg mittels eines gefälschten E-Mails der Geschäftsführung an entsprechende Mitarbeiter Zahlungen an vermeintliche Lieferanten (in Wahrheit das Konto der Betrüger) zu veranlassen. Im März diesen Jahres wurde ein Britisches Energieunternehmen Opfer eines solchen CEO Frauds. In diesem Fall kam die Aufforderung zur Zahlung jedoch nicht per E-Mail, sondern per Telefon. Der Geschäftsführer des britischen Unternehmens erhielt einen Anruf der von seinem Vorgesetzen, dem Geschäftsführer der deutschen Mutterfirma, zu kommen schien. Sowohl Sprachmelodie als auch der Akzent entsprachen dem deutschen Geschäftsführer, dürften aber mittels AI imitiert worden sei. Das britische Unternehmen hat die angeforderte Zahlung an einen Lieferanten in der Höhe von 220.000,00€ auf Grund der Glaubwürdigkeit des Anrufes veranlasst.  

Es wird aber auch an der Aufdeckung von deepfakes geforscht. AI kann nicht nur für die Erstellung dieser Fälschungen eingesetzt werden, sondern auch für Ihre Detektion. Unter dem Namen Face Forensics wurde ein Ansatz präsentiert, der basierend auf einer großen Datenbank aus Videopaaren (gefälschte und ursprüngliche Videos) Fälschungen, genauer gesagt veränderte Regionen in Videos, erkennen kann.


Diesen Beitrag teilen: