Home Region Sport Agenda Schweiz/Ausland Magazin
Digital
18.06.2024

Die Schweiz ist ungenügend gegen «Deepfakes» geschützt

Bild: zVg
Laut einem Bericht der Stiftung für Technologiefolgen-Abschätzung (TA-Swiss) ist die Schweiz unzureichend gegen mit Künstlicher Intelligenz manipulierte Videos gewappnet.

«Es ist über die Jahre zunehmend einfacher geworden, Deepfakes zu erstellen», sagte der an der Studie beteiligte Murat Karaboga vom Frauenhofer-Institut am Dienstag vor den Medien in Bern. Es gebe zahlreiche Programme, um mit Künstlicher Intelligenz (KI) Tonaufnahmen, aber auch Bilder und Videos zu erstellen oder zu manipulieren.

Damit können Inhalte erschaffen werden, in denen eine Person etwas tut oder sagt, was sie nie getan oder gesagt hat. Genutzt werden solche Inhalte unter anderem von Kriminellen, die für Schock- und Erpressungsanrufe Stimmen von Privatpersonen kopieren. Auch Identitätsdiebstahl, Rufschädigung, Verbreitung von Falschinformationen und pornografische Inszenierungen ohne Einwilligung der betroffenen Person sind Risiken von Deepfakes, wie es im über 400 Seiten starken Bericht heisst.

Erkennung kaum möglich

Menschen sind dem Bericht zufolge kaum in der Lage, Deepfake-Videos als Fälschungen zu entlarven. In einem Experiment gelang es Teilnehmerinnen und Teilnehmern nicht, gut gefälschte Videos zu erkennen. Auch nicht, nachdem ihnen eine Anleitung gegeben wurde, wie solche Videos besser erkannt werden könnten. Einzig Menschen mit einer Affinität zu neuen Medien schnitten im Experiment etwas besser ab.

Detektor-Programme, auf die laut den Forschenden mitunter viel Hoffnung für die Erkennung von Deepfakes gesetzt wird, schnitten auch nicht viel besser ab. «Wir kamen zum Schluss, das Detektoren-Programme weder zuverlässig noch zugänglich sind», sagte Karaboga.

Wie kann man solche gefälschten Videos also erkennen? Einerseits gebe es einige optischen Erkennungsmerkmale. Etwa Haare, die in gefälschten Videos oft nicht natürlich aussehen, oder Bewegungen, die etwas hölzern wirken. Mit der stetigen Verbesserung dieser Technologien werde dies aber irgendwann nicht mehr möglich sein. Um Deepfakes zu erkennen, brauche es vor allem ein gewissen Gespür, sagte Karaboga. Man müsse sich fragen. Kann es wirklich sein, dass dieser Inhalt echt ist?

Keystone-SDA, Redaktion March24 & Höfe24