Deepfakes sind von Computerprogrammen, mit Hilfe von Apps oder Künstlicher Intelligenz erstellte Videos, Bilder oder Tonaufnahmen. Auf diesen werden z. B. Gesichter oder Stimmen so verändert, dass Personen plötzlich etwas sagen oder machen, was sie aber gar nicht selbst gesagt oder gemacht haben.
„Das hat er wirklich gesagt? Gibt’s ja gar nicht!“ Haben Sie auch schon mal ein Video gesehen und sich gewundert, weil die abgebildete Person etwas gesagt oder gemacht hat, was gar nicht zu ihr passt?
Mittlerweile muss man sich dabei immer häufiger fragen: Ist das Video wirklich echt oder nicht? Diese Frage zu beantworten, ist allerdings ganz schön schwierig. Denn dank neuester Technik wird es immer einfacher, mit Hilfe von Künstlicher Intelligenz (KI), täuschend echt aussehende Videos mit real existierenden Menschen zu erstellen.
Hier gibt es Tipps, wie solche Deepfakes erkannt werden können.
Deepfakes sind von Computerprogrammen oder mit Künstlicher Intelligenz erstellte Videos, Bilder oder Tonaufnahmen, die z. B. Gesichter oder Stimmen von Personen verändert. Früher waren stundenlange kreative Arbeit, sehr viel technisches Wissen und vor allem sehr teure Programme sowie rechnungsstarke Computer nötig, um ein Bild oder ein Video zu fälschen. Heute genügt eine kurze Anweisung und ein Computerprogramm mit Künstlicher Intelligenz erstellt einen neuen Inhalt. Dabei greifen die Programme auf Millionen von online-gestellten Bildern und Videos zurück. Das geht ziemlich schnell, recht einfach auch übers Handy und ist in den Testversionen auch meistens kostenlos.
Deepfakes können ziemlich lustig sein. Mit Hilfe sogenannter „Faceswap-App“ („to swap“ ist Englisch und bedeutet „tauschen“, also eine Gesichts-Tausch-App) ist das eigene Gesicht in einem Video-Clip auf dem Körper eines Action-Helden zu sehen. Nicht mehr lustig ist es allerdings, wenn stattdessen Vorlagen mit Kraftausdrücken, derbem Humor oder pornografischem Inhalt hergenommen werden.
Mit manipulierten Videos lässt sich beispielsweise gefährliches Chaos in der Politik verbreiten. Besonders, wenn sich ein Land im Wahlkampf befindet, können professionelle Deepfakes viel Verwirrung stiften, indem mit den Videos Rufschädigung und Hetze betrieben wird. Nämlich dann, wenn eine Politikerin oder ein Politiker plötzlich Aussagen vor der Kamera macht, die überhaupt nicht zu ihr oder ihm passen, die aber von der Bevölkerung nicht als Fälschung erkannt werden. Solche Videos verbreiten sich ungeprüft rasend schnell über die sozialen Medien. Zudem kann die Technik der Deepfakes auch im Umkehrschluss dazu führen, dass echte Videos für unecht gehalten werden. Möglicherweise vertrauen manche Menschen dann gar keiner Quelle mehr, und tun alles, was nicht in ihr persönliches Meinungsbild passt, als „Fake News“ bzw. als Fälschung ab.
Mit künstlicher Intelligenz generierte "Deepnudes" – das sind mithilfe von KI‑generierte Nackt‑Bilder, auch von Kindern und Jugendlichen – verbreiten sich schnell im Netz und sind schwer wieder vollständig zu löschen.
Mit bestimmten, frei zugänglichen Apps – sogenannte Nudify-Apps – lassen sich aus normalen Fotos täuschend echte Nacktbilder erstellen, auch von Minderjährigen. Besonders gefährdet sind öffentlich sichtbare Profile, auf denen Kinderbilder und -Videos geteilt werden. Auch Profil- oder Statusbilder oder über Messenger versendete Bilder können als Vorlage für Nackt-Deepfakes dienen.
Amateurhafte Deepfakes sind meistens recht schnell mit bloßem Auge zu erkennen. Gerade wenn nur das Gesicht ausgetauscht wurde. Allerdings gibt es auch komplett neu erstellte, professionelle Videos oder Bilder, bei denen sehr genau hingeschaut werden muss, um sie als Fälschung zu erkennen:
Da die Programme und Apps so leicht zu bedienen sind, bieten sie großes Potential, um jemandem absichtlich zu schaden. Denn sobald genügend Video- oder Bildmaterial von einer Person online verfügbar ist, lassen sich damit neue Videos erstellen. Ganz leicht eignet sich dazu der Inhalt von öffentlichen Social-Media-Kanälen. Ist das passiert und wird so ein Video verbreitet, kann das für die betroffene Person erhebliche Nachwirkungen haben.
Betroffene sollten deshalb zuerst versuchen, das Deepfake-Video aus dem Verkehr zu ziehen und eine Weiterverbreitung zu unterbinden. Passiert sowas im schulischen Kontext, sollte unbedingt die Klassenleitung oder eine Vertrauensperson eingeschaltet werden. Zudem können die sozialen Netzwerke, über welche die manipulierten Videos verbreitet werden, kontaktiert werden. Diese sind aufgrund des Telemediengesetzes und des Netzwerkdurchsetzungsgesetzes verpflichtet, rechtsverletzende Inhalte schnell zu prüfen und zu löschen. In einem solchen Fall ist das Recht am eigenen Bild verletzt.
Der § 22 des Kunsturheberrechtsgesetzes (KunstUrhG) verbietet die Nutzung von Bildnissen einer Person ohne deren Einwilligung. Zudem verletzt so eine Fälschung das Persönlichkeitsrecht der abgebildeten Person (Art. 2 Abs. 1, Art. 1 Grundgesetz).
Strafrechtlich kann der Täter oder die Täterin wegen Beleidigung, Verleumdung oder übler Nachrede und wegen des Verstoßes gegen § 33 KunstUrhG angezeigt werden. Hierbei sind bei einer Verurteilung Freiheitsstrafen von bis zu einem Jahr oder eine Geldstrafe möglich.
Es ist ratsam, möglichst wenig Material von sich oder den eigenen Kindern im Netz öffentlich zur Verfügung zu stellen. Gerade Jugendliche posten selbst viele Fotos und Videos von sich im Netz. Hier ist es wichtig, dass Eltern Jugendliche auf die Gefahren aufmerksam machen, die damit verbunden sind.
In den meisten sozialen Netzwerken ist es möglich, gepostete Inhalte nur für einen ausgewählten Freundeskreis sichtbar zu machen. Das kann dazu beitragen, dass sie nicht so leicht von fremden Personen für Deepfakes verwendet werden können.
Seite teilen
Bitte wählen Sie aus, wie Sie die Seite teilen möchten:
Wir setzen Readspeaker ein. Sind Sie einverstanden?
Im Sinne der Barrierefreiheit wird auf der Website eine Vorlesefunktion angeboten. Bei Nutzung dieser Vorlesefunktion werden die dafür erforderlichen technischen Daten an den externen Dienstleister Readspeaker GmbH übermittelt. Mehr Informationen hierzu finden Sie in unseren Informationen zum Datenschutz .
Im Sinne der Barrierefreiheit wird auf der Website eine Komfortfunktion angeboten. Für die Nutzung dieser Komfortfunktion müssen Sie der Speicherung der dafür verwendeten Cookies zustimmen.
Wir verwenden Cookies, um Ihnen die optimale Nutzung unserer Webseite zu ermöglichen. Es werden die für den Betrieb der Seite notwendigen Cookies gesetzt. Darüber hinaus können Sie Cookies für Statistikzwecke zulassen.
Zur Datenschutzerklärung
Technisch notwendig (nicht abwählbar) mehr Informationen
Einige Cookies sind notwendig, um Ihnen die grundlegenden Funktionen dieser Webseite bereitzustellen und können daher nicht deaktiviert werden. Erläuterungen zu erforderlichen Cookies
Statistik mehr Informationen
Sofern Sie uns Ihre Einwilligung erteilen, verwenden wir Cookies zur Nutzung unseres Webanalyse-Tools Matomo Analytics. Sie bleiben dabei als Nutzer anonym. Durch einen Klick auf den Button "Auswahl bestätigen" oder „Alles auswählen“ erteilen Sie uns Ihre Einwilligung dahingehend, dass wir zu Analysezwecken Cookies (kleine Textdateien mit einer Gültigkeitsdauer von maximal zwei Jahren) setzen und die sich ergebenden Daten verarbeiten dürfen. Sie können Ihre Einwilligung jederzeit mit Wirkung für die Zukunft in unserer Datenschutzhinweisen widerrufen. Hier finden Sie auch weitere Informationen.