Deepfakes – Gefahren und Handlungsmöglichkeiten
Wesley Fryer, CC BY2.0, via Openverse
Betrugsmaschen über Textnachrichten sind mittlerweile weit verbreitet. Die Methoden nehmen jedoch zunehmend raffinierte Formen an, etwa wenn angeblich der eigene Chef persönlich per Telefonanruf um eine Geldüberweisung bittet und sowohl Stimme als auch Akzent absolut authentisch wirken. Solche Anrufe lassen sich heute mit sogenannten „Deepfakes“ täuschend echt fälschen. Dabei kommt Künstliche Intelligenz zum Einsatz, um Stimme, Mimik oder Gestik realer Personen zu imitieren und in realistische wirkende Videos, Audios oder Bilder zu integrieren. So versuchten Betrüger etwa, mithilfe einer KI-generierten Stimme des Ferrari-CEOs einen Manager per Telefon zu einer Geldüberweisung zu veranlassen.
So entstehen Deepfakes
Deepfakes entstehen, indem KI-gestützte Systeme Bild-, Video- und Tonmaterial auswerten, um Verhaltensmuster einer Person zu rekonstruieren. Als Ausgangsmaterial dienen in der Regel öffentlich zugängliche Inhalte wie Fotos und Videos aus sozialen Netzwerken oder Audiodateien aus Podcasts. In diesen werden charakterisierende Verhaltensmuster analysiert und imitiert. Anschließend werden die genutzt, um täuschend echte Inhalte zu erzeugen – etwa Videos, in denen Personen scheinbar Aussagen tätigen oder Handlungen ausführen, die in Wirklichkeit nie stattgefunden haben. Die Ergebnisse sind aufgrund der technischen Präzision oft so realitätsnah, dass sie kaum noch von echten Aufnahmen zu unterscheiden sind.
Deepfakes bergen große Gefahren: Einzelpersonen können durch manipulierte Interviews, gefälschte Social-Media-Beiträge oder gar unechtem pornografischen Material massiv in ihren Persönlichkeitsrechten verletzt werden. Durch realistisch wirkende Falschinformationen erhöht sich zudem die Gefahr von Desinformation in der Gesellschaft erheblich.
Regulierung von Deep Fakes – das sagt der EU-Gesetzgeber
Deep Fakes im Digital Services Act (DSA)
Um potenzielle Gefahren einzudämmen, schreibt der EU-Gesetzgeber im Digital Services Act (DSA) bereits Kennzeichnungspflichten vor, die auch in Deutschland gelten. Demnach müssen KI-generierte oder -veränderte Inhalte, die täuschend echt wirken und dadurch besondere Risiken für die Grundrechte Dritter oder für demokratische Prozesse und die öffentliche Debatte darstellen können, klar gekennzeichnet werden.
Diese Kennzeichnungspflicht gilt aktuell aber nur für „sehr große Online-Plattformen“ – darunter Dienste wie Instagram, Facebook oder X. Eine generelle Kennzeichnungspflicht, insbesondere für Privatpersonen, besteht mithin bislang nicht. Stattdessen liegt die Verantwortung bei den Plattformen, entsprechende Inhalte zu erkennen und zu kennzeichnen.
Was nicht muss, das kann:
Online-Plattformen können in ihren Nutzungsbedingungen jedoch zusätzliche Transparenzpflichten festlegen. So verlangt Meta beispielsweise, dass realistisch wirkende Deepfakes in Form von Videos oder Audiodateien vor dem Upload mit einem KI-Hinweis versehen werden – für Bilder gilt diese Pflicht bislang nicht. Meta behält sich zudem vor, Inhalte bei Bedarf selbst zu kennzeichnen, sofern dies aus ihrer Sicht erforderlich ist.
Deepfakes in der KI-Verordnung
Die neue KI-Verordnung, die voraussichtlich ab August 2026 vollständig in Kraft tritt, weitet die Kennzeichnungspflichten für Deepfakes deutlich aus. Künftig sollen auch Privatpersonen dazu verpflichtet werden, künstlich erzeugte Inhalte eindeutig als solche zu kennzeichnen. Eine wesentliche Unklarheit besteht jedoch: Die Kennzeichnungspflicht entfällt laut Verordnung, wenn die KI ausschließlich zu privaten und nicht beruflichen Zwecken genutzt wird. Damit könnten viele der heute im Internet kursierenden Deepfakes auch künftig nicht kennzeichnungspflichtig sein.
Daher wird gefordert, dass zumindest dann von einer beruflichen Zwecksetzung und Kennzeichnungspflicht auszugehen ist, wenn mit der Veröffentlichung kommerzielle Absichten verfolgt werden – etwa zur Generierung von Reichweite oder Werbeeinnahmen. Andererseits entfällt die Kennzeichnungspflicht, wenn Beiträge ausschließlich auf privat genutzten, nicht-öffentlichen Accounts geteilt werden. Diese Differenzierung birgt jedoch neue Herausforderungen für die Durchsetzung und Kontrolle.
Rechtliche Einordnung von Deepfakes in Deutschland
Die Erstellung eines Deepfakes ist in Deutschland nicht ausdrücklich verboten. Die unerlaubte Nutzung von Bildern, Videos oder der Stimme einer Person ist jedoch in der Regel aus Gründen des Urheber- und der Persönlichkeitsrechte unzulässig und kann rechtliche Konsequenzen nach sich ziehen. So können Geld- oder Freiheitsstrafen sowie schadensersatzrechtliche Ansprüche drohen.
So können Foto-, Video- und Audiomaterial urheberrechtlich geschützt sein. Die Nutzung und Bearbeitung des Materials ist dann nur mit Zustimmung des Urhebers gestattet; andernfalls ist die Nutzung unrechtmäßig.
Darüber hinaus schützt das Kunsturhebergesetz das Recht am eigenen Bild: Bildnisse dürfen demnach nur mit Einwilligung der abgebildeten Person veröffentlicht oder verbreitet werden.
Je nach Einsatz eines Deepfakes können auch verschiedene Straftatbestände erfüllt sein. Etwa Verleumdung, wenn eine Person durch herabwürdigende Inhalte in ihrem Ansehen geschädigt wird. Auch das Verbreiten KI-generierter, pornografischer Inhalte ist strafbar. Und wenn – wie im bezeichneten Porsche-Fall – durch manipulierte KI-Anrufe Geld erlangt werden soll, kann dies den Tatbestand des Betruges erfüllen.
Deepfakes erkennen
Das Erkennen von Deepfakes bleibt weiterhin von der Aufmerksamkeit und Medienkompetenz der Nutzerinnen und Nutzer abhängig. Typische Hinweise auf Deepfakes sind visuelle Unstimmigkeiten an Ohren oder Hals. Auch starre oder ungleichmäßige Augenbewegungen sowie asynchrone Lippenbewegungen können Hinweise liefern. Aber auch eine „comicähnliche“, makellose Darstellung von Personen kann ein Hinweis darauf sein, dass der Inhalt von einer KI erzeugt wurde.

Generated by Midjourney, CC0 1.0 AT, via Wikimedia Commons; Beispiel eines „comic-ähnlichen“ KI-generierten Fotos eines Kindes.
Zudem sollten Videos und andere Inhalte immer kritisch kontextualisiert werden: Stammen sie aus vertrauenswürdigen Quellen? Bestätigen seriöse Quellen die Informationen? Passen Kontext, Sprache und Stil zueinander? Wurde das Material plötzlich und ohne erklärbaren Zusammenhang veröffentlicht?
All diese Faktoren können helfen, Deepfakes zu enttarnen – oder zumindest zu berechtigter Skepsis führen. Die sich weiterentwickelnden KI-Technologien führen jedoch dazu, dass Deepfakes zunehmend realitätsnäher und damit schwerer zu identifizieren sind.
Handlungsmöglichkeiten bei Deepfakes der eigenen Person
Wenn ein Deepfake über die eigene Person auftaucht, ist rasches Handeln wichtig. Zunächst sollten alle Inhalte zum Beispiel mittels Screenshots gesichert werden.
Anschließend ist der Webseitenbetreiber über rechtverletzende Inhalte zu informieren. Nach dem Digital Services Act gilt das „Notice and Take Down“-Verfahren: Plattformen sind verpflichtet, gemeldete Inhalte nach begründeter Kenntnisnahme einer Rechtsverletzung zu prüfen und unverzüglich zu entfernen. Zudem gilt für Urheberrechtsverletzungen das „Stay Down“-Prinzip: Entfernte Inhalte dürfen auch in der Zukunft nicht wieder verfügbar sein, sodass den Diensteanbieter eine künftige Überprüfungspflicht trifft.
Um zivilrechtliche Ansprüche – etwa auf Schadensersatz – geltend zu machen, muss der Ersteller des Deepfakes ermittelt werden. Da dies in digitalen Welten meist nicht möglich ist, kann beim Plattformbetreiber eine Datenauskunft verlangt werden. Soweit rechtlich zulässig, müssen entsprechende Nutzerinformationen herausgegeben werden.
Zudem sollte frühzeitig Strafanzeige gestellt werden, da Ermittlungsbehörden über weitergehende Mittel verfügen, etwa zur Rückverfolgung über IP-Adressen.
Fazit und Ausblick
Um den Gefahren von Deep Fakes wirksam zu begegnen, werden zunehmend regulatorische Maßnahmen diskutiert. Während Länder wie Dänemark bereits gesetzgeberisch reagieren und ein Gesetz planen, das den Einsatz von Stimme, Gesicht oder Körper nur mit ausdrücklicher Zustimmung erlaubt, fehlt in Deutschland bislang ein klarer gesetzlicher Rahmen. Ein Gesetzesentwurf wurde in der letzten Legislaturperiode über Bord geworfen. Zwar ist das Thema im Koalitionsvertrag der neuen Bundesregierung enthalten, konkrete Regelungen lassen jedoch auf sich warten.
Bis dahin ist die Aufmerksamkeit der Nutzerinnen und Nutzer gefragt, um Deepfakes zu erkennen.
Wer sich selbst in manipulierten Inhalten wiederfindet, sollte schnell handeln, um weitere Schäden zu verhindern – insbesondere durch die sofortige Information der Strafverfolgungsbehörden und der jeweiligen Webseitenbetreiber.
Sie möchten iRights.info unterstützen?
iRights.info informiert und erklärt rund um das Thema „Urheberrecht und Kreativität in der digitalen Welt“. Alle Texte erscheinen kostenlos und offen lizenziert.
Wenn Sie mögen, können Sie uns über die gemeinnützige Spendenplattform Betterplace unterstützen und dafür eine Spendenbescheinigung erhalten. Betterplace akzeptiert PayPal, Bankeinzug, Kreditkarte, paydirekt oder Überweisung.
Besonders freuen wir uns über einen regelmäßigen Beitrag, beispielsweise als monatlicher Dauerauftrag. Für Ihre Unterstützung dankt Ihnen herzlich der gemeinnützige iRights e.V.!
DOI für diesen Text: https://doi.org/10.59350/irights.32632 · automatische DOI-Vergabe für Blogs über The Rogue Scholar






Was sagen Sie dazu?