Die Gefahr von Deepfakes: Politische Auswirkungen und rechtliche Herausforderungen

Dass sogenannte Deepfakes ein Risiko für die Demokratie darstellen und Personen diffamieren können, ist unbestritten. Der bayerische Justizminister Georg Eisenreich hat nun im Bundesrat einen Gesetzesvorschlag eingebracht, der die Verbreitung von Deepfakes generell unter Strafe stellen würde. Ein generelles Verbot der Verbreitung wird jedoch auch kritisch gesehen. Denn dadurch wären auch Inhalte betroffen, die als unproblematisch eingeschätzt werden. Um diesen Ansatz ist nun eine Debatte entbrannt.

Die Debatte um Deepfakes – Über was reden wir?

Nun aber einmal von vorne: Deepfakes, das sind KI-generierte Video, Bild und Audio-Inhalte, die zwar sehr real und authentisch wirken, deren Inhalte jedoch manipuliert sind. Schon seit den 2010er Jahren zirkulieren künstlich generierte Video-Inhalte im Internet. Was hat sich verändert? Es bedarf kein spezifisches Fachwissen mehr, um solche Inhalte zu erstellen. Die Bedienbarkeit von solchen Tools ist super leicht geworden, wie Tobias euch in diesem Video am Beispiel von heygen zeigt. Außerdem wird es selbst für Fachleute immer schwieriger, Fakes von echten Videos zu unterscheiden.

Die Bandbreite an Deepfakes, die im Internet kursiert, ist groß. Einige lassen sich den Kategorien platter Witz, Satire oder politischer Aktionismus zuordnen. Sie zeigen Olaf Scholz als tätowierten Bodybuilder oder Alice Weidel bei Lanz, wo sie sich einen Köftespieß nach einem Wahlerfolg wünscht. Andere Videos sind da schon deutlich problematischer. Sie sollen nicht unterhalten, sondern haben das Ziel, Unsicherheit zu stiften, Menschen persönlich zu diffamieren oder Personen z.B. mit Hilfe von authentisch wirkenden Telefonaten zu betrügen.

Deepfakes sind politisch!

Desinformation oder Falschnachrichten sind so geartet, dass sie Sachverhalte falsch darstellen bzw. nicht kontextualisieren. Dahinter steckt das Kalkül, Empörung zu erzeugen und eine politische Stimmung gegen politische Akteure zu generieren. Die Analyse mehrerer politischer Kampagnen hat gezeigt, dass das sogenannte „negative campaigning“ ziemlich wirkmächtig ist. Eine Begründung: Negative Botschaften, wie Hass, Diffamierung oder Empörung emotionalisieren stärker und verbreiten sich schneller in den sozialen Medien. Die Falschinformationen verfangen sich und beeinflussen politische Meinungen und Wahlentscheidungen.

Ein Risiko, das von Deepfakes ausgeht, ist, dass sie authentisch wirken. Zu Beginn des Angriffskriegs auf die Ukraine kursierte ein Video des ukrainischen Präsidenten, indem er seine Bürger zur Kapitulation aufrief. Schnell hat sich herausgestellt, es handelte sich um ein bewusst gestreutes Deepfake. Das Video hat in diesem Fall nicht dazu beigetragen, dass Ukraine*innen reihenweise kapituliert haben.

Wie wirkmächtig Deepfakes sein können, zeigte sehr eindrücklich der Journalist Eliot Higgins, als er Bilder von einer Verhaftung Donald Trumps veröffentlichte. Sie waren eindeutig als KI-generierte Bilder gekennzeichnet. Jedoch kann man nur erahnen, welche Dynamiken die Kraft der Bilder entfalten könnten.

Ein Beispiel im deutschsprachigen Raum ist eine satirische Aktion des Zentrums für Politische Schönheit. Diese veröffentlichten ein Deepfake von Olaf Scholz, in dem er ankündigte, einen Antrag zum Verbot der AFD einreichen zu wollen. Dieses Video war relativ leicht als Deepfake zu erkennen, da die Lippenbewegung von Olaf Scholz künstlich wirken. Außerdem wurde es – natürlich – nicht über die offiziellen Kanäle der Bundesregierung veröffentlicht. Hier wurden Deepfakes mit der Intention erstellt, Aufmerksamkeit für ein politisches Thema zu erzeugen und dadurch eine Debatte erzeugt. Die Bundesregierung ging dagegen rechtlich vor und erwirkte, dass das Video gelöscht werde, da in dem Video das urheberrechtlich geschützte Logo der Bundesregierung zu sehen war. Wenn das Logo nicht in dem Video zu sehen gewesen wäre, wäre es wohl schwierig gewesen, eine Löschung aus dem Netz zu veranlassen. Das ist gut so, denn solche Aktionen sind wichtige Diskussionsanlässe und fallen aus meiner Sicht unter die Kategorie: „das muss eine Demokratie und ihre Amtsträger aushalten können“. Andernfalls ist der Vorwurf, dass es sich um Zensur handeln könnte, nicht von der Hand zu weisen.

Diese Beispiele zeigen Deepfakes sind politisch und können gefährlich werden. Bisher sind jedoch schwerwiegende Deepfakes, die breit gestreut wurden, von aufmerksamen Nutzenden oder Journalist*innen relativ schnell erkannt worden. Das macht Hoffnung und zeugt von einer funktionierenden Medienlandschaft und wachen Zivilgesellschaft.

Pornographische Inhalte machen die große Masse an Deepfakes aus

Laut einer Studie aus dem Jahr 2019 sind 96% der Fälle von Deepfakes nicht einvernehmlich erstellte pornographische Inhalte. Früher richtete sich diese Form von sexueller digitaler Gewalt hauptsächlich gegen Prominente, heute sind es immer mehr Privatpersonen, die betroffen sind. Und es sind vor allem Frauen. In diesen Fällen ist es eindeutig, dass es sich um strafrechtliche relevante Inhalte handelt. Leider sind die rechtlichen Verfahren ziemlich – ich sag mal – träge. Oft ist es nicht so leicht, die Urheber solcher Inhalte eindeutig zu identifizieren. Oder die Inhalte werden nicht von Deutschland aus gestreut, was den Zugriff des deutschen Rechts verhindert. Die Verfahren dauern lang. Und weiterhin besteht eine rechtliche Unklarheit, wer die Verantwortung trägt, die Verbreitung der Inhalte zu verhindern. Die Plattformen, die identifizieren können, wer, wann und über welche Kanäle Inhalte verbreitet hat, argumentieren mit den Kosten und dem Personalaufwand, der Ihnen nicht zur Verfügung steht, um konsequent gegen diskriminierende und diffamierende Inhalte vorzugehen. Leidtragende sind die Opfer. Betroffene von digitaler Gewalt in Deutschland können sich für Rechtsberatung an HateAid wenden.

Aber ist das nicht schon illegal?

Die bisherigen Gesetze reichen aus, sagen einige Sachverständige. Gleichzeitig wird weltweit über neue Regelungen, die speziell auf bösartige Deepfakes abzielt, diskutiert. Die Sorge vieler ist, dass die Regelungen auch legitime Anwendungen kriminalisieren könnten. So auch mit Blick auf den aktuellen Gesetzesentwurf, der im Bundesrat behandelt wird. Die Aufgabe für die Politik ist nicht trivial, auf der einen Seite Menschen vor Missbrauch und auf der anderen Seite bürgerliche Freiheiten wie die Meinungsfreiheit zu schützen.

Die Verbreitung solcher Inhalte grundsätzlich unter Strafe zu stellen, wird der Ambivalenz des Themas jedoch nicht gerecht. Außerdem birgt es das Risiko Menschen zu kriminalisieren, die selbst auf Deepfakes reinfallen und sie ausversehen teilen. Auch das kann mal vorkommen, wenn ein authentisches Video oder Bild in die Timeline gespült wird.

Ein anderes Mittel wäre die Kennzeichnungspflicht KI-generierter Inhalte. Manche Plattformen arbeiten schon mit solchen Methoden. Beispielsweise Tik Tok empfiehlt seinen Nutzern, KI-generierte Inhalte transparent zu machen. Und auch der seit Anfang August in Kraft getretene AI-Act sieht eine solche Kennzeichnungspflicht KI erstellter Inhalte vor. Hier gilt es abzuwarten, wie diese neu geschaffene Rechtslage sich auswirkt und wie es dem Rechtsstaat gelingt gegen nicht gekennzeichnete KI-generierte Inhalte vorzugehen.

Aus meiner Sicht sollte, anstatt die Verbreitung unter Strafe zu stellen, die Erstellung von Inhalten unter Strafe gestellt werden, die sich bewusst gegen Privatpersonen richtet oder Falschinformationen beinhalten – ohne das gekennzeichnet wird, dass es sich um KI generierte Inhalte handelt.

Bis dahin und überhaupt – Wachsam bleiben!

Es bleibt eine gesellschaftliche Aufgabe mit solchen Missbrauchsszenarien umzugehen. Denn selbst wenn die Verbreitung von Deepfakes illegal wäre, heißt das noch lange nicht, dass sie nicht erstellt bzw. verbreitet würden. Klar ist es wichtig, einen Rechtsrahmen zu schaffen, der es zulässt, konsequent gegen digitale Gewalt und Manipulationen dieser Art vorzugehen und die Inhalte aus dem Verkehr zu ziehen. Auf der anderen Seite bleibt es mindestens genauso wichtig, kritisch mit den Inhalten, die wir im Netz sehen, umzugehen, Quellen zu prüfen und Inhalte zu melden. Das bedeutet, dass die kritische Mediennutzung als Fähigkeit erlernt und mit Bildungsangeboten begleitet werden muss. Die kritische Mediennutzung kann und muss als eine wesentliche Fähigkeit verstanden werden, um sich selbstständig und mündig ein eigenes Bild von der Welt machen zu können und am gesellschaftlichen Miteinander teilhaben zu können. Womöglich tragen Deepfakes dann sogar dazu bei, dass Gesellschaft resilienter und wachsamer wird. Man wird ja wohl noch träumen dürfen.

Der Gesetzesentwurf im Bundesrat wird in dieser Form wohl nicht verabschiedet werden, da die politischen Mehrheiten das nicht hergeben. Eine wichtige Diskussion stößt er allemal an.

Wie seht ihr das? Wie sollte mit Deepfakes verfahren werden?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert