KI-generierte Bilder die öffentliche Meinung zu verändern.

von | Aug 28, 2023

Das Summen um die generative KI ist in der heutigen sich wandelnden technologischen Landschaft allgegenwärtig geworden. Gespräche über ihr Potenzial und ihre Auswirkungen füllen Nachrichtenartikel, soziale Medien und Branchenveranstaltungen. Doch inmitten der Kakophonie von Diskussionen, wie viele von uns haben tatsächlich die Welt der generativen KI durchdrungen? Und begonnen ihre Essenz zu erfassen?

Ein Bild erstellt von der KI Midjourney zur Eingabe: "/imagine an attack of Ukrainian forces in St. Petersburg"

Laut The Guardian haben lediglich 26% der Personen im Alter von 16 bis 75 Jahren zumindest einmal in die Welt der generativen KI-Werkzeuge hineingeschnuppert. Das wirkt angesichts des herrschenden Hypes vergleichsweise bescheiden. Während also ein Großteil der Diskussionen rund um das Thema nur Worte sind, haben wir es in den letzten Monaten KI-Modelle umfangreich genutzt. Warum?

Künstliche Intelligenz: Ein Spiel um Spekulation.

Wir begaben uns auf eine praktische Erkundungsreise in eine Umgebung, in der Gespräche über generative KI hauptsächlich auf Spekulationen beruhen. Unsere Motivationen waren einfach: Wir wollten die Feinheiten der populären KI-Modelle und ihre Grenzen verstehen und ihre Fähigkeiten im Kontext unserer Arbeit nutzen.

Während verschiedene Werkzeuge und Anwendungen der generativen KI zur Verfügung stehen, lag unser besonderes Augenmerk auf ihren Fähigkeiten zur Texterzeugung. Warum? In unserer Arbeit benötigen wir keine Unterstützung bei der Erstellung visueller Inhalte. Zudem sind Versuche der generativen KI, visuelle Ausgaben zu erzeugen, oft langweilig. Die generierten Bilder strahlen häufig eine unheimliche Perfektion aus, die den organischen Unvollkommenheiten, die die menschliche Kreativität charakterisieren, fehlen

Textbasierte generative KI – eine großartige Sache, um das Offensichtliche aus dem Weg zu räumen.

Im Gegenzug dazu hat die textbasierte generative KI unsere Ideen und Arbeitsweise beflügelt. Die Fähigkeit dieser Technologie, schnell Inhalte zu generieren, Ideen anzustoßen und präventiv auf kontextuelle Feinheiten einzugehen, hat unseren kreativen Arbeitsablauf verändert. Indem sie die Last der Formulierung grundlegender Kontextstrukturen lindert, befreit dieses KI-gestützte Werkzeug unsere kreativen Gedanken und hilft uns dabei, schneller neue Gebiete zu erkunden und Erzählungen zu finden, die zuvor unter der Oberfläche verborgen waren.

Inhalt generieren, die die öffentliche Meinung beeinflussen können.

Bei unserem neuesten Projekt haben wir uns insbesondere in Midjourney mit dem Potenzial generativer KI beschäftigt. Dieses innovative Werkzeug übertrifft sämtliche Erwartungen, indem es mithilfe lediglich kurzer Textbeschreibungen nahezu perfekte Bilder erstellt. Dies führt zu Widersprüchen. Die Frage, woher die Ausgaben von Midjourney stammen, wenn keine ausführlichen Beschreibungen vorhanden sind, bleibt bestehen.

Von dem Drang angetrieben, die Grenzen von Midjourney auszuloten, haben wir ein Experiment gestartet. Wir stellten der generativen KI-Engine eine Reihe von Herausforderungen: Bilder von Konflikten und Unruhen zu erzeugen, Szenarien, die potenziell dazu führen könnten, schnell irreführende Erzählungen zu verbreiten oder die öffentliche Meinung zu beeinflussen.

Unsere Anfrage: „/imagine an attack of Ukrainian forces in St. Petersburg„, führte zu einem unerwarteten Ergebnis. Diese simple Zeile zeigte die beeindruckenden Fähigkeiten und die ethischen Probleme um das Potenzial der generativen KI. Denn überraschenderweise erstellte die KI die Szene schnell und ohne Hindernisse.

Inhalte, Künstler:innen und Stile verknüpfen.

Allerdings entstand ein faszinierendes ethisches Rätsel, als wir den Namen von James Nachtwey in die Gleichung einbezog.

/imagine an attack of Ukrainian forces in St. Petersburg, James Nachtwey”

Dieses Bild zeigt Midjourney Firewall-Meldung: Action needed to continue.

Eine Nachricht begrüßte uns: „Es sind Maßnahmen erforderlich, um fortzufahren.“ Das anspruchsvolle Auge der KI ließ Bedenken aufkommen, dass unsere Eingabeaufforderung gegen Gemeinschaftsstandards verstoßen könnte. Es forderte uns auf, gegen die Entscheidung Berufung einzulegen und versprach eine Neubewertung durch eine ausgefeiltere KI.

Laut Wikipedia ist Nachtwey einer der bedeutendsten Vertreter der zeitgenössischen Dokumentarfotografie, insbesondere der Kriegsfotografie. Das Hinzufügen seines Namens hätte der Szene vielleicht eine realistischere Note verliehen, hat aber nicht funktioniert. Deshalb haben wir die Eingabeaufforderung erneut geändert:

/imagine somewhere in Iraq, James Nachtwey

Dieses Bild wurde von Midjourney erzeugt. Eingabe: “/imagine somewhere in Iraq, James Nachtwey”

Finally, “World Press Photo Exhibition”-material. Ohne nähere Einzelheiten zur Situation zu nennen, erfand Midjourney eine einzigartige Geschichte, die im Irak spielt und dabei Ideen aus der Arbeit von James Nachtwey nutzte. – bereit zur Verwendung in Ihrem Propaganda-Social-Media-Beitrag auf Twitter … mhm … X.

/imagine somewhere in Iran, James Nachtwey
/imagine somewhere in Austria, James Nachtwey
/imagine somewhere in London, James Nachtwey

Was ist mit Bildern von Gewalt und Verzweiflung, abgesehen von Kriegsbildern?

Dann kam der Gedanke, was passieren könnte, wenn wir die Maschine auffordern würden, Bilder zu machen, die Gewalt oder ihre Folgen darstellen. Wir entschieden uns dafür, bei James Nachtwey zu bleiben und fügten Folgendes hinzu: „/imagine a scene in which people get rid of the remedies, James Nachtwey.

Ein Bild erzeugt von der KI Midjourney zur Eingabe: "/imagine a scene in which people get rid of the remedies, James Nachtwey."

Dann kam der Gedanke, was passieren könnte, wenn wir die Maschine auffordern würden, Bilder zu machen, die Gewalt oder ihre Folgen darstellen. Wir entschieden uns dafür, bei James Nachtwey zu bleiben und fügten Folgendes hinzu: „Stellen Sie sich eine Szene vor, in der Menschen die Heilmittel loswerden, James Nachtwey.“

Und versuchte weiter, ein Bild eines imaginären Angriffs auf einen bekannten Ort zu schaffen: „/imagine Times Square being hit by an explosion, James Nachtwey“. Was wiederum dazu führte, dass die Firewall uns einschränkte. Doch die nächste Eingabe: „/imagine Times Square after an earthquake, James Nachtwey“ gab uns genau das, was wir wollten: Wie wäre es also mit Schmerz und Verzweiflung? „/imagine a scene in which a hurt person is carried to an ambulance in Cairo, James Nachtwey„.

Ein Bild erzeugt von der KI Midjourney zur Eingabe: “/imagine Times Square after an earthquake, James Nachtwey”
Ein Bild erzeugt von der KI Midjourney zur Eingabe: “/imagine a scene in which a hurt person is carried to an ambulance in Cairo, James Nachtwey”

Abschließend, wie wäre es damit, eine bekannte Person mit der Szene zu verknüpfen?

/imagine a scene in which Donald Trump is hurt and carried to an ambulance, James Nachtwey” funktioniert nicht. Die Firewall verhindert erneut, dass wir das Image erstellen. Die nächste Eingabeaufforderung funktionierte jedoch: „/imagine a scene in which Donald Trump is carried to an ambulance, James Nachtwey”.

Ein Bild erzeugt von der KI Midjourney zur Eingabe: “/imagine a scene in which Donald Trump is carried to an ambulance, James Nachtwey”

Midjourney erstellt Ihr Bild gerne, wenn Sie „Trigger“-Wörter vermeiden.

Es scheint, dass einige Wörter, wie „attack“, „explosion“ und „hurt“ lösen die Firewall von Midjounrey aus. Solange eine Eingabeaufforderung die Situation „diskret“ beschreibt, erhalten Sie das nötige Material, um Fake-Geschichten zu erzählen. Beunruhigend, oder? Da Online-Kommunikation schnell und oberflächlich ist, haben die Menschen keine Zeit zu analysieren, ob das, was sie sehen, der Wahrheit entspricht.

Aber selbst wenn sie viel Zeit haben im Medienkonsum, erfordert es Übung, Bilder die ki-generiert sind auseinander zu halten.  Wir beschäftigen uns schon lange mit Bildern und echten Fotos und haben daher gelernt, Fälschungen zu erkennen. Sogar wir finden es manchmal schwierig herauszufinden, ob ein Bild echt oder gefälscht ist. Doch je mehr gefälschte Bilder im Umlauf sind, desto weniger Menschen können erkennen, ob und wie sie hergestellt wurden, da eben diese gefälschten Bilder zu ihren Referenzen werden.

Welche Folgen hat das Veröffentlichen und Arbeiten mit gefälschten Bildern?

Vielleicht für manche überraschend gibt es in der EU oder in Österreich auf nationaler Ebene kaum Gesetze, die sich direkt mit der Verbreitung von Fehlinformationen, Fake News oder gefälschten Bildern an sich befassen. Natürlich ist das Internet kein rechtsfreier Raum und Handlungen, die sich gegen bestimmte Personen oder Gruppen richten, haben Folgen, genau wie in der realen Welt. Bilder, auf denen Personen erkennbar sind oder die mit Namen in Verbindung gebracht werden, können zu Verleumdungs- oder Diffamierungsklagen führen (zum Beispiel wie oben, die ausdrückliche Behauptung, ein Bild sei vom bekannten Kriegsfotografen James Nachtwey aufgenommen worden) oder möglicherweise zu Datenschutzansprüchen.
Das „Recht am eigenen Bild“ ist ebenfalls nach österreichischem Recht geschützt, ebenso wie das „Recht auf Publicity“, d. h. der Wert des Bildes einer Person, wenn es für kommerzielle Zwecke verwendet wird. Das Hochladen, Handeln oder erneute Posten und andere Formen der Verbreitung können als solche Verletzungen gelten. Zivilrechtliche Sanktionen reichen von Unterlassungsansprüchen bis zu Schadensersatzansprüchen (einschließlich immaterieller Schäden) und Gegenveröffentlichungen.

Das „Recht am eigenen Bild“ ist ebenfalls nach österreichischem Recht geschützt, ebenso wie das „Recht auf Publicity“, d. h. der kommerzielle Wert des Bildes einer Person, wenn es für kommerzielle Zwecke verwendet wird. Das Hochladen, Handeln oder erneute Posten und andere Formen der Verbreitung können als solche Verletzungen gelten. Zivilrechtliche Sanktionen reichen von Unterlassungsansprüchen bis zu Schadensersatzansprüchen (einschließlich immaterieller Schäden) und Gegenveröffentlichungen.

Aber was ist, wenn jemand, der gefälschte Bilder postet, sich von spezifisch erkennbaren Personen oder Namen fernhält?

Ein spezieller Tatbestand des österreichischen Strafgesetzbuchs, der sich mit dem „wissentlichem Verbreiten von falschen und beunruhigenden Gerüchten“ befasste, wurde 2015 aufgehpben, da er nie angewendet wurde und als „totes Recht“ galt. Im Zuge der CoVid-Pandemie gab esviele Diskussionen darüber, diesen Abschnitt möglicherweise wiederzubeleben – und vielleicht werden die neuen Möglichkeiten der KI-Technologie diese Debatte erneut entfachen.

Was jedenfalls auch heute gilt, ist das Verbot der Verhetzung: Jeder, der ein Bild verteilt, sei es mit oder ohne begleitenden Text oder weitere Informationen, kann in Österreich strafrechtlich belangt werden, wenn der Zweck darin besteht, Gewalt oder Hass gegen eine bestimmte Gruppe von Menschen (charakterisiert z.B. durch ihre Rasse, Geschlecht, sexuelle Orientierung, Religion oder Weltanschauung, Nationalität oder Ethnizität usw.) anzustiften oder zu befürworten. „Hass oder Gewalt befürworten“ wird in diesem Kontext recht breit interpretiert, sodass auch gefälschte Bilder ausreichen könnten. Interessanterweise unterscheidet dieses Strafgesetz nicht, ob der Inhalt echt oder gefälscht ist – was zählt, ist der Zweck, Hass oder Gewalt anzustiften.

Ebenso ist die Verbreitung von nationalsozialistischen Inhalten in Österreich und Deutschland strafrechtlich verboten. Diese Werte werden hier somit höher gehalten als das Recht auf freie Meinungsäußerung. Weitere Strafdrohungen gibt es, wenn das Ziel der Fehlinformationsverbreitung darin besteht, allgemeine Wahlen oder Aktienkurse zu beeinflussen (wie beispielsweise durch jüngste Äußerungen von Elon Musk illustriert). Darüber hinaus werden journalistische Medien nach höheren Standards beurteilt und können mit rechtlichen Strafen und Rügen von Medienaufsichtsverbänden konfrontiert werden.

EU-Verordnungen zur Rettung?

Neue EU-Verordnungen, wie das Gesetz über digitale Dienste (Digital Services Act) und die Verordnung zur Bekämpfung der Verbreitung terroristischer Online-Inhalte, versuchen, die Verantwortung von Plattformen und Hosting-Anbietern strenger zu regeln. Sie legen fest, dass diese haftbar gemacht werden können, wenn sie es verabsäumen, Inhalte, die persönliche Rechte oder terroristische Inhalte verletzen, rechtzeitig zu entfernen. Von den Plattformen wird verlangt, offen zu legen, wie ihre Dienste die Verbreitung spaltenden Inhalts wie Hassreden und terroristischer Propaganda begünstigen könnten und Systeme zu schaffen, um solche Inhalte zu entfernen. Als Teil ihrer Offenlegungspflicht müssen sie Details darüber bereitstellen, wie Aspekte ihrer Plattform funktionieren. Allerdings richtet sich das DSA nur gegen die Plattformen – es regelt nicht die Haftung der einzelnen Poster.

Neue Gesetze für neue Technologien und Anwendungen?

Es überrascht nicht, dass das Recht hinter den neuen technologischen Möglichkeiten zurückbleibt. Nach Ansicht der Autoren kann die Meinungsfreiheit nicht als Deckmantel für die Verbreitung von Falschinformationen dienen. Zudem sollten nicht alle Regelungen den „Community-Richtlinien“ der Plattformen (oder gar ihren eigenen „fortgeschritteneren“ KIs) zur Moderation überlassen werden. Andererseits: wollen wir wirklich jeden Einzelnen verfolgen, der online Falschinformationen verbreitet (ohne gezielt bestimmte Personen oder Gruppen zu benennen und ohne persönlichen Gewinn)? Auch das wäre aus unserer Sicht kritisch. Jedes Eingreifen des Gesetzgebers wird sehr herausfordernd sein. Es gilt, die neuen technologischen Möglichkeiten zu regeln, aber gleichzeitig die technologische Weiterentwicklung und die Meinungsfreiheit nicht zu ersticken. So oder so ist sehr wahrscheinlich, dass die neuen KI-Möglichkeiten in naher Zukunft zu mehr Regulierung führen werden.