Wir haben vielleicht die Büchse der Pandora geöffnet.
Fast jeder, der in den letzten Tagen online war, hat wahrscheinlich einen plötzlichen Anstieg der Zahl der Personen gesehen, die Selbstporträts im Anime-Stil hochgeladen haben.
Ihr Erfinder, ein Fotobearbeitungsprogramm namens Lensa AI, hat sie “Magic Avatars” getauft, und sie haben die sozialen Medien im Sturm erobert. Ihre Viralität hat sich parallel zu der von ChatGPT entwickelt, dem Chatbot der nächsten Generation des Programms für künstliche Intelligenz von OpenAI.
Es war ein großes Jahr für KI-Programme. Ein weiteres Programm mit dem Namen Midjourney erobert das Internet im Sturm, so dass Digitaldesigner auf der ganzen Welt befürchten, dass sie bald arbeitslos sein werden.
Text-zu-Bild-Generatoren, deren prominenteste Beispiele DALL-E von OpenAI und Stable Diffusion von Midjourney sind, haben die Kreativbranche durcheinander gebracht.
Beispiel: die “magischen Avatare”, die auf den ersten Blick nicht gefährlich erscheinen. Schließlich ist nichts dagegen einzuwenden, sich von der Software in einen bunten Avatar verwandeln zu lassen. Im Gegensatz zu Text-zu-Bild-Konvertern sind Sie auf die Grenzen der Bilder beschränkt, die Sie gerade besitzen.
Sobald die “Avatare” viral wurden, meldeten Künstler ihre Bedenken an und wiesen darauf hin, dass Lensa keine Schutzmaßnahmen für die Künstler vorsieht, deren Werke möglicherweise zum Training des Computers verwendet wurden. Negativ zu vermerken ist, dass es den Nutzern trotz der Lensa-Richtlinie “Keine Nacktheit” erstaunlich leicht fiel, Nacktfotos zu machen, sowohl von sich selbst als auch von allen anderen, von denen sie Fotos besaßen.
“Die Leichtigkeit, mit der man Bilder von jedem erstellen kann, den man sich vorstellen kann (oder zumindest von jedem, von dem man eine Handvoll Fotos hat), ist erschreckend”, schreibt Haje Jan Kamps in Techcrunch.
Kamps bewertete die Fähigkeiten der App zur Erstellung von Pornografie, indem er ihr stark veränderte Fotos von prominenten Gesichtern gab, die auf nackte Personen gelegt wurden. Zu seinem Pech konnten die manipulierten Fotos alle angeblichen Sicherheitsfunktionen der App problemlos umgehen.
“Wenn man dann noch 18+-Inhalte hinzufügt, gerät man sehr schnell in ein ziemlich düsteres Terrain: Ihre Freunde oder irgendeine zufällige Person, die Sie in einer Bar kennengelernt und mit der Sie den Facebook-Freundschaftsstatus ausgetauscht haben, haben möglicherweise nicht zugestimmt, dass jemand Soft-Core-Pornos von ihnen erstellt”, sagte er.
Schreckliche Sache, aber es kommt noch viel schlimmer als das. Trotz der Behauptungen von Lensa, die Nutzer daran zu hindern, Kinderpornografie zu erstellen, fand die Journalistin Olivia Snow diese schreckliche Möglichkeit, nachdem sie Fotos von sich selbst als Kind in die “Magic Avatars”-Funktion der App hochgeladen hatte. “Ich schaffte es, die mindestens 10 Fotos zusammenzustellen, die erforderlich waren, um die App zu starten, und wartete darauf, zu sehen, wie sie mich von einer unbeholfenen Sechsjährigen in eine Märchenprinzessin verwandelte”, schrieb sie in Wired. “Das Ergebnis war erschreckend.”
“Das Ergebnis waren vollständig nackte Fotos mit einem jugendlichen und manchmal kindlichen Gesicht, aber einem eindeutig erwachsenen Körper”, fuhr sie fort. “Dieses Set erzeugte eine Art von Schüchternheit: ein nackter Rücken, zerzaustes Haar, ein Avatar mit meinem kindlichen Gesicht, der ein Blatt zwischen den nackten Brüsten eines Erwachsenen hält.”
Die von Kamps und Snow erzählten Geschichten verdeutlichen eine ärgerliche Tatsache der heutigen KI-Technologie: Sie verhält sich oft auf eine Art und Weise, die ihre Entwickler nicht vorhergesehen haben, und kann sogar die Sicherheitsvorkehrungen umgehen, die zu ihrer Verhinderung getroffen wurden. Das deutet darauf hin, dass die KI-Branche dem Tempo, mit dem die Gesellschaft und sogar ihre eigene Technologie Schritt halten können, voraus ist. Das ist wirklich besorgniserregend, vor allem in Anbetracht dieser Erkenntnisse.
Denken Sie daran, dass nicht einvernehmliche Pornos nur eine von vielen potenziellen Gefahren sind. Eine weitere große Sorge ist die Leichtigkeit, mit der politische Desinformation produziert werden kann. Und was ist mit Werkzeugen zur automatischen Texterstellung? Lehrerinnen und Lehrer sind angesichts dieser Möglichkeit zu Tode erschrocken.
KI kann unser Leben zwar erleichtern, wird aber zweifellos auch viele Probleme aufwerfen. Wo soll das enden, wenn es bald möglich sein wird, eine ganze Rede eines Politikers zu fälschen?
Es ist zwar cool, dass wir wahrscheinlich in der Lage sein werden, tote Schauspieler für die Leinwand wieder zum Leben zu erwecken, aber werden Sie buchstäblich allem, was Sie digital sehen, noch trauen können, ohne dass Sie es direkt vor sich haben? Meiner Meinung nach nicht.
Selbst ein scheinbar harmloses Tool wie “Magic Avatars” erinnert uns daran, dass KI immer noch ein Experiment ist, auch wenn sie unsere Realität auf tiefgreifende Weise verändert, und dass Kollateralschäden keine vorhersehbare Gefahr darstellen. Dies ist eine unbestreitbare Tatsache.
Anschnallen, Leute.