Drücke "Enter", um den Text zu überspringen.

Risiken und Chancen

Im Jahr 2013 ging ein Satz um die Welt und wurde zur Lachnummer:

„Das Internet ist für uns alle Neuland.“

Dies war die Antwort der ehemaligen Bundeskanzlerin Angela Merkel, als sie und Barack Obama auf einer gemeinsamen Pressekonferenz mit Fragen zu dem Überwachunsprogramm Prism konfrontiert wurden. Sie hallt nach bis heute nach.Nie könnte sie wahrer sein als in einer Zeit, in der sich Künstliche Intelligenz immer stärker auf unser Leben auswirkt. Dabei eröffnen sich sowohl Chancen als auch Risiken. Es sollte einen öffentlichen Diskurs geben, in dem beides besprochen wird. Doch die Debatte ist hitzig, emotional aufgeladen und läuft zu häufig am Ziel vorbei. Daher soll sich der folgende Text sachlich mit den Chancen und Risiken der Künstlichen Intelligenz beschäftigen. Zudem wird sich nicht nur mit der KI im Allgemeinen befassen, sondern auch mit der zu unterscheidenden generativen KI (genKI).

Beleuchten wir erst einmal die Chancen, die die KI bietet. Auf der Seite des europäischen Parlaments wird auf mehrere große Themengebiete verwiesen, in denen uns KI durchaus weiterbringen könnte, wie Gesundheitsversorgung, Verkehrsmittel, Produkte und Dienstleistungen sowie den Zugang zu Informationen.

Die Frauenhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. , kurz Frauenhofer, stellt auf ihrer Webseite zwei Apps vor, welche auf KI basieren und als patientennahe Medizinprodukte und -services gelten: „Mika“ und „Diafyt“. „Apps auf Rezept“ werden solche Angebote auch genannt. An dieser Stelle soll nur auf Mika eingegangen werden.

Die App Mika ist für Krebspatienten*innen konzipiert worden, soll diese digital begleiten und Informationen zu ihrer Erkrankung bereitstellen. Zudem spricht sie Empfehlungen zu Ernährung, Bewegung und psychologischer Resilienz aus. Die Basis für diese Empfehlungen ist ein Symptom-Tagebuch, welches von den Patinent*innen geführt wird. Das System lernt stetig dazu und gibt Empfehlungen anhand eingegebener Daten und Rückmeldungen zu absolvierten Aktivitäten. Patienten*innen sollen aktiviert und motiviert werden. Viele berichten, laut Webseite der App, dass sie sich dadurch mental gestärkt fühlen und ihren Ärzt*innen gezieltere Fragen stellen können.

Im Verkehr können KI-basierte Assistenzsysteme durch die Analyse vom Fahrverhalten und den Umgebungsdaten lernen, vor potenziellen Gefahren zu warnen. Bei Elektrofahrzeugen können sie den Energieverbrauch optimieren, indem sie durch maschinelles Lernen und intelligente Algorithmen die Routenplanung und das Lademanagement verbessern. Dadurch werden die Reichweite verlängert und die Ladezeiten minimiert. Außerdem kann mittels der Analyse von Datenströmen aus vernetzten Fahrzeugen und Ladestationen die Infrastruktur effizienter verwaltet werden. Städte und Unternehmen haben so die Möglichkeit, Ladestationen bedarfsgerecht zu platzieren, die Ladekapazitäten vorherzusagen und Wartungsintervalle zu optimieren.

Auch in kreativeren Branchen, wie dem Buchmarkt und Grafikdesign, kann KI zur Optimierung von Prozessen führen. KI kann dabei helfen, Logikfehler eines Plots schon frühzeitig zu erkennen oder bei Blockaden Anreize und Ideen zu liefern. Sie wird häufig angeführt, wenn es um Recherche geht. Programme wie Papyrus Autor verfügen über diverse Analyse-Tools, die nicht nur Rechtschreibung und Grammatik prüfen, sondern auch den Stil auswerten, um Schreibenden rückzumelden, warum bestimmte Formulierungen lieber überdacht werden sollten oder wie lesbar bestimmte Abschnitte sind. Photoshop hat neue Funktionen eingeführt, um zum Beispiel Hintergründe schneller zu entfernen. Prozesse, an denen man früher ewig saß und für die man zigmal neu anfangen musste, weil man sich verklickt hatte, sind so deutlich effektiver gestaltet. Sie sind optimiert worden.

Optimierung. Ein schönes Wort.

Wir möchten alles und jeden optimieren. Vielleicht liegt genau hier die Faszination an Künstlicher Intelligenz. Wir leben inzwischen länger als je zuvor. Essen gesünder. Machen Sport. Wir optimieren uns, unsere Kinder, unsere Partner*innen und unser Zuhause. KI, die uns unsere Einkaufslisten anhand des Inhalts unseres smarten Kühlschranks schreibt. Alexa, die unseren Kindern den Monster-Alarm abspielt und zuvor das Zimmer scannt. Warum dann haltmachen vor der Kunst?

„Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg.“

Wer, neben anderen Expert*innen, diese Stellungnahme unterschrieb, dürfte viele vermutlich überraschen. Es war kein Geringerer als Sam Altman: der Chef des ChatGPT- Erfinders OpenAI. Weitere Unterzeichner sind Demis Hassabis, der Chef von DeepMind, und einer der führenden Forscher in dem Bereich, Geoffrey Hinton. Denn auch sie wissen, dass KI Risiken birgt. Die Stellungnahme der KI-Experten wurde auf der Webseite der Nonprofit-Organisation „Center for AI Safety“ veröffentlicht. Es geht darum, dass KI auch für die Kriegsführung eingesetzt werden kann oder für die Entwicklung neuer Chemiewaffen. Außerdem warnen die Experten vor der vereinfachten Verbreitung von Falschinformationen. Wir erinnern uns: KI wird gerne für Recherche genutzt. Doch hier ist es ähnlich wie früher mit Wikipedia. Zu viele unsinnige und vor allem falsche Informationen verbreiten sich und werden zu selten nachgeprüft. Sie werden als Fakten wahrgenommen und als solche behandelt.

Gleichzeitig wird durch Trainingsdaten angelernte Diskriminierung, wie Rassismus und Ableismus, weitergetragen, neu aufbereitet und wieder unter die Menschen gebracht.

Gerade in der Buchbranche ist dies ein großes Problem, da Lesen über kurz oder lang unser Denken steuert. Je mehr ableistische Geschichten wir lesen, desto tiefer verankert sich dies in unserer Sicht der Welt. Dabei sind wir an einem Punkt angelangt, an dem viele diesen Kreislauf durchbrechen wollen. Hier könnte KI einen enormen Rückschritt bedeuten.

Hinzu kommt, dass IT-Experten die Befürchtung haben, hilfreiche Anwendungen könnten am Ende auch von Hackern genutzt werden. Datenschutz wird häufig kritisch betrachtet, denn KI kann für Gesichtserkennung, Online-Tracking und Profiling von Einzelpersonen benutzt werden. Das Europäische Parlament weist darauf hin, dass die Haftung im Falle von Schäden noch nicht geklärt sei. Wenn beispielsweise ein selbstfahrendes Fahrzeug einen Unfall verursacht, wer trägt dann die Verantwortung? Die Eigentümer*innen, Hersteller*innen oder Programmierer*innen?

Zudem wird gerne das Argument angeführt, dass – vor allem genKI – ein Mittel sei, um Kunst für alle zugänglich zu machen. Doch auch hier wird deutlich, dass wieder nur privilegierte Gruppen profitieren und die Schere noch weiter auseinandergeht. Zum einen wegen des bereits angesprochenen Reproduzierens alter Vorstellungen, zum anderen durch die Voreingenommenheit von Algorithmen. Letztere entsteht durch die unbeabsichtigte Verzerrung in KI-Modellen.

Wie entsteht so eine Voreingenommenheit?

Das liegt an den Trainingsdaten, welche nicht „vollständig repräsentativ für die Vielfalt der realen Welt sind“. Dies kann wiederum zu Diskriminierung und Ungerechtigkeit führen. Als Beispiel wird hier häufig die Vorauswahl von Bewerber*innen oder die Vergabe von Krediten angeführt. Hinzu kommt die immer wiederkehrende Angst, dass das Voranbringen solcher Technologien früher oder später zu einem Verlust von Arbeitsplatzen führt. Dies wirkt sich nachhaltig auf die Arbeitsmoral und die Produktion aus.

Ein anderer Aspekt, der ein enormes Risiko birgt, wird tatsächlich nur selten besprochen: die Abhängigkeit von KI. Je mehr wir mit KI arbeiten, desto mehr nimmt sie uns die Fähigkeit, Lösungen auf eigene Faust zu finden. Wir werden abhängig von dieser Technik. Mit der Zeit entsteht ein Kontrollverlust, der die Entstehung und Verbreitung von Deepfakes, Verschwörungstheorien und Desinformationen begünstigt. Filterblasen, sogenannte Bubbles, entstehen. Wird dem zu lange keine Aufmerksamkeit geschenkt, kann sich dieses Denken schleichend verfestigen, und ein Zugang zu den betroffenen Personen wird erschwert.

Eine andere Symptomatik zeigt sich bei der Leugnung von KI-Nutzung, ein aktuelles Problem vor allem im künstlerischen Bereich und der Buchbranche. Verlage, Autor*innenen, Illustrator*innen oder auch Coverdesigner*innen greifen zunehmend zu genKI. Da die Kritik aber immer lauter wird und viele wissen, dass es da durchaus Probleme gibt, die dringend angegangen werden müssen, wird der Einsatz geleugnet. Man beginnt damit, ein Konstrukt aus Lügen zu flechten, welches mit der Zeit nicht mehr so einfach eingerissen werden kann. Die Lüge muss aufrechterhalten werden, und das zu jedem Preis.

Die Folge ist Misstrauen untereinander. Druck, der einen immer weitertreibt. Dieser kann in Form von Aggressivität erfolgen. Es wird von Hetzkampagnen und Hexenjagden gesprochen, mit Anwälten gedroht. Eine ganze Community wird gegen Einzelpersonen aufgestachelt, nur um von sich abzulenken. Oder aber man ist dem Druck am Ende nicht mehr gewachsen und bricht zusammen. Das Gebilde zerfällt. Die Wahrheit kommt ans Licht und die Glaubwürdigkeit leidet erheblich. Sich dann etwas Neues aufzubauen, ist verdammt schwierig.

Und wenn wir schon bei der Kunst und der Buchbranche sind: genKI ermöglicht hier eine Menge. Zum Beispiel die Erstellung von Hörbüchern mit der Stimme eines beliebten Sprechers. Nur unglücklicherweise hat dieser den Text nicht selbst eingesprochen, sondern eine KI. Und dem hat er nicht zugestimmt und hätte es womöglich auch nicht, z. B. da sich die politische Ausrichtung des Texts nicht mit seinen eigenen Werten und Überzeugungen deckt.

Das Urheberrecht ist auch ein Problem. Cover und Illustrationen, welche mit genKI erstellt werden, haben rechtlich gesehen keine eindeutigen Urheber*innen. Sie können ungestört wiederverwendet werden. Und der Autor, dessen Cover nun zehn weitere Bücher ziert, ist machtlos.

Ein weiteres Risiko stellt Cybermobbing dar. Vor allem genKI bietet die Möglichkeit, um gefälschtes Bild- und Videomaterial zu erzeugen und zu verbreiten. Stellen wir uns einmal den unliebsamen Kollegen vor, der kurz davor steht, wieder einmal befördert zu werden, während wir selbst auf der Stelle treten. Einen kleinen Prompt und etwas Bearbeitung später kann man dem Chef ein Bild zuspielen, welches diesen Kollegen bei moralisch und gesetzlich fragwürdigen Handlungen zeigt. Oder denken wir an die Mitschülerin, deren Nacktbild auf dem Schulhof umgeht. Dabei ist dieses nicht echt.

Gerne wird hier darauf verwiesen, dass es das früher auch schon gegeben hat. Aber die KI vereinfacht diese Handlungen und verleitet mehr dazu. Zumal oft vergessen wird, dass das Internet kein rechtsfreier Raum ist.

Fazit

Der Einsatz von KI bietet in unserem Alltag viele Chancen und Möglichkeiten, die durchaus ausgebaut werden sollten. Doch die Entwicklung dieser Systeme ist wieder einmal so rasant, dass wir gar nicht hinterherkommen. „Das Internet ist für uns alle Neuland“ fasst die Situation ausgesprochen gut zusammen, auch wenn uns die Aussage lächerlich erscheint. Minütlich entstehen neue Ideen, die so schnell auf dem Markt sind, dass zum Beispiel die Rechtsprechung nicht so schnell folgen kann. Die Systeme sind unausgereift, und sobald wir ein Problem gelöst haben, steht ein Neues schon bereit. Es werden dringend Regulierungen benötigt, die einen Rahmen schaffen, in dem KI wachsen und gedeihen kann, ohne Schaden anzurichten. Und dafür braucht es vor allem Aufklärung, Ehrlichkeit und den sachlichen Diskurs.

________________________________________________________________________________

Quellen:

Artikel: KI – Chancen und Risiken
Artikel: Security-Branche im Spannungsfeld
Artikel: KI im Gesundheitsbereich
Artikel: KI in der Elektromobilität
Risiken der Künstlichen Intelligenz (EN)
Tagesschau: Experten warnen vor Risiken
Artikel: Gefahren von KI

Die Kommentarfunktion ist deaktiviert, aber Trackbacks und Dingbacks sind offen.