Drücke "Enter", um den Text zu überspringen.

Recherche mit ChatGPT?

Was ist ChatGPT?

Letztendlich ist es ein Chatbot, der auf Grundlage eines Large Language Models entwickelt wurde. Diese Sprachmodelle zielen darauf ab, Texte nach einem Wahrscheinlichkeitsmodell zu generieren. Das Training solcher Modelle ist bereits sehr rechenintensiv und verbraucht enorm viele Ressourcen wie Strom, Wasser und Hardware. (Weiterführende Infos zum Thema Ressourcen auf dieser Seite: hier klicken)

Wie wurde ChatGPT trainiert?

Die Daten stammen aus Büchern, Briefen, Wikipedia-Einträgen und literarischen Textsammlungen. Mittels ›überwachtem Lernen‹ wurde ChatGPT darauf trainiert, passende Antworten zu generieren. Dafür wurden Antworten vorbereitet, die gegeben werden sollten. Diese Antworten wurden von Testpersonen bewertet. Letztlich wurde auch festgelegt, welche Antworten ChatGPT nicht geben darf, weil sie potenziell falsch oder schädlich sein könnten.

Welche Anwendungsmöglichkeiten hat ChatGPT?

Laut Hersteller bietet die Software die Möglichkeit zum Austausch in Form eines Dialogs. Die Qualität der Antworten schwankt jedoch.

Unterschiedliche Stile kann ChatGPT hierbei auch imitieren. Möglich sind zum Beispiel Business-Pläne oder Hausaufgaben für die Schule. In der Wissenschaftskommunikation stellte sich heraus, dass ChatGPT Wissen schwer zusammenfassen und erklären kann und erforderliche Quellenbelege nicht genannt werden.

Abfotografierte Zeitungsartikel können zusammengefasst werden, aber die Ergebnisse sind bestenfalls befriedigend. Bau- und Reparaturanleitungen kann ChatGPT dafür oft finden und Fragen hierzu beantworten, Kochrezepte anhand des Fotos eines Kühlschrankinhalts bietet es ebenfalls an.

Für die Analyse und als Hilfsmittel für Programmcodes kann es ebenfalls verwendet werden.

ChatGPT beherrscht laut eigener Angabe Englisch, Französisch, Spanisch, Portugiesisch, Deutsch, Niederländisch, Russisch, Koreanisch, Japanisch und „weitere Sprachen“.

Gibt es Kritik an ChatGPT, und welche Probleme existieren?

Selbst die Entwickler*innen können aufgrund der Vielzahl der Parameter, die bei der Berechnung genutzt werden, die Vorgänge nicht mehr vollständig nachvollziehen. Viele Nutzende hinterfragen die Antworten von ChatGPT nicht, und mangels Quellenangaben sind sie auch nicht in der Lage, sie auf Korrektheit zu prüfen. Fragt man nach Quellen, werden die Nachweise sogar teils erfunden.

Durch die Nutzung werden das moralische Urteilsvermögen und Entscheidungen beeinflusst, selbst wenn den Nutzenden klar ist, dass sie gerade von einem Chatbot beraten werden. Ein nicht geringer Teil der Antworten von ChatGPT unterliegt außerdem einer Verzerrung durch Vorurteile, ist also biased. Dadurch können auch viele Falschinformationen verbreitet werden.

Europol warnte bereits im März 2023 vor möglichem Missbrauch, da der Chatbot Betrug und kriminelle Tätigkeiten wie Phishing erleichtere.

Tatsächlich kam es auch schon zu fatalem Missbrauch durch zwei New Yorker Anwälte, die ChatGPT nach Präzedenzfällen suchen ließen. Hierbei wurde völlig frei zusammengesetzt, und es gab die jeweiligen Fälle gar nicht. Das Gericht verurteilte die beiden Anwälte wegen Täuschungsversuch zu einer Geldstrafe, weil sie die Daten selbst hätten prüfen müssen. Da sie dies nicht taten, wurde ihnen böse Absicht unterstellt.

Zum Thema Ressourcenverbrauch und Clickworker gibt es gesonderte Artikel auf dieser Seite: hier klicken.

Welche Auswirkungen hat ChatGPT auf Unterricht und Forschung?

Lehrpersonal steht inzwischen vor der Herausforderung, sich bei der Vermittlung von Bildungsinhalten zusätzlich damit auseinanderzusetzen, wie man mit mit Künstlicher Intelligenz umgeht. Neben den Vorteilen gibt es natürlich auch Nachteile. Zu den Vorteilen gehört, dass komplexe Sachverhalte leichter zugänglich gemacht werden können, Zusatzinformationen hinzugefügt werden und in der Kommunikation mit dem Chatbot auch Spaß und Interesse am Unterricht gefördert werden können. Außerdem kann ein reflektierter und kreativer Umgang mit Texten trainiert werden. Künstliche Intelligenz kann helfen, Kompetenzen zu entwickeln, die im späteren Berufsleben entscheidend sein können.

Allerdings besteht die größte Herausforderung aktuell darin, Leistungsnachweise nur noch auf Eigenleistung zu prüfen, wenn Referate, Aufsätze und wissenschaftliche Arbeiten mit dem Chatbot erstellt werden. Zu den größten Risiken gehört, dass ChatGPT falsche oder abzuwägende Informationen herausgibt, die den Eindruck von Fakten erwecken. Sie können unvollständig oder veraltet sein. Aufgrund der fehlenden Transparenz bei den Quellen sind auch Fake News möglich. Die Nutzung von ChatGPT kann dazu verleiten, das eigene Mitdenken und Problemlösen einzustellen. Da die Server in den USA stehen, unterliegen sie nicht der DSVGO und es ist Vorsicht geboten, was sensible Daten angeht. Zudem gibt es keine verlässliche Altersprüfung. Im Schulunterricht ist es also nötig, zu vermitteln, dass ChatGPT keine Problemlösungsmaschine, sondern einzig ein Werkzeug ist.

ChatGPT stellt im Schulbereich eine „Kann“-Lösung dar, die reflektiert werden muss. Es kann eine wertvolle Ergänzung sein, wenn man sich der Gefahren bewusst ist und die Informationen des Chatbots kritisch hinterfragt. Wenn Erwartungen und Bedenken besprochen werden, kann man letztendlich mit ChatGPT auch das Thema Medienkompetenz verbinden.

Da es sich bei dem Chatbot um eine Maschine handelt, die ihre Antworten nach Wahrscheinlichkeiten generiert, sind diese grundsätzlich nur so gut wie die Frage, die eingegeben wurde. Für Lehrpersonal existieren unterschiedliche Leitfäden.

In den ersten Metaanalysen zum Einsatz von Chatbots im Unterricht wurde festgestellt, dass er weder gut noch schlecht ist, sondern Ergebnisse davon abhängen, wie die generelle Unterrichtsqualität, die Lernatmosphäre und die didaktischen Ziele sind. Eine Steigerung der Lernmotivation der Beschulten ließ sich empirisch nicht nachweisen.

Die Hochschule Darmstadt hat eine bundesweite Studie zum Thema angelegt und 6300 Studierende anonyme zu deren Nutzungsverhalten befragt. Dabei kam heraus, dass ChatGPT hauptsächlich in den Bereichen Ingenieurwissenschaften, Mathematik und Naturwissenschaften benutzt wird, um Verständnisfragen zu klären und fachspezifische Konzepte in Kontext zu setzen. Annähernd die Hälfte der Befragten hatte das Tool bereits verwendet. Bei der Recherche fürs Literaturstudium war es nicht ganz ein Drittel. Selbiges gilt für Textanalysen. Eine der Kernaussagen der Studie: „KI-Tools sind Werkzeug, kein Ersatz für wissenschaftliches Arbeiten.“

Besteht eine Gefahr für die Abhängigkeit von Konzernen?

Die Geldgeber der Firma OpenAI sind und waren u. a. Elon Musk und Microsoft. In das Projekt sind inzwischen mehrere Milliarden US-Dollar geflossen. Der Druck, Gewinn zu erwirtschaften, ist deshalb sehr hoch.

Wer unterzeichnete den Aufruf zur KI-Entwicklungspause, und wie soll diese laut Forderungen genutzt werden?

Am 23. März 2023 wurde vom Future of Life Institut ein offener Brief veröffentlicht, der zu einer Entwicklungspause für fortgeschrittene KI-Systeme aufruft. Innerhalb von zehn Tagen haben fast 1800 den Brief unterschrieben. Darunter waren Yuval Noah Harari (israelischer Historiker und Hochschullehrer), Elon Musk (Unternehmer und Milliardär), Stuart Jonathan Russel (britischer Wissenschaftler und Professor für Informatik an der University of California in Berkeley) und Steve Wozniak (Computeringenieur, Mitbegründer von Apple). Die Autor*innen des Briefes erkennen einen „außer Kontrolle gelaufenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer KI-Systeme, die niemand erstehen, vorhersagen oder zuverlässig kontrollieren kann“ an.

Genutzt werden soll die Pause für die Erarbeitung von Sicherheitsprotokollen für Design und Entwicklung, der Schaffung eines Zertifizierungssystems, die Entwicklung von Herkunfts- und Wasserzeichensystemen zur Unterscheidung zwischen echten und synthetischen Daten und zur Nachverfolgung von Modelllecks, die Einführung von Haftungsregelungen für durch KI verursachte Schäden und eine öffentliche Finanzierung für KI-Sicherheitsforschung.

Kritik am offenen Brief gab es natürlich auch. Arvid Narayanan (Computerwissenschaftler der Princeton University) schrieb auf X (ehemals Twitter), dass der Brief ironischerweise, aber nicht überraschend den Hype um KI weiter schüre und es erschwere, gegen reale, bereits aufgetretene Schäden durch KI vorzugehen. Außerdem vermutete er, dass er den Unternehmen zugutekäme, die er regulieren solle, und eben nicht der Gesellschaft.

Bernhard Schölkopf, Direktor am Max-Planck-Institut für Intelligente Systeme in Tübingen, kommentierte, dass es klug wäre, innezuhalten, um die Systeme zu verstehen und darüber nachzudenken, wie unsere Gesellschaft mit ihnen umgehen kann. Allerdings war er auch der Meinung, dass es unrealistisch sei, alle Firmen und Länder von einem Moratorium zu überzeugen. Es sei wichtiger, zu überlegen, wie man sich gegen negative Auswirkungen absichern könne. Das beträfe die Systeme selbst, aber auch den Umgang mit ihnen.

Was ist jetzt mit den halluzinierten Fakten?

Das alternativ und zutreffender als Konfabulation benannte Phänomen, dass die KI ein Resultat liefert, das durch die Trainingsdaten nicht gerechtfertigt zu sein scheint und objektiv falsch ist, wird von Forscher*innen gerne auf unzureichende Trainingsdaten zurückgeführt. Da sie über kein vollständiges Wissen verfügt, wird fehlendes Wissen interpoliert und konfabuliert. Das bedeutet, dass es rechnerisch aufgefüllt und teilweise auch frei erfunden wird. Da die Quellen nicht einsehbar sind, werden Nutzenden dadurch Antworten präsentiert, die nicht den Tatsachen entsprechen, nur weil der Chatbot nicht auf die jeweiligen Daten Zugriff hat.

Selbst die Entwickler*innen geben zu, dass GPT-4 bei vielen Kategorien eine Genauigkeit von etwa 70 Prozent aufweist. Bei der öffentlich zugänglichen Version liegt der Wert sogar meist unter 60 Prozent.

Das Problem bestehe auch bei der Integration von GPT-4 in die Microsoft-Suchmaschine Bing. Emily Bender (Professorin an der University of Washington) warnt davor, ChatGPT & Co würden „unser Informations-Ökosystem vergiften“. Die Verbreitung von Lügen und Desinformation sei ohnehin eine der größten Gefahren, die von KI ausgehe.

Prabhakar Raghavan (Senior Vice President bei Google, ehemals Leiter der Google-Suche) gab bereits 2023 zu, dass die Art von Künstlicher Intelligenz, über die wir heutzutage reden, überzeugende, aber völlig erfundene Antworten liefere.

Am Begriff „Halluzination“ gibt es berechtigte Kritik, da er eine falsche Assoziation über die Funktionsweise künstlicher neuronaler Netze weckt. Anstelle einer vermeintlichen Fehlrepräsentation der Wirklichkeit müsse ein Begriff verdeutlichen, dass derartige Ausgaben gänzlich wirklichkeitsfern und der Funktionsweise der KI-Modelle geschuldet seien. Alternativ zu „AI hallucinations“ wurde der Begriff „Bullshit“ vorgeschlagen. Das dazugehörige Paper trägt den Namen „ChatGPT is Bullshit“.

Kann man ChatGPT dann überhaupt als Recherchetool nutzen?

Die kurze Antwort lautet: Nein.

ChatGPT ist ein Sprachmodell und kein Recherchetool. Die Antworten beruhen auf Wahrscheinlichkeiten und nicht auf Tatsachen. Quellenangaben kann ChatGPT auch nicht nennen, was den Wahrheitsgehalt von Aussagen unüberprüfbar macht. Außerdem hat ChatGPT nur Zugriff auf die Daten, mit denen trainiert wurde und hat keinen Echtzeitzugriff auf aktuelle Datenbanken oder wissenschaftliche Zeitschriften. Allein deshalb und weil durchaus auch fiktive, aber aufgrund der Wahrscheinlichkeit mögliche Fakten rechnerisch dargestellt konfabuliert werden, taugt ChatGPT in keiner Weise als Recherchetool.


Quellen:

GPT-Models erklärt (EN)
Einführung in ChatGPT (EN)
Artikel: Gut erfunden ist halb geglaubt
Artikel: Wissenschaftlerin warnt vor gefälschten Quellen von ChatGPT
ChatGPTs widersprüchliche moralische Beratungen (EN)
KI-Chatbot in den Sozialen Medien mit guten Essays
Artikel: Europol warnt vor Missbrauch von ChatGPT
New Yorker Richter verurteilt Anwälte wegen ChatGPT-Benutzung
ChatGPT in der Schule: Risiko oder Chance?
Vor- und Nachteile von ChatGPT in der Schule
Prompting Tipps für Lehrer*innen
KI Forschung rund um Schule und Unterricht
Befragung: KI im Studium?
Bundesweite Studie: So nutzen Studierende KI-Tools
Elon Musk verklagt Open AI und Sam Altman
Open AI und Elon Musk (EN)
Offener Brief: Gigantische KI-Experimente pausiet (EN)
Gefahren der Künstlichen Intelligenz
LLM Konfabulation (EN)
Chatbots und ChatGPT (EN)
ChatGPT und seine „Lügen“ (EN)
Was ChatGPT tut und wie es funktioniert (EN)

Die Kommentarfunktion ist deaktiviert, aber Trackbacks und Dingbacks sind offen.