Chatty.jpg
Illustration: Linda Wölfel

„Wieviel Portionen Pommes decken den täglichen Bedarf an Vitamin C?“ Das war meine allererste Frage an ChatGPT, im ­Februar 2023. Und nicht nur ich hatte und habe Fragen an die neue Künstliche ­Intelligenz (KI). Die Verbreitung von ChatGPT in Deutschland ist bemerkenswert: Laut einer aktuellen Forsa-Umfrage haben inzwischen 37 Prozent der Deutschen das Tool ausprobiert, und 85 Prozent haben zumindest schon einmal ­davon gehört oder gelesen.

Die Nutzungsmotive sind dabei viel­fältig. So gaben 52 Prozent der Anwender an, sich einfach unterhalten lassen zu ­wollen – etwa indem sie ChatGPT bitten, ein humorvolles Gedicht zu schreiben. 44 Prozent setzen ChatGPT und ähnliche KI-Roboter für Recherchen ein, 40 Prozent nutzen sie zum Erstellen von Texten, und 26 Prozent verwenden die Technologie, um Fotos und Videos zu bearbeiten.

Bubble.jpg
Illustration: Linda Wölfel

Auch ich habe Chatty (ChatGPT) zunächst zur Unterhaltung verwendet. Ich ließ mir Dialoge im Stil von David Lynch schreiben, entwickelte neue Rezepte und holte mir Tipps zur Hundeerziehung. Dabei nutzte ich es auf Englisch, Deutsch und Spanisch – und stellte fest, dass die Sprache der Frage allein schon einen erheblichen Unterschied in den Antworten ausmacht.

Ein besonders auffälliges Beispiel: Fragt man den Chatbot auf Deutsch, wie viel Zucker eine Cola enthält, erhält man eine andere Antwort als auf Englisch. Der Grund dafür liegt in den unterschied­lichen Datensätzen, auf die zurückge­griffen wird. Englisch ist die Ausgangssprache für ChatGPT, was bedeutet, dass die meisten Trainingsdaten auf Englisch vorliegen. Dies führt zu einer höheren Genauigkeit und Konsistenz der Antworten in englischer Sprache.

Trotzdem – ChatGPT kann immerhin in mehr als 40 Sprachen kommunizieren. Wobei die Technik die menschliche Kommunikation imitiert und nicht im eigentlichen Sinne „versteht“. Die KI berechnet, welche Antwort passend sein könnte. Und genau deshalb ist Vorsicht geboten. Denn Chatbots wie ChatGPT verfälschen mitunter Fakten und erfinden Quellen – die Entwickler*innen von ChatGPT selbst geben an, dass der Chatbot „partiell ­fehlerhafte Informationen“ generieren könne.

ChatGPT hat mich belogen

Ich wollte das Tool zur Vorbereitung eines Interviews nutzen und bat Chatty mir die Kapitel eines bestimmten Buches zu ­nennen, in denen sich der Autor, ein bekannter Medienwissenschaftler, mit den ethischen Problemen und Herausforderungen des Streamings beschäftigte. Ich erhielt ich prompt eine detaillierte Liste der Kapitel, einschließlich ihrer Titel und einer Zusammenfassung der behandelten Themen. „Wie praktisch“, dachte ich zunächst und freute mich über die vermeintlich ge­sparte Zeit. Doch diese Freude ­sollte nicht lange währen. Bei der Überprüfung stellte sich heraus, dass weder die Kapitel noch die besprochenen Inhalte existierten. ­Hätte ich mich auf diese Informationen verlassen, wäre ich im schlimmsten Fall meinen Job losgeworden oder hätte mich zumindest bis auf die Knochen blamiert.

Hola.jpg
Illustration: Linda Wölfel

Auf meine Nachfrage hin, warum „er” Quatsch antwortet, entschuldigte sich ChatGPT und erklärte, dass es keinen Zugriff auf das besagte Buch habe. Viele ­Bücher sind urheberrechtlich geschützt. Das bedeutet, dass der Inhalt dieser Bücher nicht frei zur Verfügung steht und nicht ohne Erlaubnis des Urheberrechtsinhabers reproduziert oder verbreitet werden darf. Auch muss man wissen, dass die Trainingsdaten eine breite Palette von Texten aus dem Internet umfassen, aber eben nicht alle und selbst wenn einige Buchinhalte in den Trainingsdaten enthalten sind, handelt es sich oft nur um Auszüge oder Zusammenfassungen.

Vielleicht war es meine Enttäuschung, aber ich hatte nach dieser Erfahrung insgesamt das Gefühl, dass sich der Ton und die Antworten inhaltlich ab diesem Moment veränderte. Chatty schien plötzlich weniger scharfsinnig und effizient, eher faul und unzuverlässig.

Dieser Eindruck bestätigte sich im Sommer 2023, als Expert*innen begannen, ähnliche Beobachtungen zu veröffent­lichen. Die Gründe für diese Veränderungen sind vielfältig. Ein Hauptfaktor ist die hohe Serverauslastung. Künstliche Intelligenz benötigt enorme Rechenkapazi­täten, und um diese effizient zu nutzen, muss das Modell offenbar dazu gezwungen werden, so knapp wie möglich zu antworten. Das führt oft dazu, dass die KI sich weigert, tiefer gehende Ideen auszuführen oder detaillierte Lösungen zu liefern.

KI trainiert KI

Ein weiterer Grund ist das Training mit KI-Material. Der Anteil der Texte und Bilder im Internet, die von einer KI erstellt wurden, nimmt rapide zu. Doch auch die Trainingsdaten, mit denen die Algorithmen arbeiten, stammen größtenteils aus dem Netz. Was passiert also, wenn ein Algorithmus mit Texten trainiert wird, die von einem anderen Algorithmus geschrieben wurden? Forscher der Universitäten Toronto, Oxford und Cambridge fanden heraus, dass diese Art der Selbstbezogenheit dazu führt, dass die KI weniger präzise und intelligent antwortet.

Nicht zuletzt spielt auch die Alterung der Daten eine Rolle. ChatGPT-3 wurde bis September 2021 trainiert. Dies bedeutet, dass die Daten, auf denen das Modell basiert, Informationen und Ereignisse bis zu diesem Zeitpunkt umfassen. Danach erfolgten keine weiteren Updates oder Einbeziehung neuer Daten für diese ­Version des Modells. Für aktuellere Informationen wurden spätere Modelle wie GPT-3.5 und das derzeit genutzte GPT-4 entwickelt, wobei GPT-4 Daten bis April 2023 umfasst.

Scharfsinnig.jpg
Illustration: Linda Wölfel

Obwohl diese Version bereits viele Verbesserungen auf den Weg gebracht hat, wie zum Beispiel eine optimierte Text­erzeugung, bessere Textzusammenfassungen und eine präzisere Erkennung der Absichten der Nutzer*innen, selbst wenn menschliche Fehler in den Anweisungen vorhanden sind. Vorsicht und aufmerksames Überprüfen ist dennoch weiterhin geboten. Dies gilt insbesondere für die Übersetzungsfunktion.

Übersetzt man etwa einen einfachen Satz in verschiedene Sprachen und dann wieder zurück ins Deutsche, kann man sehen, wie sich die Bedeutung dabei verändert. Ich zum Beispiel habe „Die ­Katze sitzt auf der Matte“ zunächst ins Französische übersetzen lassen: „Le chat est assis sur le tapis.“ So weit so gut. Doch als ich den französischen Satz zurück ins Deutsche übersetzte, lautete er plötzlich: „Die Katze sitzt auf dem Teppich.“

Dieses einfache Experiment offenbart, wie kleine Nuancen in der Bedeutung verloren gehen oder sich verändern können, wenn man Sätze zwischen verschiedenen Sprachen hin- und herübersetzt.

Zum Glück gibt es deshalb trotz der weit verbreiteten Nutzung auch erhebliche Vorbehalte. Ganze 78 Prozent der Befragten der eingangs schon erwähnten Forsa-Umfrage sehen in der Technologie Risiken, die derzeit nicht vollständig absehbar sind. 56 Prozent vertrauen den von KI generierten Inhalten nicht ohne Weiteres.

Übrigens, die Berechnung von ChatGPT kam zu dem Schluss, dass man täglich ­etwa 5 Kilo Pommes essen müsste, um den Tagesbedarf an Vitamin C zu decken.