Neuste Beiträge
Auf diese Punkte solltest Du bei der Nutzung von ChatGPT achten
Large Language Models überzeugen uns mit der bemerkenswerten Geschwindigkeit und Kreativität beim Befolgen unserer Arbeitsanweisungen. Während ChatGPT Nutzer:innen sozialer Netzwerken bereits bei Textverarbeitungsaufgaben wie dem Erstellen von Social Media Posts, der Zusammenfassung umfangreicher Texte oder dem Auffinden neuer Informationen unterstützt, wird GPT4 mit noch kreativeren Antworten überraschen, Bildinhalte analysieren und mit verbesserter Argumentationsfähigkeit arbeiten.1 Trotz dieser Neuerungen kann es bei der Nutzung zu Schwierigkeiten kommen. Daher lohnt es sich, die Funktionsweise der LLMs einmal genauer anzusehen.
Die Generation von Texten anhand der Wahrscheinlichkeit einer Wortabfolge
Large Language Models produzieren Texte mithilfe mathematischer Berechnungen. Das bedeutet, dass die Modelle kein inhaltliches Verständnis ihres Outputs haben, sondern Wörter aufgrund der Wahrscheinlichkeit ihrer Abfolge kombinieren.2 Diese Wahrscheinlichkeit ergibt sich aus den großen Textmengen, mit welchen die Systeme trainiert wurden.
Inhaltlich fehlerhafte Ergebnisse mit hoher sprachlicher Qualität
Sowohl das uns bekannte Modell ChatGPT als auch die neuere Version GPT4, können „halluzinieren“.3 So kann es vorkommen, dass ihr Output unserem Input widerspricht oder in sich widersprüchlich ist, Unwahrheiten enthält oder in keinem Kontext zum Input steht.4 Grund dafür ist, dass die Qualität des Ergebnisses immer auch abhängig von der Qualität der Ausgangsdaten ist. So können bereits Trainingsdaten fehlerhaft sein oder aus Ressourcengründen bestimmte Themen nicht abdecken. Möglich ist aber auch, dass der Input ungenau oder unklar formuliert ist.
Bessere Ergebnisse lassen sich erzielen, indem du dich um unmissverständlichen Input bemühst, deine Anfrage zur Mustererkennung um zusätzliche Informationen und Beispiele ergänzt, welche mithilfe von ### oder „““ abgetrennt werden. Möglich ist auch, den Wert bestimmter Parameter wie „temperature“ zu verändern, wie im Beispiel unter dem Artikel. Fragt man ChatGPT, können Werte von 0 bis 1 gewählt werden. Dabei soll die Wahl niedriger Werte konservative und vorhersehbare Inhalte fördern, während höhere Werte Kreativität und Detailreichtum begünstigen.5 Verfolgt man die LinkedIn Community, sieht man, dass auch weit höhere Werten ausprobiert werden.6 Sollte der Fall eintreten, dass ChatGPT die Angabe von Parametern wörtlich versteht und eine Temperatur von 1 Grad Celcius als Teil der Arbeitsanweisung versteht, kann es helfen, Parameter genauer zu umschreiben.
Aufgrund des hohen sprachlichen Niveaus des Outputs, tendieren wir dazu, in deren Faktentreue zu vertrauen.7 Nutzen wir die Systeme in Bereichen, in denen uns Expertise fehlt, wird es uns außerdem schwerfallen, Fehler zu erkennen.8 Unter Umständen begeben wir uns erst gar nicht auf Fehlersuche, weil unser Vertrauen in die Systeme bereits sehr groß ist. Ein übermäßiges Vertrauen in die Richtigkeit der Antworten kann auch entstehen, wenn die Systeme in uns bekannten Bereichen bereits richtige Antworten produziert haben.9 Insbesondere bei der Nutzung von LLMs für Publikationen in sozialen Netzwerken, lohnt es sich, die Fakten zu checken, die nicht ausschließlich auf deinem Prompt beruhen, um die Verbreitung von Falschinformationen zu vermeiden.
Fehlende Berücksichtigung neuer Daten
ChatGPT und GPT4 haben keine Kenntnis von der Welt nach September 2021.10 Somit können sie neuere gesellschaftliche Ereignisse, Trends und Verhaltensweisen der Gesellschaft nicht einbeziehen. Dies begünstigt die Produktion konservativer Texte und schließt innovativen Output aus.11 Auf diese Thematik weisen die Systeme auch hin, wenn Fragestellungen einen zeitlichen Faktor haben. Prüfe genau, ob die Aktualität der Daten für die Vollständigkeit und Richtigkeit des Outputs relevant ist und begib dich im Zweifelsfall selbstständig auf die Suche.
Schwierigkeiten bei der Arbeit mit Quellen
ChatGPT ist in der Lage, Links zu anderen Seiten zu erstellen. Dieser führt allerdings häufig, statt zur gewünschten Quelle, ins Nichts. Du solltest die Links also nicht ungeprüft übernehmen, sondern als Hilfestellung nutzen, um Daten ausfindig zu machen.
Verbreitung von Diskriminierung und Weltansichten
OpenAI weist darauf hin, dass selbst GPT4 noch nicht frei von der Verbreitung von Weltansichten und Ideologien ist und unter Umständen diskriminierende Inhalte erzeugen kann.12 Bitte nutze ChatGPT mit Achtsamkeit, insbesondere wenn es um die Verbreitung von Texten in den sozialen Medien geht.

Glossar:13
Prompt/Input: Deine Eingabe bzw. Fragestellung, welche auch Ausgangspunkt der Kommunikation mit ChatGPT ist
Output: Generierter Text oder Antwort auf deine Frage
Large Language Models (LLMs): KI-Sprachmodell, welches Texte generiert und verarbeitet
Quellen:
1, 2, 7, 8, 9, 12 https://openai.com/gpt-4, https://cdn.openai.com/papers/gpt-4-system-card.pdf
3 https://cdn.openai.com/papers/gpt-4-system-card.pdf
Zu „Die Generation von Texten anhand der Wahrscheinlichkeit einer Wortabfolge“: FAZ, 27.03.23, Nr. 73, „ChatGPT versteht überhaupt nicht, wovon es spricht“
4 https://www.youtube.com/watch?v=cfqtFvWOfg0
10 https://openai.com/gpt-4, TAB-Hintergrundpapier Nr.26: ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen
11 FAZ, 19.03.23, Nr.11, Adrian Lobe: „Gefangen in der Feedback-Schleife“
13 https://witlingo.com/a-chatgpt-glossary/
Coverfoto: https://www.pexels.com/de-de/foto/holz-kaffee-laptop-buro-16037281/
Es gibt kein gutes Buch, das von Hannah unentdeckt bleibt. Mit ihrer nie versiegenden Neugier stöbert sie sich durch alle Neuerscheinungen und rezensiert Bücher und Essays für unsere Magazine.
