1. LLMs als Blackboxes

Im November 2022 wurde mit ChatGPT erstmals ein Large Language Model einer breiten Öffentlichkeit zugänglich gemacht. Innerhalb von nur fünf Tagen registrierten sich weltweit eine Million Nutzer:innen, um sich mit dieser neuen Technologie zu “unterhalten”. Kaum ein anderes Computersystem hat in der letzten Zeit soviel Aufmerksamkeit erzeugt und Debatten entfacht. Viele Diskussionen drehen sich um ethische und moralische Fragen und um unabsehbare Zukunftsfolgen der künstlich-intelligenten Chatbots.

Ein Aspekt von LLMs – bzw. Foundation Models – ChatGPT kann heute auch mit Bild‑ und Videodaten umgehen – wird immer wieder diskutiert und problematisiert: LLMs sind intransparente Blackboxes was ihre innere Struktur betrifft. Dies liegt an ihrer Deep-Learning-Architektur und ihrer probabilistischen Outputerzeugung. Diese führt dazu, dass weder die sie herstellenden Expert:innen noch die Modelle selbst präzise nachvollziehbar machen können, durch welche Entscheidungsprozesse ihr Output - sei er überraschend treffend oder offensichtlich falsch - zu Stande kommt. Dieses Problem wird unter anderem durch Chain-of-Thought-Implementierungen bearbeitet: Neuste Modelle können so konfiguriert werden, dass sie “laut denken” und ihren “Argumentationsstrang” sichtbar machen, bevor sie eine tatsächliche Antwort liefern. Dies ist etwa bei den am 5. August 2025 von OpenAI erstmals unter der Apache 2.0 Lizenz frei veröffentlichten Modellen der Fall (gpt-oss-20b & gpt-oss-120b).1 Trotzdem bleiben die internen Mechanismen weitgehend intransparent.

Dennoch sind LLMs in der Lage, oftmals richtige oder anregende Antworten zu geben. Kürzlich wurde in der Sozialwissenschaft gezeigt, dass LLMs auch auf gewisse Weise Verstehen simulieren können. Verstehen ist eine Fähigkeit, von welcher bisher angenommen wurde, dass sie Menschen vorbehalten ist und auch bleiben wird. Allerdings zeigen erste Studien, dass LLMs in der Klassifikation von Textstellen – einer Aufgabe, welche in der Sozialwissenschaft oft von Studierenden gemacht wird oder Plattformarbeiter:innen ausgelagert wird – akkurater sein können als Menschen (Törnberg 2024). LLMs schaffen es also, quasi-hermeneutisch relevante Kontexte genau zu erfassen und innerhalb derselben “vernünftige” Antworten zu liefern: in der Fachsprache ist deshalb von “Reasoning” die Rede, wobei streitig ist, ob hier tatsächlich menschenähnliche Argumentation vorliegt (“echtes Reasoning”), oder lediglich eine ausgeklügelte Simulation davon.

LLMs sind aber auch bekannt für völlig unzutreffende, falsche Antworten. Diese werden – angelehnt an die menschliche Psyche – oft als Halluzinationen bezeichnet: Es wird etwas “gesehen”, was fernab von der Realität ist. Die Halluzinations-Metapher wurde im Kontext von Sprachgenerierung bereits 2016 erstmals verwendet (Huyen 2025: 107). Ihr wurde kürzlich der Begriff des Bullshit nach Harry G. Frankfurt kritisch entgegengehalten: LLMs seien indifferent gegenüber der Wahrheit ihrer Outputs, der Halluzinationsbegriff würde jedoch implizit unterstellen, dass dies nicht immer der Fall sei (Hicks, Humphries, & Slater 2024). “Bullshit” sei für die Beschreibung dieses Phänomens treffender, da es den LLMs “egal” ist, ob ihre Antworten der Wahrheit entsprechen oder nicht. Die Autoren kritisieren ausserdem, dass anthropomorphisierende Metaphern wie die der Halluzination grundsätzlich problematisch seien weil sie dazu führen können, AI Modell für falsche Resultate anzuschuldigen statt selbst die Verantwortung dafür zu übernehmen (8). Deshalb seien anthropomorphisierende Metaphern grundsätzlich hinderlich für das Verständnis von LLMs.

Egal was man von LLMs (und ihrem immensen Stromhunger etc.) halten mag; es ist eine Tatsache, dass bereits jetzt eine grosse Zahl von Menschen im Alltag auf sie zurückgreift, oftmals um sich beraten zu lassen. Deshalb ist eine Auseinandersetzung mit ihrem ontologischen Status notwendig. Da LLMs keine Subjekte, sondern nur Subjekt-Simulationen mit beschränktem empirischem Zugang zur sowie fehlenden Modellen von Wirklichkeit (Marcus 2025) sind, können sie nicht aus sich heraus wahr und falsch unterscheiden (egal ob auf die äussere, objektive Welt oder die intersubjektiv-normative Welt bezogen). Trotzdem möchte ich dem Argument von Hicks, Humphries, & Slater (2024) entgegenhalten (ähnlich wie Gunkel & Coghlan (2025)), dass die Bullshit-Anologie selbst anthropomorphisierend ist: Auch Bullshitting ist soziales Handeln im Sinne von Max Weber: Obwohl es sich nicht um Wahrheit schert, hat es eine soziale Intention und orientiert sich am Verhalten anderer mit der Absicht, diese Anderen zu beeinflussen.

In diesem Text argumentiere ich deshalb dafür, dass anthropomorphisierende Metaphern sehr wohl hilfreich für das Verständnis von LLMs sein können – insbesondere auch um anhand solcher Analogien zentrale Differenzen zum Menschen herauszuarbeiten. Der Begriff der Halluzination ist ein psychologischer und ich schlage vor, diesen Faden weiter zu spinnen und auf Begriffe der Psychoanalyse zurückzugreifen. Die Psychoanalyse erachtet das Bild des stets vernünftigen und rational argumentierenden Menschen als verkürzt, denn vieles, was wir Menschen tun, läuft affektiv, oftmals irrational und unbewusst ab. Diese Perspektive greife ich auf und möchte vorschlagen, dass zentrale psychoanalytische Konzepte wie das Unbewusste oder die Gegenübertragung zu einem besseren Verständnis von LLMs als Blackboxes beitragen können.

2. Das Unbewusste in der Psychoanalyse

Den Tätigkeiten in unserer menschlichen Alltagspraxis gehen wir oft intuitiv nach, trotzdem gelingen uns diese meistens. Rad- oder Autofahren ist nicht mehr so herausfordernd wie in den ersten Fahrstunden. Es ist nicht die gleiche Aufmerksamkeit und Bewusstheit wie damals notwendig. Die Tätigkeit ist uns quasi in Fleisch und Blut übergangen. Auch sonst können wir längst nicht alles Erlebte in Worte fassen (“repräsentieren”) – nicht mal das, was wir gut wissen und können. Wir sprechen dann von “guter Intuition”. Noch kniffliger wird es mit eigenen Handlungen, die wir nicht verstehen oder Situationen, in die wir uns immer wieder unbewusst hinein manövrieren. Etwa dann, wenn wir mehrfach in romantischen Beziehungen mit völlig anderen Menschen in ähnliche missliche Situationen geraten und uns wundern, wie das nun wieder passieren konnte.

Aufgrund solcher Beobachtungen kam die Psychoanalyse zum Schluss, dass wir uns selbst nie ganz kennen können und die Informationsverarbeitung in uns zu großen Teilen unbewusst abläuft. Gemäss Sigmund Freud sind bewusste geistige Vorgänge

“nach allgemeiner Übereinstimmung keine lückenlosen, in sich abgeschlossenen Reihen, so daß nichts anderes übrigbliebe, als physische oder somatische Begleitvorgänge (..). Es liegt dann natürlich nahe, in der Psychologie den Akzent auf diese somatischen Vorgänge zu legen, in ihnen das eigentlich Psychische anzuerkennen und für die bewußten Vorgänge eine andere Würdigung zu suchen. (..) Gerade das ist es, was die Psychoanalyse tun muß, und dies ist ihre zweite fundamentale Annahme. Sie erklärt die vorgeblichen somatischen Begleitvorgänge für das eigentlich Psychische, sieht dabei zunächst von der Qualität des Bewußtseins ab.” (S. Freud 1977: 18f.).

Aus dieser Perspektive sind Menschen selbst in vielerlei Hinsicht Blackboxes. Unser Innenleben – “das eigentlich Psychische” – ist weder uns selbst noch anderen vollständig zugänglich. Unsere innere Informationsverarbeitung läuft aber keineswegs zufällig ab, sondern strukturiert. Das Unbewusste wird deshalb als eine strukturierende Ordnung verstanden, welche als komplexes Zusammenspiel von körperlichen Bedürfnissen (in der Psychoanalyse ist auch von “Trieben” die Rede), primärer Sozialisation in der Familie und sekundärer Sozialisation in der Gesellschaft zustande kommt. Diese strukturierende Ordnung hat ihre eigene Logik und durchkreuzt bisweilen unsere bewusste Intentionalität. Sie hat eine eigene, latente Intentionalität in der Form eines unbewussten Begehrens. Diese innere Ausrichtung führt immer mal wieder zu eigenen Handlungen, welche wir selbst nicht ganz verstehen – und womöglich daran leiden.

Psychoanalytisch äußert sich das Unbewusste über Symptome, also über (wiederholte) Brüche in der Alltagspraxis, die sich dem bewussten Wollen entziehen und dieses aber trotzdem strukturieren. Ein (freudscher) Versprecher ist kein Zufall, sondern Ausdruck des Unbewussten. Weil diese Symptome oft unangenehm sind und Leiden verursachen, werden sie womöglich abgewehrt, damit sie nicht ins Bewusstsein gelangen. Denn würden sie dies tun, wären sie womöglich sehr destabilisierend und kaum auszuhalten. Anna Freud hat eine Typologie von Abwehrmechanismen vorgeschlagen (A. Freud 1993). Die Verdrängung ins Unbewusste ist einer dieser Abwehrmechanismen: Um Angst oder Schuldgefühle zu vermeiden, werden beispielsweise dramatische Erlebnisse aus der Kindheit aus dem Bewusstsein gelöscht, bleiben aber im Unbewussten erhalten und wirken so latent auf unser Verhalten, erzeugen innere Konflikte, welche sich als Symptome zeigen. Wir alle haben – stärker oder schwächer ausgeprägt – solche Muster. Freud nennt dies die Alltagspathologien. Damit gemeint sind auch Dinge wie zum Beispiel den Schlüssel zu Hause liegen lassen und uns aussperren. Diese Vergesslichkeit ist womöglich Ausdruck eines unbewussten inneren Konfliktes.

Für die Analyse von LLMs scheint mir insbesondere der Abwehrmechanismus der Rationalisierung interessant. Dieser bedeutet, dass man seinem eigenen Verhalten, welches gar nicht so genau verstanden wird, im Nachhinein eine scheinbar logisch oder moralisch akzeptable Begründung gibt, um die selbst nicht verstandene Handlung als vernünftig erscheinen zu lassen.

LLMs haben selbstverständlich keine materiellen Bedürfnisse im Sinne von (Lebens-)Trieben und sie haben auch kein Bewusstsein. Sie sind genuin reaktiv, ihnen fehlt eine Intentionalität. Trotzdem können die hier angedeuteten Begriffe aus der Psychoanalyse hilfreich sein, um Analogien von der Blackbox Mensch zur Blackbox LLM zu ziehen.

3. Das Unbewusste als Analogie zur LLM Blackbox

LLMs wurden als “stochastic parrots” bezeichnet (Bender u. a. 2021). Vereinfacht gesagt, liegt ihnen eine grosse Datenmenge Text zugrunde, welche sie auf Zusammenhänge analysieren, um anschliessend – durch Anhängen des jeweils als das am wahrscheinlichsten erachtete nächste Wort – durch unzähige Wahrscheinlichkeitsrechnungen einen Text zu erzeugen. Sie sind gewissermassen sehr ausgeklügelte Auto-Complete-Maschinen. Dieser probabilistische Charakter macht sie schwer berechenbar. Er ermöglicht die (bedingte) Kreativität von LLMs, welche überraschend oder gar “lebendig” wirken kann. Er führt aber notwendigerweise auch zu den Halluzinationen fernab von Faktizität. Die probabilistische Architektur ist auch einer der zentralen Gründe für die Intransparenz der Outputs: LLMs werden bewusst so konstruiert, dass sie nicht streng deterministisch das jeweils wahrscheinlichste nächste Folgewort wiedergeben, sondern immer mehrere Kandidaten von wahrscheinlichen, bzw. möglichen Folgewörtern zur Auswahl stehen (vgl. Huyen 2025: 88ff.). Wenn im LLM-Jargon davon gesprochen wird, die “Temperatur” eines LLMs zu erhöhen, bedeutet dies eine erhöhte Wahrscheinlichkeit, dass das LLM nicht das statistisch am wahrscheinlichsten auf die bisherigen Wörter folgende Wort auswählt, sondern mit höherer Wahrscheinlichkeit ein “selteneres” Folgewort anhängen wird. Ergo: Das Modell wird kreativer, unberechenbarer – und halluzinierender. LLMs haben somit eine als Gesamtheit gegebene interne Struktur, welche sich durch die zugrunde liegenden Trainingsdaten, der Modellkonstruktion, der Gewichtung von Parametern, dem Finetuning im Post-Training und der Konfiguration der probabilistischen Output-Erzeugung zusammensetzt.

Wir können deshalb versuchen, den Begriff des Unbewussten auf diese Struktur von LLMs zu übertragen. LLMs operieren mit impliziten Strukturen, mit nicht zugänglichen Regeln. Natürlich haben LLMs kein Unbewusstes in einem psychodynamischen Sinn, aber dennoch operieren sie unterhalb der Oberfläche, sie funktionieren auf gewisse Art wie ein Unbewusstes. Sie besitzen zwar weder Intentionalität noch Bewusstsein und sind somit kein Subjekte, sondern höchstens Subjekt-Simulationen, eine Art Apparate mit latenter Struktur. Ihre Gewichtungen, ihre “Erfahrungen” aus Trainingsdaten und auch das Output-Sampling entziehen sich expliziter Kontrolle. Daraus ergibt sich zumindest eine strukturelle Nähe zur Funktionsweise des Unbewussten und die gleiche Unmöglichkeit, die inneren Vorgänge vollständig zu begreifen.

Wenn wir das Blackbox-Phänomen in psychoanalytischer Terminologie als ein Art “Unbewusstes” von LLMs beschreiben, ermöglicht dies ein Nachdenken mit weiteren psychoanalytischen Begriffen. Die menschliche Sozialisation hätte ihr Äquivalent im Training des Modells. Bei Menschen wird die psychische Struktur herausgebildet durch Aufwachsen in ein familiäres und gesellschaftliches Umfeld und der Internalisierung von dessen Sprache, Wissen und Normen. Die “Sozialisation” des LLMs in welchem es seine “psychische” Struktur herausbildet, konstituiert sich analog aus der Umwelt bestehend aus Trainingsdaten, Modellarchitektur, Finetuning. Auch hier hinkt der Vergleich. Und trotzdem besteht eine strukturelle Ähnlichkeit zwischen der Weitergabe von diskriminierenden Vorurteilen innerhalb von Familien einerseits sowie von Biases von LLMs (eine Art “Symptome”) aufgrund nicht-repräsentativer Trainingsdaten andererseits.

Eine symptomatische Logik von LLMs lässt sich auch darüber hinaus beobachten, wenn Modelle aufgrund ihrer zugrundeliegenden Datenstruktur und Architektur halluzinieren oder sich argumentativ verstricken. ChatGPT produziert auf Nachfragen zu gemachten Falschaussagen oftmals weitere Falschaussagen (nicht ohne sich davor für die erste Falschaussage ausgiebig zu entschuldigen). Zhang u. a. (2023) nennen dieses Phänomen “snowballing hallucinations”. Nachdem das Modell eine falsche Annahme gemacht und eine Halluzination erzeugt hat, wird es (auf Nachfrage) oftmals weitere Halluzinationen erzeugen, um die anfängliche falsche Annahme zu rechtfertigen (Huyen 2025: 108). Interessanterweise zeigen die Autoren, dass anfängliche falsche Annahmen dazu führen können, dass das Modell Fehler bei Fragen macht, die es sonst richtig beantworten könnte. Dieses Vorgehen erinnert an den psychoanalytischen Abwehrmechanismus der Rationalisierung. Zwar gesteht ChatGPT seine Falschaussage ein, produziert dann aber – diese rechtfertigend und sich erklärend verstrickend – weitere Halluzinationen oder Fehler.

4. Eine “Psychoanalyse” von LLMs?

Die Psychoanalyse ist nicht nur Wissenschaft, sondern auch analytische und therapeutische Praxis mit dem Ziel, unbewusstes bewusst zu machen. Die Aufgabe der Analytikerin ist es, dem Analysanden zu helfen, einen Teil seiner unbewussten psychischen Dynamiken verstehen zu können. Dieses Setting unterstellt, dass die Analytikerin das Unbewusste des Analysanden potenziell besser verstehen kann, als er selbst. Für den Analysanden gilt die zentrale Regel der freien Assoziation: Alles was ihm einfällt, muss er laut aussprechen. Dieses Gesagte ist das Material, mit dem die Analytikerin arbeitet.

Ein wichtiges Instrument ist das Erinnern und Durcharbeiten. Indem biografische Erfahrungen durch den Analysanden ausgesprochen werden, wird das Erinnerungsvermögen angeregt. Mit Hilfe der Analytikerin, welche Erfahrungen (oder ihre Lücken) einordnet und in Zusammenhang mit der Gegenwart bringt, wird es möglich, gegenwärtige Dynamiken vor dem Hintergrund früher Erfahrungen (z.B. aus der Kindheit) besser verstehen und reflektieren zu können – bewusst zu machen. Die Psychoanalyse geht davon aus, dass frühe Erfahrungen in der Gegenwart erneut aktualisiert werden, in völlig anderen sozialen Kontexten. Dies wird Übertragung genannt. Je mehr vom früheren sozialen Kontext bekannt ist, desto besser kann verstanden werden, wieso man immer wieder in ähnliche misslichen Situationen gerät. Womöglich werden problematische Beziehungsmuster zu den Eltern in neue Beziehungen übertragen und sorgen dort für Herausforderungen.

Auch LLMs werden in einem spezifischen Kontext mit Daten, Finetuning etc. trainiert oder “sozialisiert”. Ein LLM überträgt die dort gelernten Kontexte geschickt aber blind auf den jeweils neuen, gegenwärtigen Kontext als Chatbot. Wenn wir also das “Unbewusste” von LLMs verstehen wollen, hilft es diesen Entstehungskontext zu kennen. Je mehr von diesem bekannt ist, desto eher kann rekonstruiert werden, wieso ein LLM zu dieser oder jener Aussage kommt. Dies ist bei kommerziellen Closed-Source-LLMs nicht möglich, weil Trainingsdatenbasis und Tuning-Parameter nicht bekannt gegeben werden. Offene LLMs bieten diesbezüglich mehr Möglichkeiten. Soweit, so bekannt.

Die Psychoanalytikerin nutzt ein weiteres Instrument zur Ergründung des Unbewussten des Analysanden: die Gegenübertragung. Wenn der Analysand frühere Beziehungsmuster auf die Analytikerin überträgt, löst dies womöglich in dieser selbst Affekte aus, welche wiederum mit ihrer Biografie zu tun haben. Womöglich wird sie wütend, genervt oder traurig. Die Gegenübertragung ist ein wichtiges Mittel der Analytikerin, um das Unbewusste ihres Analysanden zu verstehen. Im Unterschied zum Analysanden hat die Analytikerin ihre Beziehungsmuster in der eigenen Selbsterfahrung reflektiert und weiss sie einzuordnen. Sie kann deshalb über ihre eigenen Affekte und inneren Reaktionen Erkenntnisse über das Unbewusste ihres Analysanden gewinnen. Dadurch macht sie ihr Innenleben quasi selbst zum Forschungsinstrument.

Um den ontologischen Status von LLMs verstehen zu können, müssten wir womöglich in ähnlicher Weise den Blick vor allem auf uns selbst richten. Obwohl LLMs keine Subjekte sind, verhalten wir uns ihnen gegenüber so. Wir lassen uns von ihnen affizieren, wollen in der “Kommunikation” mit ihnen etwas lernen, in Erfahrung bringen oder bewerkstelligen. Wir könnten systematisch analysieren, welche Affekte und Reaktionen in der “Kommunikation” mit LLM in uns auftreten. Ein solches Programm wird auch in sozialwissenschaftlichen Methoden genutzt. Für die Methode der Tiefenhermeneutik nach Alfred Lorenzer werden in der Gruppe Texte, z.B. Interviewtranskripte gelesen und anhand der eigenen oder in der Gruppe auftauchenden (affektiven) Reaktionen, der Gegenübertragungen, analysiert. Eine solche Methodik auf Texte anzuwenden, welche in “Dialogen” mit LLMs entstanden sind, wäre zumindest ein interessanter Versuch, etwas über LLMs und ihren ontologischen Status zu lernen.

5. Fazit: Die Anthropomorphisierung reflektieren

Als soziale Wesen, deren Identität ihre Genese in der Gruppendynamik hat, können wir nicht anders als gelernte Beziehungsmuster auf neue Beziehungen zu übertragen. Das ist auch der Grund, wieso wir überhaupt darauf einlassen, mit LLMs zu “sprechen”. Wir wissen, dass sie Maschinen sind, in die wir keinen Einblick haben. Aber wenn wir mit einem Chatbot “sprechen”, dann müssen wir kontrafaktisch unterstellen, dass er etwas Wahres, Richtiges oder für uns relevantes sagen kann. In der menschlichen Kommunikation verhält es sich gleich: wir haben keinen Einblick ins Gegenüber. Auch wir sind uns gegenseitig Blackboxes und können nie ganz sicher sein, ob eine Aussage begründet werden könnte, ob sie aus dem Affekt heraus gesagt ist, ob sie wahr ist (bezogen auf die äussere Welt als Faktizität oder bezogen auf die innere Welt als Authentizität). Ein LLM erhebt solche Anspräche nicht, aber wir tun. In der faktischen Nutzung von LLMs können wir gewissermassen gar nicht anders, als sie zu anthropomorphisieren.

Um solche “Interaktionen” und den ontologischen Status von LLMs als Blackboxes besser zu verstehen, können Begriffe und Methoden der Psychoanalyse helfen. Der Weg dahin geht deshalb womöglich über den “Umweg”, den Blick auf unsere Reaktionen auf die Maschine zu richten, statt auf diese selbst.

Literatur

Bender, Emily M./Gebru, Timnit/McMillan-Major, Angelina & Shmitchell, Shmargaret (2021): «On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜». in: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, Virtual Event Canada: ACM, 610–623. https://dl.acm.org/doi/10.1145/3442188.3445922 (11. August 2025).

Freud, Anna (1993): Das Ich und die Abwehrmechanismen. Frankfurt: Fischer Taschenbuch.

Freud, Sigmund (1977): Abriss der Psychoanalyse. 591. - 610. Tsd. Frankfurt am Main: Fischer-Taschenbuch-Verlag.

Gunkel, David & Coghlan, Simon (2025): «Cut the Crap: A Critical Response to ‹ChatGPT Is Bullshit›». Ethics and Information Technology 27(2): 23. https://doi.org/10.1007/s10676-025-09828-3 (25. Juli 2025).

Hicks, Michael Townsen/Humphries, James & Slater, Joe (2024): «ChatGPT Is Bullshit». Ethics and Information Technology 26(2): 38. https://doi.org/10.1007/s10676-024-09775-5 (24. Juli 2025).

Huyen, Chip (2025): AI Engineering: Building Applications with Foundation Models. First edition. Sebastopol,CA: O’Reilly.

Marcus, Gary (2025): «LLMs Are Not like You and Me—and Never Will Be.» https://garymarcus.substack.com/p/llms-are-not-like-you-and-meand-never?publication_id=888615&utm_campaign=email-post-title&r=aaxy9&utm_medium=email (16. August 2025).

Törnberg, Petter (2024): «Large Language Models Outperform Expert Coders and Supervised Classifiers at Annotating Political Social Media Messages». Social Science Computer Review: 08944393241286471. https://doi.org/10.1177/08944393241286471 (11. August 2025).

Zhang, Muru u. a. (2023): «How Language Model Hallucinations Can Snowball». http://arxiv.org/abs/2305.13534 (11. August 2025).