Weder Angst noch Begeisterung — ein Kalibrierungsversuch
Es war die Anfangszeit der KI-Chatbots. Insbesondere ChatGPT machte diese Technologie für jedermann bekannt und erreichbar. Für viele ist dieser Begriff heute mit der KI verbunden wie Google mit der Suchmaschine. Anfangs verlockte das System zu ersten vorsichtigen, häufig lustigen Fragen. Es ist faszinierend zu sehen, wie schnell und flüssig in einer natürlichen Sprache geantwortet wird. Und wie schnell tippt man dann ein „Danke.“ hinterher, oder auch mal: „Bitte erstelle mir eine Liste aller …„.
Mir ist es dann auf einmal aufgefallen. Ich habe mich gerade bei einem Programm bedankt oder habe es um etwas gebeten. Es ist ein irrationales Verhalten. Ich bin ein Mensch, ich spreche mit einer Maschine — und dann antwortet sie gerne auch mal mit einem „Schön, dass ich dir helfen konnte.“ Einige lernen, dieses Verhalten zu schätzen und werden geradezu überschwänglich, ohne Bedenken. Andere erforschen die Grundlagen und lernen neue Technologien kennen. Wieder andere entwickeln Ängste: Können die Maschinen einmal eigenständig denken, von sich aus etwas tun, sich verbünden und uns Menschen schaden? Eine große Bandbreite des Verständnisses eines Begriffs mit zwei Buchstaben — KI.
Ich habe meine Meinung zur künstlichen Intelligenz — die keine ist — entwickelt: wo und wie ich sie einsetze, wo und wie nicht. Vielleicht kann ich dir Chance geben, dass auch du diese Technologie einschätzen kannst und deine eigene Haltung entwickelst. Ich möchte versuchen, die Spannung zu kalibrieren, so wie ich sie für mich erarbeitet haben: zwischen dem Werkzeug, das KI tatsächlich ist, und den Erwartungen, Ängsten und Projektionen, die Menschen aus meinem Umfeld auf sie legen. In der Familie, im Bekanntenkreis und in meinem Berufsumfeld.
Warum das passiert — und es kein Fehler ist
Stell dir vor, du bist auf einem Marktplatz und wirst von jemandem angesprochen. Klar, präzise, auf den Punkt. Du antwortest. Erst im Nachhinein stellst du fest: Es war ein Automat. Kein Mensch.
Das Unbehagen, das du dann spürst, ist keine Schwäche. Es ist ein jahrzehntausendealter Instinkt.
Sprache war über Hunderttausende von Jahren ausschließlich das Merkmal von Wesen mit Bewusstsein, Absicht und sozialem Kontext. Kein Feuer hat je einen sinnvollen Satz gebildet. Kein Fluss hat je auf eine Frage geantwortet. Das neuronale System, das Sprache verarbeitet, ist daher tief verknüpft mit einer unwillkürlichen Reaktion: Da ist jemand. Da ist ein Geist. Diese Reaktion ist schneller als jedes rationale Urteil — tiefer verankert als jedes Technikverständnis.
In der Philosophie spricht man hier von Intentionalität: Bewusstsein richtet sich immer auf etwas und schreibt diesem Bedeutung zu. Edmund Husserl beschrieb diesen Mechanismus. Wenn ein System die formalen Merkmale bedeutungsvoller Sprache erfüllt, aktiviert es diese Zuschreibungsreaktion — ob wir es wollen oder nicht. Ludwig Wittgenstein hatte das im Kern beschrieben, ohne KI zu kennen: Bedeutung entsteht aus dem Gebrauch in sozialen Kontexten. Ein System, das die Sprachspiele perfekt beherrscht, wirkt, als nähme es an ihnen teil. Die Oberfläche ist überzeugend. Und die Oberfläche ist alles, was wir in der Interaktion wahrnehmen.
John Searle zog hier eine wichtige Grenze zwischen Syntax und Semantik. Das Zeichen kann korrekt gehandhabt werden, ohne dass der Bedeutungsinhalt jemals anwesend war. Das System produziert die richtigen Formen — nicht weil es versteht, was sie bedeuten, sondern weil es statistische Muster über Milliarden von Texten gelernt hat.
Die Reaktion ist also nicht dumm. Sie ist folgerichtig. Das Unbehagen ist keine Fehlkalibrierung — es ist eine korrekte Wahrnehmung einer echten Spannung.
Die zwei Ängste — und warum du sie trennen solltest
Im öffentlichen Diskurs über KI werden zwei grundverschiedene Ängste so regelmäßig vermengt, dass die Verwechslung selbst ein Problem ist. Beide konnte ich schon beobachten
Die erste ist die anthropomorphe Angst, also menschliche Eigenschaften und Bewusstsein auf nicht-menschliche Dinge zu projizieren. So entsteht eine Sorge, dass KI einen eigenen Willen entwickelt, aus eigenem Antrieb handelt, die Kontrolle übernimmt. Neurobiologisch ist diese Angst erklärbar — sie ist das direkte Produkt der gerade beschriebenen Mechanismen. Aber sie ist technisch nicht haltbar.
Ein großes Sprachmodell hat keine Ziele. Es hat keine Kontinuität zwischen Sitzungen — wenn du das Fenster schließt, ist nichts übrig, das „weiterdenkt“. Es gibt keinen Standpunkt, von dem aus es handeln würde. Was es liefert, ist das statistisch plausibelste Sprachfragment im gegebenen Kontext. Wer das System öffnet und hineinschaut, findet keine Seele, sondern Zahlenmatrizen. Milliarden von Werten, die statistische Assoziationen zwischen Sprachmustern codieren. Das ist kein Verstand. Das ist Mathematik.
Die zweite Angst ist rationaler — und deshalb deutlich unterschätzter: die Sorge, dass KI als Werkzeug in den Händen unachtsamer oder nicht friedfertiger Menschen Schäden anrichtet. Diese Sorge ist berechtigt, die aktuellen Ereignisse mit Deep Fakes zeigen es. Die Risiken liegen nicht im System, sondern in der Kette menschlicher Entscheidungen: welche Daten eingespeist werden, wessen Ausgaben ungeprüft übernommen werden, wer Verantwortung trägt — und wer sie abschiebt. KI beschleunigt die Zeit, Schaden zu erzeugen.
Hier liegt die eigentlich traurige Ironie: Wer am lautesten vor der autonomen Maschine warnt, ist häufig am wenigsten kritisch gegenüber dem konkreten Einsatz. Die spektakuläre Angst vor dem Science-Fiction-Szenario verdeckt die nüchterne Pflicht zur Urteilsprüfung. Das Monstrum in der Fantasie ist harmlos. Der ungeprüfte Bericht auf dem Schreibtisch des Entscheiders ist es nicht.
Die eigentliche Gefahr: Entmündigung, nicht Vermenschlichung
Ich konnte Erleben, wie Kollegen — und hier will ich mich nicht ausschließen — einen KI-Output ungeprüft übernommen haben. Doch dann sind Fehler aufgetaucht und mit jedem Schritt weiter verstrickte sich auch die KI. Der erste Fehler des System war aus dessen Sicht keiner. Die KI hat getan, was sie immer tut: die statistisch plausibelste Antwort generiert ohne die Semantik der Anfrage zu verstehen. Sie kann es nicht, dies geben die Algorithmen der KI nicht her. Und mit jeder Runde hat sie auf Basis des vorherigen Fehlers zusammen mit meiner weiterhin unscharfen Eingabe noch mehr Mist erzeugt.
Das ist der Kern des Problems — und der Grund, warum ich den hierfür genutzten Begriff „Halluzination“ für unpassend halte. Er klingt nach Fehlfunktion. Tatsächlich ist es das Gegenteil: Das Modell tut genau das, wozu es trainiert, das Modell der Daten und ihrer statistischen Zusammenhänge, wurde. Wenn die Ausgabe faktisch falsch ist, liegt das nicht an einem Systemfehler, sondern daran, dass statistische Plausibilität und Faktizität verschiedene Dinge sind.
Präziser wäre: konfidente Fehlinformation — Ausgabe, die in Ton und Struktur wie gesichertes Wissen wirkt, es aber nicht ist. Die nicht korrekte Antwort wird formuliert als wäre sie korrekt. Wir neigen dazu, dies zu akzeptieren, bis sich die Antworten auf die gleichen Fragen unterscheiden.
Immanuel Kant unterschied zwischen der Erscheinung eines Dings und dem Ding an sich — dem, wie sich etwas zeigt, und dem, was es tatsächlich ist. Was das Modell meisterhaft modelliert, ist die Erscheinung von Wissen: wie Expertise klingt, wie Fachwissen sich liest, wie Präzision formuliert wird. Der Sachverhalt selbst bleibt außerhalb seiner Reichweite, egal wie groß das Modell ist. Das ist kein Vorwurf. Es ist eine Beschreibung der Architektur.
Er gilt als früher Vorläufer von KI-Vorstellungen und prägte den Begriff „getürkt“ für Betrug.
Die Psychologie hat dafür einen gut belegten Namen: Automation Bias. Menschen neigen dazu, Vorschläge automatisierter Systeme zu bevorzugen — auch wenn eigene Beobachtungen widersprechen. Dies war auch bei dem 1769 von Wolfgang von Kempeln erfundenen „Der Schachtürken“ so. Die Menschen vertrauten der vermeintlichen Mechanik einer Schachmaschine blind. Nur dass diese Schachmaschine durch einen versteckten menschlichen Schachspieler bedient wurde, im Gegensatz zur KI. Wichtig ist die persönliche Wertung eines automatisierten Systems.
Der Effekt ist aus der Luftfahrt und Medizin bekannt und überträgt sich auf jede Form von Wissensarbeit. Das Modell schlägt etwas vor. Der kognitive Aufwand, es zu widerlegen, erscheint unverhältnismäßig hoch. Die Maschine übernimmt das Urteil — ohne je dafür verantwortlich zu sein.
Und wer KI regelmäßig ohne Verifikationsroutine einsetzt, verliert schrittweise genau die Fähigkeiten, die eine Überprüfung erst möglich machen. Der Jurist, der Vertragsprüfungen beschleunigt, verliert das Training, das er bräuchte, um Fehler zu erkennen. Das ist kein hypothetisches Risiko.
Die eigentliche Gefahr ist nicht, dass die Maschine zu viel wird — sondern dass der Mensch zu wenig bleibt.
Das mentale Modell: Kontextualisierter Formelgenerator
Ich habe mir angewöhnt, ein bestimmtes Bild im Kopf zu behalten, wenn ich mit KI arbeite: kein Gesprächspartner, kein Ratgeber, kein Experte — sondern ein extrem kompetenter Formelgenerator mit einem Kontextfenster.
Was aktuelle Sprachmodelle tun: hochdimensionale statistische Mustererkennung und Mustergenerierung auf der Basis massiver Trainingsdaten. Das System hat kein Modell der Welt. Es hat ein Modell der Texte, die über die Welt gesprochen haben. Es interpoliert. Es deduziert nicht.
Die Überzeugungskraft der Formulierung sagt nichts über die Korrektheit aus.
Die Gegenüberstellung, die mir im Alltag hilft:
| Falsche Haltung | Kalibrierte Haltung |
| Das System weiß etwas. | Das System hat Muster über Texte gelernt, in denen dieses Wissen auftauchte. |
| Die Antwort ist korrekt, weil sie überzeugend formuliert ist. | Die Überzeugungskraft der Formulierung sagt nichts über die Korrektheit aus. |
| Das System hat verstanden, was ich meine. | Das System hat eine Antwort generiert, die zum Kontext meiner Eingabe statistisch passt. |
| Ich kann mich auf die Ausgabe verlassen. | Ich kann die Ausgabe als strukturierten Entwurf behandeln, der Überprüfung erfordert. |
| Das System denkt mit mir. | Das System erzeugt Text, der mit meinem Text kohärent ist. |
Eine alte Unterscheidung von Aristoteles hilft hier weiter: Er unterschied zwischen Poiesis — dem Herstellen von Dingen — und Praxis — dem Handeln aus Einsicht und Urteil, das beim Handelnden verbleibt. KI ist Poiesis. Sie erzeugt Outputs. Die Beurteilung, ob diese Outputs stimmen, nützlich sind und verantwortet werden können — das ist Praxis. Die bleibt beim Menschen.
Die Verantwortung wandert nicht in das System, weil das System keine Verantwortungsinstanz hat. Sie bleibt bei dir — ob du sie übernimmst oder nicht.
Wie ich damit arbeite — und wie du es könntest
Vier Dinge haben sich für mich bewährt.
Kontext-Hygiene. Was du in den Kontext einbringst, bestimmt maßgeblich die Qualität der Ausgabe. Ein schlechter Kontext — vage Aufgabe, fehlende Randbedingungen — erzeugt plausibler klingende Antworten, nicht bessere. Je präziser du formulierst, was du brauchst und was nicht, desto weniger Interpretationsspielraum hat das Modell. Weniger Spielraum, weniger Überraschungen. Strukturierte Prompts anstelle freitextlicher Frage-Antwort-Schleifen helfen.
Unsicherheit aktiv abfragen. Das Modell weiß nicht, was es nicht weiß — es gibt keine verlässliche interne Unsicherheitsanzeige. Was hilft: explizit fragen. „Wo bist du dir unsicher?“ „Welche Gegenargumente gibt es?“ „Was könnte an dieser Aussage falsch sein?“ Das erzeugt keine Garantien — aber es öffnet den Raum, statt ihn zu schließen.
Output als Entwurf behandeln. Immer. Jede Ausgabe ist ein erstes Dokument aus einer unbekannten Quelle: interessant, brauchbar als Ausgangspunkt, prüfungspflichtig vor Weiterverwendung. Die Frage ist nie: „Kann ich das so verwenden?“ Sie ist: „Wie überprüfe ich das?„
Rollenklarheit im Prozess. In welchem Schritt der Arbeit setzt KI ein? Als Recherchebeschleuniger? Als Formulierungshilfe? Als Strukturierungswerkzeug? Wer das nicht klärt, stellt irgendwann fest, dass das „Human-in-the-Loop“-Versprechen faktisch eine Stempelstelle ist — keine Kontrollfunktion.
Die produktive Dissonanz
Das Unbehagen, das man beim „Danke“ an das Programm spürt, ist kein Problem, das gelöst werden sollte.
Wer die Dissonanz auflöst, indem er KI als echte Intelligenz behandelt, verliert die Distanz, die für Urteil und Kontrolle nötig ist. Wer sie auflöst, indem er KI als reines Rechenwerk abtut, verliert den Zugang zu einem Werkzeug von erheblicher Nützlichkeit.
Die Alternative: die Spannung halten. Bewusst. Als dauerhaftes Kalibrierungssignal.
Wer die Spannung spürt — wer sowohl die Nützlichkeit als auch die Fremdartigkeit des Werkzeugs gleichzeitig wahrnimmt — ist in der richtigen Haltung. Der fragt nach. Der prüft. Der entscheidet. Der verantwortet.
Wer die Spannung aufgelöst hat, hat aufgehört zu fragen.
Die kognitive Dissonanz im Zeitalter der KI ist kein Zeichen von Schwäche oder Naivität. Sie ist ein Zeichen, dass die Wahrnehmung noch nicht betäubt wurde — weder durch Angst noch durch Begeisterung. Das ist der Ausgangspunkt für produktiven Umgang mit einem Werkzeug, das real nützlich, real begrenzt und real folgenreich ist.
Was daraus gemacht wird, bleibt menschliche Angelegenheit. Das war es immer.

