Wie Big Tech, Begriffsverschiebung und das ungelöste Bewusstseinsproblem eine gefährliche Mischung bilden:
Es gehört inzwischen fast zum Ritual der Tech-Debatte: In regelmäßigen Abständen wird verkündet, dass ein entscheidender Durchbruch unmittelbar bevorstehe – oder bereits erreicht sei. Auch im Fall der künstlichen Allgemeinintelligenz (AGI) häufen sich solche Aussagen. Systeme werden leistungsfähiger, universeller, überzeugender. Und plötzlich steht die Behauptung im Raum, man habe die Grenze zur „allgemeinen Intelligenz“ überschritten.
Doch vielleicht ist dieser Satz weniger eine Feststellung als ein Symptom. Ein Symptom dafür, dass wir begonnen haben, etwas zu benennen, dessen Bedeutung wir nicht mehr genau kennen – und dessen Unschärfe inzwischen systematisch genutzt wird.
Denn was genau wäre eigentlich erreicht worden?
Ein Begriff im Umlauf – und unter Druck
Künstliche Allgemeinintelligenz klingt wie ein technischer Begriff. Tatsächlich ist er längst zu einem strategischen geworden. In Forschungspapieren, Keynotes, Investorenpräsentationen und Medienberichten zirkuliert „AGI“ als Marker für Fortschritt, als Versprechen, als Signal. Das Problem: Der Begriff ist elastisch.
Er kann vieles bedeuten – von vielseitiger Problemlösung bis hin zu echtem Verständnis. Und je nach Kontext wird genau die Variante betont, die gerade nützlich ist.
Das macht AGI anschlussfähig. Und anschlussfähig heißt im aktuellen Umfeld vor allem: verwertbar.
Die Ökonomie der großen Worte
Es ist kein Zufall, dass AGI gerade jetzt Konjunktur hat. Der Wettbewerb im KI-Sektor ist intensiv, die Summen sind enorm, die Erwartungen hoch. Begriffe werden in diesem Umfeld nicht nur verwendet, sondern strategisch eingesetzt.
Der Unternehmer Sam Altman formulierte etwa:
„AGI entspricht im Grunde einem durchschnittlichen Menschen, den man als Mitarbeiter einstellen könnte.“
Eine scheinbar pragmatische Definition – die jedoch sofort Fragen aufwirft: Was genau ist ein „durchschnittlicher Mensch“? Und was bedeutet „entspricht“ in diesem Kontext?
Gleichzeitig äußerte Jensen Huang:
„Ich glaube, wir haben die künstliche Allgemeinintelligenz (AGI) erreicht.“
Solche Aussagen sind weniger technische Diagnosen als kommunikative Setzungen. Sie verschieben Erwartungen, rahmen Wahrnehmung und beeinflussen Investitionsentscheidungen.
AGI wird damit zu einem Begriff, der nicht nur beschreibt, sondern performt.
Wenn Simulation zur Intelligenz wird
Parallel dazu haben sich die Systeme selbst verändert. Sie sind besser geworden – nicht nur funktional, sondern rhetorisch. Sie wirken kohärent, anschlussfähig, oft erstaunlich souverän.
Und genau darin liegt ihre Stärke: Sie erzeugen den Eindruck von Verständnis.
Doch Eindruck ist nicht Identität.
Der Philosoph John Searle brachte es früh auf den Punkt:
„Syntax allein genügt nicht für Semantik.“
Ein System kann mit Symbolen operieren, ohne ihre Bedeutung zu verstehen. Es kann Antworten generieren, ohne zu wissen, was es sagt.
Diese Einsicht hat nichts von ihrer Gültigkeit verloren – aber ihre praktische Relevanz hat sich dramatisch erhöht. Denn die Systeme sind inzwischen so überzeugend, dass die Differenz kaum noch sichtbar ist.
Das, was sich nicht verkaufen lässt
Inmitten dieser Dynamik gibt es eine Frage, die sich hartnäckig entzieht: die nach dem Bewusstsein.
Der Philosoph David Chalmers formulierte das Problem so:
„Warum sollte eine rein physische Verarbeitung überhaupt ein reiches Innenleben hervorbringen?“
Diese Frage ist schwer operationalisierbar. Sie passt nicht in Benchmarks, nicht in Produktbeschreibungen, nicht in Wachstumsprognosen.
Und genau deshalb wird sie oft ausgeblendet.
Doch ihr Verschwinden aus der Diskussion bedeutet nicht, dass sie irrelevant ist. Es bedeutet nur, dass sie unbequem ist – für Wissenschaft wie für Marketing.
Die stille Verschiebung der Maßstäbe
Wenn Bewusstsein aus dem Diskurs verschwindet, verändert sich der Begriff von Intelligenz selbst. Dann genügt es, dass ein System sich intelligent verhält, um als intelligent zu gelten.
Der KI-Forscher Yann LeCun warnte in diesem Zusammenhang:
„Die derzeitigen KI-Systeme sind nicht intelligent. Sie verstehen die Welt nicht.“
Doch solche Stimmen gehen im allgemeinen Fortschrittsnarrativ oft unter. Denn sie bremsen eine Dynamik, die ökonomisch und medial attraktiv ist.
So entsteht eine Verschiebung, die kaum bemerkt wird: Was früher als Simulation galt, erscheint heute als Intelligenz – nicht weil es sich verändert hat, sondern weil wir es anders benennen.
„Und sie wissen nicht, was sie tun“ – im Zeitalter der Skalierung
In dieser Situation bekommt eine alte Formel eine neue Bedeutung: „und sie wissen nicht, was sie tun“. Gemeint ist damit keine individuelle Unwissenheit. Die Systeme werden mit höchster Präzision entwickelt.
Und doch bleibt eine Leerstelle: Wir wissen, wie wir diese Systeme bauen – aber nicht, was wir damit hervorbringen.
Diese Leerstelle wird durch die Dynamik des Feldes verstärkt. Wettbewerb, Skalierung und Kapitaldruck erzeugen einen permanenten Vorwärtsdrang. Begriffe werden dabei nicht nur beschrieben, sondern eingesetzt.
AGI wird so zu einem Label, das mehr verspricht, als es klärt.
Die doppelte Verzerrung
Aus dieser Konstellation ergeben sich zwei gegenläufige Risiken.
Wir könnten Systeme unterschätzen, weil wir ihre möglichen Eigenschaften nicht erkennen. Gleichzeitig könnten wir sie überschätzen, indem wir ihnen Fähigkeiten zuschreiben, die sie nicht besitzen.
Beides ist problematisch – und beides wird durch Marketing verstärkt. Denn Marketing lebt von Vereinfachung, Zuspitzung und Wiederholung. Es reduziert Komplexität, um Orientierung zu schaffen.
Doch in diesem Fall erzeugt es eine gefährliche Illusion von Klarheit.
Zwischen Wissenschaft und Erzählung
AGI bewegt sich damit in einem eigentümlichen Zwischenraum. Es ist zugleich Forschungsziel, philosophisches Problem und kommunikatives Instrument.
Und vielleicht liegt genau darin seine eigentliche Wirkung: Es erlaubt, über etwas zu sprechen, das noch nicht klar definiert ist – und es dabei so erscheinen zu lassen, als wäre es greifbar.
Eine notwendige doppelte Vorsicht
In dieser Situation reicht es nicht, auf begriffliche Präzision zu pochen. Es braucht auch eine praktische Vorsicht gegenüber einer Technologie, deren Wirkung wir bereits erleben, deren Wesen wir aber nicht verstehen. Wir sollten vorsichtig sein – nicht weil wir Fortschritt fürchten, sondern weil wir seine Voraussetzungen nicht vollständig kennen.
Das bedeutet, Begriffe kritisch zu prüfen. Narrative zu hinterfragen. Und sich nicht allein von der Überzeugungskraft der Systeme leiten zu lassen.
Fazit: Die gefährliche Plausibilität
Die vielleicht größte Herausforderung der aktuellen KI-Entwicklung liegt nicht in ihrer Komplexität, sondern in ihrer Plausibilität. Die Systeme wirken so, als verstünden sie – und genau deshalb beginnen wir, ihnen Verständnis zuzuschreiben.
AGI steht dabei im Zentrum eines Spannungsfelds aus Technik, Philosophie und Marketing. Ein Begriff, der mehr verspricht, als er klärt. Ein Ziel, das sich verschiebt, während wir ihm näher zu kommen glauben.
Und vielleicht ist genau das die eigentliche Gefahr: Nicht, dass Maschinen zu intelligent werden, sondern dass wir beginnen, ihre Intelligenz zu behaupten, bevor wir verstanden haben, was Intelligenz überhaupt ist.
Quellen und weiterführende Links
- https://en.wikipedia.org/wiki/Artificial_general_intelligence
- https://debateus.org/what-is-artificial-general-intelligence-definitions-from-experts/
- https://en.wikipedia.org/wiki/Hard_problem_of_consciousness
- https://plato.stanford.edu/entries/chinese-room/
- https://consc.net/papers/facing.html
- https://www.techradar.com/ai-platforms-assistants/i-think-weve-achieved-agi-er-jensen-i-dont-think-we-have
- https://www.tomsguide.com/ai/i-think-weve-achieved-agi-nvidias-ceo-believes-weve-finally-achieved-artificial-general-intelligence



Schreibe einen Kommentar
Du musst angemeldet sein, um einen Kommentar abzugeben.