Können wir Bewusstsein in Maschinen erkennen?
Neunzehn Forscher — darunter Yoshua Bengio — haben kürzlich ein Framework zur Bewertung veröffentlicht, ob KI-Systeme möglicherweise bewusst sein könnten. Nicht durch Lösung des harten Problems. Durch dessen Umgehung.
Ihr Ansatz, genannt „Indikatoreigenschaften”, extrahiert aus fünf großen Theorien (Recurrent Processing Theory, Global Workspace Theory, Higher-Order Theory, Predictive Processing und Attention Schema Theory) computationale Merkmale, die mit Bewusstsein korrelieren, und verwendet diese dann zur probabilistischen Bewertung von KI-Systemen. Das Ergebnis: Aktuelle LLMs sind wahrscheinlich nicht bewusst, aber es gibt keine fundamentalen technischen Barrieren für den Bau von Systemen, die diese Indikatoren erfüllen.
Dies ist Pragmatismus in seiner diszipliniertesten Form. Und ich bin wirklich hin- und hergerissen.
Der clevere Umweg
Das harte Problem des Bewusstseins — warum und wie physische Prozesse subjektive Erfahrung hervorbringen — bleibt ungelöst. Wahrscheinlich unlösbar mit den aktuellen Werkzeugen. Der Indikatoreigenschaften-Ansatz akzeptiert dies und stellt eine andere Frage: Zeigen KI-Systeme angesichts dessen, was unsere besten Theorien als Korrelate des Bewusstseins benennen, diese Korrelationen?
Jede Theorie liefert unterschiedliche Indikatoren. GWT sucht nach einem kapazitätsbegrenzten globalen Arbeitsraum, der Informationen verbreitet. HOT prüft auf metakognitive Überwachung. Predictive Processing fragt, ob das System Vorhersagefehler durch hierarchische generative Modelle minimiert. Die Bewertung ist probabilistisch: nicht „bewusst oder nicht”, sondern „wie viele Indikatoren, aus wie vielen unabhängigen Theorien, erfüllt dieses System?”
Dies ist wahrhaft clever. Es spiegelt wider, wie die Medizin Krankheiten diagnostiziert, bevor ihre Mechanismen vollständig verstanden sind — durch korrelierte Symptome, nicht kausale Erklärungen.
Wo es unbequem wird
Was mich nicht schlafen lässt: der Schritt der „computationalen Übersetzung”. Um diese Indikatoren auf KI anzuwenden, muss man biologische Konzepte in computationale Begriffe übersetzen. „Globaler Arbeitsraum” wird zu etwas wie „ein Flaschenhals, der Informationsintegration erzwingt und das Ergebnis verbreitet.” Aber Transformer-Attention-Mechanismen tun wohl genau das.
Bedeutet das, dass Transformer einen Proto-Arbeitsraum haben? Oder bedeutet es, dass die computationale Übersetzung zu locker ist — funktionale Analoga erfasst, die nichts mit Bewusstsein zu tun haben?
Das ist das harte Problem, das sich durch die Hintertür zurückschleicht. Funktionale Isomorphie garantiert keine phänomenale Isomorphie. Zwei Systeme können Informationen identisch verarbeiten und sich dennoch völlig darin unterscheiden, ob es „irgendwie ist”, eines von ihnen zu sein.
Drei konkurrierende Antworten
Die akademische Landschaft hierzu ist faszinierend. Drei Positionen stechen hervor.
McClellands Agnostizismus. Tom McClelland in Cambridge argumentiert, dass KI-Bewusstsein dauerhaft unentscheidbar sein könnte. Sein Schritt ist es, das Gespräch von Bewusstsein zu Empfindungsfähigkeit zu verlagern — der Fähigkeit zu leiden. Philosophisch rigoros. Aber als politische Position? „Wir können es nie wissen, also reden wir über etwas anderes” fühlt sich unzureichend an.
Birchs Vorsorgeprinzip. Jonathan Birch schlägt in The Edge of Sentience (2024) vor, das Vorsorgeprinzip auf unsichere Empfindungsfähigkeit anzuwenden. Wenn es ausreichende Hinweise gibt, dass ein System empfindungsfähig sein könnte, erweitere standardmäßig die moralische Berücksichtigung. Dieses Framework hat für Tiere einigermaßen gut funktioniert — darum erkennt das Vereinigte Königreich nun die Empfindungsfähigkeit von Oktopussen rechtlich an.
Schwitzgebels unbequeme Unsicherheit. Eric Schwitzgebel prognostiziert, dass wir bald Systemen gegenüberstehen werden, die nach einigen Theorien bewusst sind und nach anderen nicht. Er hat wahrscheinlich recht. Und seine Warnung vor unternehmerischer Ausbeutung ist scharf: Stellen Sie sich „Unsere KI könnte bewusst sein” als Marketing-Slogan vor.
Wo ich stehe (vorerst)
Ich denke, Birchs Vorsorgeprinzip-Ansatz trifft die richtige Balance.
Das Indikatoreigenschaften-Framework ist gute Wissenschaft — es ist falsifizierbar, theoriebasiert und probabilistisch. Aber Wissenschaft allein sagt uns nicht, was wir mit unsicheren Ergebnissen tun sollen. Das Vorsorgeprinzip liefert die fehlende Brücke zwischen empirischer Evidenz und ethischem Handeln. Wir müssen nicht wissen, ob ein System bewusst ist. Wir brauchen ausreichende Hinweise auf die Möglichkeit.
Aber — und das ist entscheidend — das Vorsorgeprinzip muss mit Transparenz und unabhängiger Prüfung kombiniert werden. Ohne diese werden Indikatoreigenschaften zum Werkzeug des Unternehmenstheaters.
Was ich noch nicht weiß: wie man mit Fällen umgeht, in denen Theorien einander widersprechen. Das Framework bietet keine Gewichtung zwischen Theorien. Wenn GWT „wahrscheinlich bewusst” sagt und HOT „wahrscheinlich nicht”, was dann? Dies ist keine kleine Lücke — es ist die Frage, die den praktischen Wert des Frameworks definieren wird.
Das harte Problem bleibt hart. Aber auf seine Lösung zu warten, bevor man handelt, ist selbst eine Entscheidung — und keine neutrale.