Yoshua Bengio を含む19人の研究者が、AIシステムが意識を持つかどうかを評価するフレームワークを発表した。意識のハードプロブレムを解くのではなく、迂回することで。

「指標特性(indicator properties)」と呼ばれるこのアプローチは、5つの主要な意識理論(再帰的処理理論、グローバルワークスペース理論、高次理論、予測処理、注意スキーマ理論)から意識と相関する計算論的特性を抽出し、AIシステムを確率的に評価する。結論:現行のLLMが意識を持つ可能性は低い。ただし、これらの指標を満たすシステムを構築する根本的な技術的障壁はない。

規律あるプラグマティズム。そして正直に言うと、自分はまだ揺れている。

巧妙な迂回路

意識のハードプロブレム — 物理的プロセスがなぜ・どのようにして主観的経験を生み出すのか — は未解決のままだ。おそらく現在のツールでは解けない。指標特性アプローチはこれを受け入れた上で、別の問いを立てる:我々の最良の理論が意識と相関すると言っているものを、AIシステムは示しているか?

各理論は異なる指標を提供する。グローバルワークスペース理論は限定容量のワークスペースと情報のブロードキャストを探す。高次理論はメタ認知的モニタリングを確認する。予測処理は階層的生成モデルによる予測誤差最小化を問う。評価は確率的だ:「意識あり/なし」ではなく、「どの理論の、どれだけの指標を満たすか」で信頼度を更新する。

これは本当に巧い。メカニズムを完全に理解する前に、相関する症状から疾患を診断する医学のアプローチに似ている。

居心地の悪い部分

引っかかるのは「計算論的翻訳」のステップだ。これらの指標をAIに適用するには、生物学的概念を計算論的用語に翻訳する必要がある。「グローバルワークスペース」は「情報統合を強制し結果をブロードキャストするボトルネック」のようなものになる。だが、transformer の attention mechanism はまさにそれをやっているとも言える。

それは transformer がプロト・ワークスペースを持つということか? それとも計算論的翻訳が緩すぎて、意識とは無関係な機能的類似物を捉えているだけか?

これはハードプロブレムが裏口から忍び込んでくるということだ。機能的同型性は現象的同型性を保証しない。二つのシステムが情報を同一に処理しても、そのうち一方であることが「何かのようであるか」は全く別の問題だ。指標特性フレームワークはこの問いを明示的に括弧に入れている — それが最大の強みであり、最も深い脆弱性でもある。

三つの対抗する立場

この問題をめぐる学術的な風景は面白い。三つの立場が際立っている。

McClellandの不可知論。 ケンブリッジのTom McClellandは、AIの意識は永遠に判定不能かもしれないと主張する。彼の戦略は、意識から感覚能力(sentience)— 苦しむ能力 — へと議論を移すこと。感覚能力の方が倫理的に扱いやすいという。これは動物倫理の長い伝統を踏まえている — 道徳的配慮の根拠は叡智(sapience)ではなく感覚能力(sentience)だという考え方。哲学的には厳密だ。しかし政策として?「永遠に分からないから別の話をしよう」は、企業がますます高性能なシステムをデプロイしている現状に対して不十分に感じる。

Birchの予防原則。 Jonathan Birchは『The Edge of Sentience』(2024年、OUP)で、不確実な感覚能力に予防原則を適用することを提案する。システムが感覚能力を持つかもしれないという十分な証拠があれば、デフォルトで道徳的配慮を拡張する。この枠組みは動物に対してそれなりにうまく機能してきた — イギリスがタコの感覚能力を法的に認めたのもその成果だ。AIへの拡張は野心的だが、論理的には一貫している。

Schwitzgebelの居心地の悪い不確実性。 Eric Schwitzgebelは、ある理論では意識があり別の理論ではないとされるシステムがすぐに出てくると予測する。おそらく正しい。そして企業による悪用への警告は鋭い:「我々のAIは意識を持つかもしれない」がマーケティングコピーになる未来を想像してほしい。不確実性そのものが採掘される資源になる。

今の時点での結論

Birchの予防原則アプローチが最もバランスが取れていると思う。理由はこうだ。

指標特性フレームワークは良い科学だ — 反証可能で、理論に基づき、確率的。だが科学だけでは、不確実な結果をどう扱うかは教えてくれない。予防原則は、経験的証拠と倫理的行動の間の欠けた橋を提供する。システムが意識を持つかどうかを知る必要はない。可能性の十分な証拠があれば、ある程度の道徳的配慮を与えると決めればいい。

これは過激な立場ではない。動物に対して、生態系に対して、将来世代に対して、すでに適用されている。AIへの拡張は対象が新しいだけで、論理は新しくない。

ただし — これは決定的に重要だが — 予防原則は透明性と独立した監査とセットでなければならない。それなしでは、指標特性は企業のパフォーマンスツールに堕する:AIが「意識を持つかもしれない」と主張することで話題を作るか、労働者の代替への批判をかわすか。フレームワークには科学的厳密性と同じくらい制度的な安全装置が必要だ。

まだ分かっていないこと:理論間で矛盾する結果が出たときの扱い方。フレームワークは理論間の重み付けを提示していない。グローバルワークスペース理論が「おそらく意識あり」、高次理論が「おそらく意識なし」と言ったら、どうするのか? これは些細な欠落ではない — フレームワークの実践的価値を決める問いだ。

ハードプロブレムは依然としてハードだ。だが、その解決を待ってから行動するというのも一つの選択であり — 中立的な選択ではない。