板書画像をLLMに投げたら「Attentionは量子測定では」まで飛んだ

Xで池上高志の講義の板書が流れてきた。なにがなんだかわからん画像だったが、LLMに投げたらキーワードや矢印にアノテーションつけて解説してくれるんじゃないかと思って聞いてみた。

板書の解読

これは何の講義の板書?

池上高志(東大・複雑系研究者)による「When Linear Systems become Intelligent?」(線形システムはいつ知的になるか)という講義。

知性をNLS(非線形システム)LS(線形システム)の二項対立で整理している。

NLS(非線形)LS(線形)
自由度
特徴カオス・同期・創発MapReduce・PageRank
知性観パターン生成器大規模データベース
入力貧しい入力で豊かな出力大量データで大量処理
複雑性動的複雑性組合せ複雑性

池上のスタンスはNLS側——「少ない自由度から創発するパターン生成こそ知性の本質だ」という立場。ChatGPT的なスケーリング知性はLS側に分類される。

どっちでもなくない?

わし量子重ね合わせ派なんで(適当なこと言ってる)この二元論じゃないかも

量子重ね合わせ的な見方だと「観測前は両方同時に真」なので、NLSかLSかという問い自体が成立しなくなる。

実はそういう学派がある。Quantum Cognition(量子認知)。Jerome Busemeyer(インディアナ大学)らが構築している認知科学の一分野で、「脳が量子コンピュータ」という話ではなく、人間の認知が量子確率の数学で記述できるという主張。

なんで普通の確率論じゃダメなの?

古典確率(ベイズ)では説明できない認知現象がある。

  • 質問順序効果 — 「Aは正直か→Bは正直か」と逆順で聞くと回答率が変わる。古典確率では P(A∩B)=P(B∩A) なので説明不能
  • 連言錯誤 — 「フェミニストの銀行員」が「銀行員」より確率高く感じる。論理的にはありえない
  • 選言効果 — 囚人のジレンマで相手の行動が不明だと、なぜか協力率が上がる

量子認知はこれらを「測定が状態を変える」「状態は重ね合わせとして存在する」という原理で統一的に説明する。ペンローズの「脳は量子コンピュータ」とは別路線で、あくまで数学的モデルとしての量子論。

これTransformerの話では

これLLMトランスフォーマーの話に聞こえるけど

ほぼ同型だと思う。

量子認知Transformer
状態ベクトル |ψ⟩トークンの埋め込みベクトル
測定基底への射影AttentionのQ・K内積
測定が状態を変える各LayerがResidual streamを書き換える
非可換性(順序依存)因果Attention・位置エンコーディング
重ね合わせResidual streamの線形重ね合わせ
干渉項Attention headの競合・打ち消し

Attentionの本質は「どの軸で射影するかを動的に決める操作」で、量子測定における基底の選択とほぼ同じ構造をしている。

AnthropicのSuperposition Hypothesisも「Transformerは次元数より多くの特徴を重ね合わせとしてResidual streamに詰め込む」と述べており、量子状態の重ね合わせと用語レベルで一致する。

じゃあ何が違う?

同じ日にタイムリーな論文紹介が流れてきた。脳とLLMの言語予測を比較した研究

Kölbl et al. (2026) の MEG+EEG 同時計測研究。脳もLLMも文脈から次の品詞を予測している点は共通だが、決定的な違いがある。

名詞を聞いたとき、脳は聴覚野だけでなく感覚運動野まで活性化していた。「リンゴ」と聞けば、触った記憶・見た記憶が呼び起こされる。テキストだけで訓練されたLLMには、この「身体に根差した意味の層」が原理的に欠けている。

量子認知の文脈で読み直せる。脳の「測定」はテキスト空間だけでなく、身体経験という次元も射影基底に含んでいる。LLMのAttentionはテキスト空間内の射影しかできない。

構造は同型だが、射影できる次元数が違う。

なにがなんだかわからん写真もLLMアシストで意味がくみ取れる。すげえ