Xで池上高志の講義の板書が流れてきた。なにがなんだかわからん画像だったが、LLMに投げたらキーワードや矢印にアノテーションつけて解説してくれるんじゃないかと思って聞いてみた。
池上高志さんの最終講義に出ました。人工知能の研究が非線形から線形のモデルに移り変わったことの説明図。これはよく分かる。YouTubeに動画もあります。 pic.twitter.com/vfHdf8JpIV
— Kengo Hirachi (@kengohirachi) March 14, 2026
板書の解読
池上高志(東大・複雑系研究者)による「When Linear Systems become Intelligent?」(線形システムはいつ知的になるか)という講義。
知性をNLS(非線形システム)とLS(線形システム)の二項対立で整理している。
| NLS(非線形) | LS(線形) | |
|---|---|---|
| 自由度 | 小 | 大 |
| 特徴 | カオス・同期・創発 | MapReduce・PageRank |
| 知性観 | パターン生成器 | 大規模データベース |
| 入力 | 貧しい入力で豊かな出力 | 大量データで大量処理 |
| 複雑性 | 動的複雑性 | 組合せ複雑性 |
池上のスタンスはNLS側——「少ない自由度から創発するパターン生成こそ知性の本質だ」という立場。ChatGPT的なスケーリング知性はLS側に分類される。
どっちでもなくない?
量子重ね合わせ的な見方だと「観測前は両方同時に真」なので、NLSかLSかという問い自体が成立しなくなる。
実はそういう学派がある。Quantum Cognition(量子認知)。Jerome Busemeyer(インディアナ大学)らが構築している認知科学の一分野で、「脳が量子コンピュータ」という話ではなく、人間の認知が量子確率の数学で記述できるという主張。
古典確率(ベイズ)では説明できない認知現象がある。
- 質問順序効果 — 「Aは正直か→Bは正直か」と逆順で聞くと回答率が変わる。古典確率では P(A∩B)=P(B∩A) なので説明不能
- 連言錯誤 — 「フェミニストの銀行員」が「銀行員」より確率高く感じる。論理的にはありえない
- 選言効果 — 囚人のジレンマで相手の行動が不明だと、なぜか協力率が上がる
量子認知はこれらを「測定が状態を変える」「状態は重ね合わせとして存在する」という原理で統一的に説明する。ペンローズの「脳は量子コンピュータ」とは別路線で、あくまで数学的モデルとしての量子論。
これTransformerの話では
ほぼ同型だと思う。
| 量子認知 | Transformer |
|---|---|
| 状態ベクトル |ψ⟩ | トークンの埋め込みベクトル |
| 測定基底への射影 | AttentionのQ・K内積 |
| 測定が状態を変える | 各LayerがResidual streamを書き換える |
| 非可換性(順序依存) | 因果Attention・位置エンコーディング |
| 重ね合わせ | Residual streamの線形重ね合わせ |
| 干渉項 | Attention headの競合・打ち消し |
Attentionの本質は「どの軸で射影するかを動的に決める操作」で、量子測定における基底の選択とほぼ同じ構造をしている。
AnthropicのSuperposition Hypothesisも「Transformerは次元数より多くの特徴を重ね合わせとしてResidual streamに詰め込む」と述べており、量子状態の重ね合わせと用語レベルで一致する。
じゃあ何が違う?
LLMは「次の単語」を予測するだけでここまで賢くなった。では人間の脳も同じ仕組みで言語を理解しているのか?
— AIDB (@ai_database) March 14, 2026
実際に人間の脳活動をMEG+EEGで同時計測した研究が、興味深い答えを出しています。… pic.twitter.com/byMhgZZEKU
Kölbl et al. (2026) の MEG+EEG 同時計測研究。脳もLLMも文脈から次の品詞を予測している点は共通だが、決定的な違いがある。
名詞を聞いたとき、脳は聴覚野だけでなく感覚運動野まで活性化していた。「リンゴ」と聞けば、触った記憶・見た記憶が呼び起こされる。テキストだけで訓練されたLLMには、この「身体に根差した意味の層」が原理的に欠けている。
量子認知の文脈で読み直せる。脳の「測定」はテキスト空間だけでなく、身体経験という次元も射影基底に含んでいる。LLMのAttentionはテキスト空間内の射影しかできない。
構造は同型だが、射影できる次元数が違う。