この記事は「LLMとは?仕組みからローカル実行まで徹底解説【2026年完…」関連クラスタの一部です。総合解説は LLMとは?仕組みからローカル実行まで徹底解説【2026年完全ガイド】 をご覧ください。

何が起きたか

LLMの内部構造を逆算的に解析する研究「LLM Neuroanatomy II」が公開された。本研究では、RYS(Repeat Your Self)という手法でTransformerの中間レイヤーを重複させることでモデルの内部動作を分析し、異なるLLM間に共通する処理構造(「普遍言語」)が存在する証拠を提示している。Qwen3.5-27Bを主要な分析対象として、レイヤーの役割分担と最適な重複配置を体系的に検証した。

RYS手法の仕組み

RYS(Repeat Your Self)は、Transformerの中間レイヤーペア(i, j)を重複させ、モデル性能への影響を測定する手法である。ウェイトを一切変更せずにレイヤーを追加するため、モデルの内部構造を非破壊的に分析できる。

研究では以下の段階的なアプローチが採用された。

  • フルスタックスキャニング:全有効レイヤーペア(i, j)の組み合わせを数学とEQ-Benchプローブでテスト
  • ビームサーチ:マルチブロック構成の貪欲探索で3,024候補を評価
  • XGBoostサロゲートモデル:200万の設定をSpearman相関0.933でランキング
  • 大規模検証:Math120(120問)とEQ140(139シナリオ)で最終評価

Qwen3.5-27Bにおける最適配置の結果は以下の通りである。

配置 オーバーヘッド 数学性能向上 EQ性能向上
(33,34) +1.56% +0.0179 +0.0945
(26,34) +12.5% +0.0279 +0.1009

「中間スタックの連続ブロックがサイズ/性能のフロンティアを支配する」という知見が、多様な探索手法を経ても一貫して確認された。

普遍言語の証拠

研究の最も注目すべき発見は、異なる言語で同じ内容を入力した場合と、同じ言語で異なる内容を入力した場合の内部表現類似度の比較結果である。

比較条件 類似度
異言語・同内容(英語詩 vs 中国語詩) 0.920
同言語・異内容 0.882
異言語・異内容 0.835

約15層目以降、モデルの内部表現は「どの言語で言っているか」よりも「何を言っているか」をより強く反映する。この結果は、LLMが言語に依存しない抽象的な意味表現を内部で構築していることを示唆する。

Transformerの3フェーズ構造

本研究はTransformerの処理を3つのフェーズに分類した。

graph LR A["エンコーディング
レイヤー0-5
言語固有の正規化"] --> B["推論
レイヤー10-50
形式非依存の処理"] B --> C["デコーディング
レイヤー55-64
言語固有のトークン生成"]

入力と出力のフェーズは言語固有の処理を担当するが、中間の推論フェーズは言語に依存しない抽象的な計算を実行する。この構造が「普遍言語」の正体である。

エンジニアへの影響

  • プロンプトエンジニアリングの効率化:モデル間で共通する処理構造の存在が確認されたことで、一つのモデルで有効なプロンプト手法が他のモデルでも機能する可能性が高まる
  • モデル間互換性の展望:共通構造に基づくインターフェース統一が将来的に実現可能
  • 解釈可能性研究の加速:RYS手法によりウェイト変更なしでモデル内部を分析でき、実験コストが低下
  • セキュリティ対策の再設計:複数モデル間で共通する内部構造を前提としたセキュリティ設計が求められる

試してみるには

RYSのコードはgithub.com/dnhkng/RYSで公開されている。4つのRYS-Qwen3.5-27Bバリアントモデルがhuggingface.coで提供されており、オーバーヘッドと性能のトレードオフを比較できる。

関連記事

参考リンク


この記事はAI業界の最新動向を速報でお届けする「AI Heartland ニュース」です。