エナクティブ認知とは何か:AIの「自律性」を問い直す視点
近年、AIの「自律性」という言葉が急速に広がっている。自動運転、LLMエージェント、自律ロボット——いずれも「人間が介入しなくてもタスクを遂行できる」能力として評価されることが多い。しかし、その「自律性」の定義は本当に適切なのか、という問いは案外深い。
エナクティブ認知(Enactive Cognition)という理論的枠組みは、この問いに対して根本的に異なる視点を提供する。フランシスコ・ヴァレラ、ウンベルト・マトゥラーナ、エヴァン・トンプソンらが構築したこのアプローチでは、認知を「外界を内部表象として処理する計算」とは捉えない。むしろ、「身体を持つ主体が環境との相互作用の歴史を通じて意味世界を立ち上げる過程」として再定義する。
本稿では、このエナクティブ理論の核心概念を整理したうえで、現代AIの自律性をオートポイエーシス・構造的カップリング・センスメイキング・身体性という評価軸から分析する。さらに、「弱い/強いエナクティブ自律性」という新たな定義枠と、研究として検証可能な指標群を提案する。

オートポイエーシスと自律性の理論的基盤
自律性の定義:内側の関係だけで成り立つ統一体
マトゥラーナの整理において、自律性とは「その統一体としての特徴づけが、その系自身の関係だけで成り立つ」ことを意味する。これはきわめて形式的な定義であり、「外部から制御されていない」という通俗的な意味とは異なる。
この自律性を生物学的個体に結び付けるのが、オートポイエーシス(autopoiesis=自己産出)の概念である。オートポイエーシスとは、「構成要素の生産ネットワークが、自身のネットワークを再生産し、さらに空間的な統一体として境界を構成する」組織の様式を指す。ここで重要なのは、単なる「自己修復」や「自己制御」とは異なり、構成要素が生成・劣化・置換されるという内在的脆弱性のもとで、自己産出の循環が維持される点にある。
つまり、オートポイエーシスな系は常に「壊れかけながら自分を産み続ける」という動的な状態にある。この内在的な脆弱性こそが、のちに説明する規範性の根拠となる。
構造的カップリング:履歴としての世界生成
構造的カップリング(structural coupling)は、系と環境の関係を「入力—計算—出力」という図式ではなく、相互規定的な変化の歴史として捉える概念である。
『The Embodied Mind』では、エナクティブ接近の本質を「構造的カップリングの歴史が世界を立ち上げること」として示している。環境は「前もって与えられた特性の集合」ではなく、系との相互作用の歴史によって初めて立ち上がる。同様に、マトゥラーナが主張するように、生物はニッチから独立に理解できず、ニッチもまた生物から独立に定義できない。
この双方向的な関係は、AIにとって重要な含意を持つ。いかに高性能なモデルであっても、「歴史のない相互作用」では構造的カップリングを形成できない。学習済みモデルがオンラインで更新されないまま使用される場合、それはカップリングの断絶した静的な状態にあると見なせる。
センスメイキング:自律性から生まれる規範性
エナクティブ理論の中核をなすのが、センスメイキング(sense-making)の概念である。トンプソンらは、センスメイキングを「自律性の相互作用的・関係的側面」として定義する。
重要なのは、センスメイキングが外部から与えられた評価基準によって「意味を見出す」作業ではない、という点だ。自律的同一性の維持という営みそのものが、世界との相互作用に「自己にとって良い/悪い」という規範的地位を与える。言い換えれば、「生き延びること」から「何が良くて何が悪いか」が生まれる。
さらにトンプソンは、「単なるオートポイエーシスだけではセンスメイキングに不十分であり、adaptivity(可変的調整)が必要」と論じる。自己維持が「存続か崩壊か」という全か無かの規範しか与えないのに対し、適応的調整は健康・疲労・ストレスのような勾配的な規範を可能にする。
Di Paoloはこのadaptivityを、「viability(生存可能性)の境界に関して自己を調整する能力」として操作的に定式化している。これは測定可能な性質として論じられており、後述する検証指標の根拠となる。
現代AIの自律性:三層で分解する
エナクティブ理論との接続のため、本稿ではAI自律性を以下の三層に分解して分析する。
機能主義的自律性とは、一定範囲のタスクを人間の逐次介入なしに遂行できる度合いである。現在の議論の多くはこのレベルにある。
意思決定的自律性とは、状態推定・計画・行為選択・フィードバック更新を、環境中で閉ループに行える度合いである。
規範的自律性とは、「何を良い/悪いとみなすか」の源泉が、外部(人間・制度・報酬関数)ではなく、系の自己同一性維持から内在的に生まれる度合いである。
自動運転システム(ADS)の場合
SAE J3016のレベル4では、ODD(Operational Design Domain)内での動的運転タスクとフォールバックをシステムが担う。知覚・認識・予測・計画・制御という閉ループを持ち、意思決定的自律性は高い。
しかし規範的側面は、安全規則・法規・運行ポリシー・目的地設定など、外在的な枠に置かれる。ADSが「なぜこの判断が良いか」を内部から生成しているわけではなく、設計者と運用者が与えた目的関数を追跡しているにすぎない。エナクティブ基準における「内在的規範性」は構造的に弱い。
LLMエージェント(ReAct・Toolformer等)の場合
ReActに代表されるLLMエージェントは、推論(Reasoning)と行為(Acting)を交互化し、外部ツールや情報源と相互作用する。ToolformerはAPIコールの選択・タイミング・引数を自己教師的に学習し、ツール利用で性能を拡張する。VoyagerはMinecraftで継続的に探索し、技能ライブラリを積み上げることで履歴依存的な変容を実現する。
これらは意思決定的自律性の面では顕著に進化している。ただし、規範の源泉がユーザの目的や外部評価器に依存しており、「自分の存在が崩壊する」という根拠から規範が生まれていない点で、エナクティブ基準の中心的要件を満たしていない。
自律ロボット(DRL・ANYmal・RT-2等)の場合
深層強化学習(DRL)によるロボット制御は、実機への転移学習(sim-to-real)を含む高度な意思決定的自律性を実現している。ANYmalのような四足ロボットは転倒回復・高速移動などの身体能力を習得し、RT-2(Vision-Language-Action Model)はウェブ規模の事前学習知識をロボット制御へ組み込み、未知物体への汎化を達成している。
身体的関与(エネルギー・接触・空間制約)という点では現代AIの中で最も高いスコアを持つ一方、報酬設計・安全基準・タスク仕様は外在的なノルムに依存しており、「自己産出としての内在的規範性」との間には依然として構造的ギャップが存在する。
エナクティブ基準による比較評価
エナクティブ理論に基づく評価軸として、以下の5つを採用する。
- 組織的自己維持:脆弱条件下で自己同一性を維持・再生産する度合い
- 履歴依存的変容:相互作用の歴史が系の構造を非自明に変える度合い
- 内在的規範性:良/悪の基準が外部報酬ではなく自己同一性維持から生起する度合い
- 身体的関与:知覚—行為—環境の循環が身体的制約に根ざす度合い
- 意味世界生成:相互作用が価値・サリエンスを伴う独自の環境(Umwelt)を形成する度合い
この5軸で評価すると、現代AIは「意思決定的自律性」において著しい進展を遂げているが、「内在的規範性」と「組織的自己維持」においては一貫して低評価となる。Voyagerは「履歴依存的変容」と「意味世界生成」の面でやや高い評価を得るが、存続規範の弱さがボトルネックとなる。DRLロボットは「身体的関与」では際立つものの、規範の外在性は変わらない。
この結果は、トンプソンのセンスメイキング論から予測されうる帰結でもある。外部目的関数中心の設計が続く限り、意思決定的自律性がいかに精緻化しても、内在的規範性という核心的要件との間の距離は縮まりにくい。
弱いエナクティブ自律性と強いエナクティブ自律性の再定義
弱いエナクティブ自律性(工学的に到達可能な水準)
弱いエナクティブ自律性(Weak Enactive Autonomy)は、以下の4条件を満たすシステムとして提案定義する。
- 運用的閉鎖:内部プロセスが相互に条件づけ合い、単なる入出力写像ではない閉ループ組織を形成する(化学的自己産出は必須ではない)。
- adaptivity:外乱・資源制約下で、自己のviability境界(電力・温度・損傷・メモリ整合性・社会的信頼など)に関して自己調整する。
- 内在的規範の最小形:外部報酬のみに依存せず、自己維持変数の逸脱を「悪い」として扱う評価が内蔵されている(ホームオスタティック報酬等)。
- 履歴依存のカップリング更新:相互作用の履歴により、行為レパートリが累積的に変容する。
この定義は、トンプソンが「エナクティブ接近に必要なのはオートポイエーシスそのものではなく、適応的自律性である」と述べる路線に従い、生物学的代謝を必要条件から外す。一方で、センスメイキングに不可欠な規範性(viability接続)は要件として残す。
工学的実現可能性の観点では、ロボットには電力・損傷・安全領域という自然なviability変数が存在する。LLMエージェントにも、誤情報拡散リスク・計算資源枯渇・対話関係の破綻といった「脆弱条件」を設計上導入できる可能性がある(ただし「設計上の擬似脆弱性」に留まるリスクは残る)。
強いエナクティブ自律性(長期研究目標としての水準)
強いエナクティブ自律性(Strong Enactive Autonomy)は、以下3条件を満たすシステムとして定義する。
- 自己産出(構成要素・境界の自己生成):オートポイエーシスが要求する、構成要素の生産ネットワークと境界の自己構成が物質的レベルで成立する。
- 脆弱性の内在:構成要素の劣化・破壊が切迫的に内在し、その補償が自己維持の内的必然となる。
- 規範性の内生:良/悪の基準が、自己産出の維持失敗(崩壊)に直接接続し、外部目的なしでも「自己の立場」が成立する。
この水準に現行のLLM・DRLロボットが到達しているとは言い難い。計算基盤への依存・外在的規範・「運用の継続」ではなく「存在の継続」に繋がる脆弱性の欠如、という3つの理由から、強い水準は人工生命・化学的自己維持・自己修復材料系との接続研究として位置づけるのが現実的である。
検証可能な指標と実験プロトコルの提案
エナクティブ自律性を測定可能にするため、以下の指標候補を提案する。
- Viability維持率:内部変数(電力・温度・損傷・通信・メモリ整合性)が許容範囲に留まった割合
- 摂動回復勾配(Adaptivity Gain):外乱後に行為選択がviability境界から遠ざかる方向へ変化した度合い(Di Paoloの「傾向の識別と変換」に対応)
- 内生規範比率:報酬のうち、外部タスク報酬に対する自己維持変数由来の比率
- 履歴依存変容量:技能ライブラリ増大・行為レパートリ拡張の量(Voyager型の計測に対応)
- 身体制約下の行為多様性:異なる身体・環境条件で同一タスクを成立させる行為パターン数
実験プロトコルとしては、シミュレーション環境でのviability中心エージェントと外部報酬中心エージェントの比較(プロトコルA)、実機ロボットでの自己充電・損傷推定を含む長時間運用評価(プロトコルB)、LLMエージェントへの擬似viability導入と行動変化の評価(プロトコルC)の3方向が有望である。
まとめ:AIの「自律性」をどこまで問い直せるか
エナクティブ認知理論は、AI自律性の議論に「内在的規範性」と「自己同一性の産出・維持」という新たな次元を持ち込む。現代のAIが「意思決定的自律性」において急速に進化していることは確かだ。しかし、エナクティブ理論が問う「自分にとって何が良いか」を内部から生成できているかという問いに対しては、現行アーキテクチャには構造的なギャップが残る。
「弱いエナクティブ自律性」の枠組みは、生物学的代謝を前提とせずに規範性とadaptivityを工学的に実装する道筋を示す。viability変数の設計・内生規範比率の最大化・履歴依存変容の実装という方向性は、近い将来に実験可能な研究課題となりえる。
「強いエナクティブ自律性」はより遠い目標だが、人工生命研究・自己修復材料・化学的自己維持系との接続という形で、工学の外縁から少しずつ問い直しが始まっている。
AIの自律性をどこまで問い直せるか——その問いは、技術的問題であると同時に、認知・生命・規範性そのものについての哲学的問いでもある。
コメント