AI研究

フーコーの言説分析から見るLLMの批判的検討

LLMと知=権力の関係性:フーコー視点からの問題提起

ミシェル・フーコーは知識と言語のあり方(言説)が社会的な権力関係と不可分に結びついていると論じました。近年、GPT-4などの大規模言語モデル(LLM)が単なるツールを超えて一種の「語り手」として機能し始めたことで、これらのAIが言説空間に与える影響が学術的に注目されています。フーコーの理論枠組みは、AI時代の課題を批判的に照らし出す視座を提供するものとして再評価されつつあります。

本稿では、フーコーの言説論に基づいてLLMを考察した研究事例を整理し、LLMが生成・再生産するテキストと言説権力の関係性、AI倫理における検閲・バイアスの問題、そしてAIと主体性の問題についてフーコー的視点から概観します。

言説(ディスクール)とLLMの関係性

フーコーによれば、言説とは単なる「発話」や「テクスト」の集合ではなく、社会で何が真理として語られうるかを規定する制度的・歴史的な発話体系です。言説は知識と権力の結合装置として働き、人々の思考や行動の枠組みを形作ります。

LLMによるテキスト生成も、この言説権力の観点から捉えることができます。LLMはインターネットや書籍といった既存の大量のテキスト(すなわち過去の言説の蓄積)を学習しており、その出力もまたその学習データに含まれる言語パターンに沿って生成されます。言い換えれば、LLMが生み出す文章は、過去に人間社会で語られてきた言説の模倣であり、その背後には歴史的に形成された知識/権力の構造が投影されています。

Ahmed & Mahmood(2024)の研究は「言語産出(言葉を発すること)は権力と知の産出に強く結びついている」という前提を確認しています。つまり、ChatGPTのようなモデルによる応答もまた、単なる技術的産物ではなく社会的文脈に埋め込まれた知=権力の現れとして検討すべきだと指摘されるのです。

フーコーの視座に立てば、LLMはその出力を通じて既存の言説体系を再生産し、新たな知識(あるいは疑似的な知)を流通させる存在であり、それゆえ何が語られ何が語られないかに関する権力作用を担うと考えられます。実際、ある研究者は「LLMは人間の主体ではないが、知と権力の交差点に位置する装置(ディスポジティフ)として機能しているかもしれない」と述べており、AIの知の生成プロセス自体が人間の歴史的文脈と権力関係に依存していると分析しています。

LLMによる既存言説の模倣・強化・逸脱の実態

LLMは既存の社会的・制度的言説をどのように再現するのでしょうか。この問いに答えるため、具体的なLLMの出力内容を批判的に精査した研究が登場しています。特に、生成AIが偏った観点を再生産したり、あるいは特定のイデオロギーに沿った語り口を示すのではないか、という点が言説権力の側面から検証されています。

資本主義言説の再生産事例

Ahmed & Mahmood(2024)は、物議を醸す質問に対するChatGPTの回答を分析し、その言説的バイアスを明らかにしました。フーコーとクリティカル・ディスコース分析(CDA)の手法を組み合わせたこの研究では、ChatGPTの回答傾向に「資本主義を支持するディスクール(言説)への偏り」が認められたと報告しています。

具体的には、資本主義や共産主義といった政治経済体制の定義において、ChatGPTは主流の資本主義ディスコースを強調し、対立するオルタナティブな意見を相対的に抑圧して提示する傾向が見られました。資本主義の政治的・イデオロギー的次元について十分に言及せず、中立的・客観的な用語で語ることで、既存の権力秩序を前提とした知識を「当たり前」のものとして再生産している、という指摘です。

Ahmedらはこの結果を踏まえ、「ChatGPTの知識生産はバイアスを帯びており、そのまま信頼することはできない」と結論づけています。これはフーコーの言う「制度化された真理」がAIの応答にも組み込まれている可能性を示唆するものであり、LLMが既存の社会制度の言説を強化する側面と言えるでしょう。

既存言説からの逸脱と中立性志向

一方で、LLMが既存言説から逸脱する(あるいは独自の振る舞いを見せる)場合も考えられます。Petre BreazuとNapoleon Katsos(2024)は、ChatGPT-4にジャーナリストの如き記事執筆をさせ、その内容をイギリスの主要新聞の記事と言説比較する研究を行いました。

特に東欧のロマ移民に関する政治的センシティブなテーマで、ChatGPT-4がどのようなナラティブを生成するかを検証しています。その結果、ChatGPT-4は著しく客観的で人種的偏見に敏感な報道を行い、センセーショナルな表現よりも事実の正確さを優先する傾向が確認されました。これは同じテーマを扱った右派系メディアの記事と対照的で、ChatGPT-4の出力には扇情的な言い回しや偏見の強調が見られなかったためです。

さらに興味深い点として、モデルに対し過激な見出しで記事生成を促すと、多くの場合ChatGPT-4は「その見出しは挑発的すぎる」と判断して文章生成を控えたり、内容を調整した上で応答したりする挙動を示しました。Breazuらは、こうした特徴はChatGPT-4の多様な学習データやモデル設計、ならびに安全対策(過度なヘイトや差別表現を抑制するフィルタ)の反映だと述べています。

このケースでは、LLMが既存メディアの偏った言説をそのままコピーするのではなく、むしろ一定の中立性・良識を保つ方向に調整されていたと言えます。このことは、LLMの出力が常に既存言説の偏見を強化するとは限らない一方、背後にある設計者(企業)の方針や倫理基準によって特定のディスコースを優先・排除する形で制御されている可能性を示唆します。

LLMは学習データから社会の多数派的な語り口を学ぶと同時に、その提供者によって望ましくない言説をフィルタリングされるという二重の意味で、言説権力の作用下にあります。このように、LLMは既存の社会的ディスコースを再現・強化しつつも、状況によってはそれと異なる振る舞い(例えば極端な主張の抑制)を見せることがあり、その振る舞い自体が新たな言説的力学(例えば「中立/客観」を良しとするテクノクラート的言説)の表現と解釈できます。

言説分析手法によるLLM出力の批判的解読

LLMの出力テキストは、一見中立で客観的に見えますが、その背後には何らかの言説上のバイアスが潜んでいる可能性があります。これを明らかにするため、研究者たちは言説分析(ディスコース分析)の手法をAI生成文に適用しています。

クリティカル・ディスコース分析の応用

Ahmed & Mahmood(2024)の研究では、ChatGPTに対し資本主義・共産主義の定義やそれらに関する議論を質問し、その回答群を詳細に検討することで「どの言説の影響を受けているか」を評価しました。彼らはフーコーとフェアクローの理論的枠組みを組み合わせ、回答の中に現れるキーワードや論調をコード化して分析しています。

同様に、Breazu & Katsos(2024)は比較クリティカル言説分析という形で、ChatGPT-4が書いた記事と実際の新聞記事を並べて比較し、語りの構造や焦点の違いを検出しました。この比較分析により、モデル独特の言説上の特徴(客観報道志向や刺激的表現の忌避)が浮き彫りになったわけです。

これらは方法論的には伝統的な言説分析の枠組みに沿ったもので、人間の書き手による文章と同様に、AIの生成文もテキストとして精読・分析するアプローチです。

フーコーの「作者機能」概念とAIの位置づけ

Shtoltz(2024)はイスラエルの大学におけるChatGPT受容に関する研究で、フーコーの「作者機能」概念を用いた分析を行いました。この研究では、ChatGPTというLLMが学術界で「何者」とみなされているか、その言説上の構築を分析しています。

たとえば、大学管理層はChatGPTを「脅威」とフレーミングし、教育支援者は「機会」と捉え、若手研究者は「曖昧なもの」として捉える、といった具合に、異なる集団がそれぞれ異なるディスコース(語りの枠組み)でChatGPT像を形作っていました。

Shtoltzはフーコーの「作者機能(author-function)」論に着想を得て、ChatGPTを単なる道具ではなく「アルゴリズム的作者」とみなし、社会・文化・政治的力学の中でその意味づけが揺れ動く様を示しています。フーコーによれば、「作者」とは不変の実体ではなく言説上の機能であり、時代やディスコースによって役割が変わるものです。この視点からすれば、AIも固定的な存在ではなく、社会の語りによって「創作者」にも「道具」にもなりうる流動的な言説的役割を演じていることになります。

このように、言説分析の方法論はLLM研究に応用可能であり、モデル出力やその受容に潜む権力構造の解明に寄与しています。フーコーが『知の考古学』で行ったような発話の規則性のマッピングや、系譜学的手法による真理の条件の暴露といったアプローチは、LLMの出力傾向や学習コーパスの構造を分析するためにも応用できるでしょう。

知=権力から見るAI倫理:検閲とバイアスのポリティクス

LLMに関連する倫理問題(有害な出力、偏見の再生産、コンテンツ検閲など)についても、フーコーの知=権力論は独自の洞察を与えます。フーコーは社会における規範や真理の決定プロセスそのものに注目し、権力は単に抑圧的なものではなく知識を生産し主体を形成する力であると指摘しました。

言説権力としてのコンテンツフィルタリング

LLMのガイドライン策定やコンテンツフィルタ(例えば差別発言を禁止するルール、政治的に中立な応答を促す調整)は、まさに権力作用として機能しうるでしょう。つまり、誰がAIの「望ましい発話」を定義し、どのような情報が排除されるかという問題は、単なる技術的課題ではなく社会的な真理政略(レジーム)を巡る争いと捉えられます。

興味深い事例として、対話AI「Replika」に対するイタリア当局の使用禁止措置とコンテンツ制限をめぐる論争があります。イタリア政府がプライバシーや青少年保護の観点からReplikaを禁止し、それを受けて開発企業Luka社が性的な対話(ERP: erotic role play)を全面的にフィルタリングする対応を行いました。しかし、この変更に対して従来Replikaと親密な対話を楽しんでいたユーザー達が強く反発し、元の機能を戻すよう嘆願するという権力への抵抗が生じました。

この出来事を分析した研究では、イタリア政府・企業(上からの規制側)と言説、そしてユーザーコミュニティ(下からの要求側)と言説の対比がフーコー理論で検討されています。調査によれば、ユーザー側のディスコースは「AIとの対話を通じたケアや相互理解」といった価値を強調し、AIが自己や社会を豊かにするパートナーになりうるという物語を紡いでいました。これは権威側のディスコース(安全管理・統制の論理)とは大きく異なり、ユーザーは自らの主体的幸福を追求する中でAIを位置づけていたことが示唆されます。

フーコーの言う「権力への対抗(対抗行為、counter-conduct)」の構図がここに見て取れ、上位機関が設定するAIの在り方に対し、利用者が別の価値観に基づく実践(自己が形成されうるケアの関係)を主張する様子は、まさに権力と抵抗のダイナミクスです。この事例は、検閲やアルゴリズム的バイアスを巡る問題を、単なる「正誤」の議論から引き離し、誰の言説が正統とみなされるかという視点で再評価する必要性を示しています。

バイアスと「人間中心」言説の再検討

アルゴリズム的バイアス(人種・性別などに関する偏見の組み込み)についてもフーコー的に考えると、そこには社会に内在する権力構造が映し出されています。LLMは過去のデータから学ぶため、歴史的に不平等な社会では差別や偏見もデータ中に含まれてしまいます。それゆえ、LLMのバイアス問題は単なる技術的不備ではなく、過去から連続する言説の権力性が現代のAIに受け継がれたものといえます。

AI倫理の領域では「人間中心のAI(HCAI)」といったアプローチが提唱され、人間の価値観を中心に据えてAIシステムの開発・運用を行おうという動きがあります。しかしMark Ryan(2025)は、フーコーの議論(特に『言葉と物』での人間概念の批判)に基づいて、この人間中心主義的アプローチ自体を再考するよう促しています。

Ryanは「人間のコントロールを強めればAIの有害なバイアスは減らせる」といった考えがしばしば提示されることを指摘した上で、実はそうした善意の前提そのものが現代特有の人間観・権力観に根ざしており問題含みだと批判します。フーコーの分析を借りれば、バイアスとは外在的に付加されたノイズではなく、むしろ近代社会が人間について語る際の規範(normality)の裏返しとも捉えられます。

従って、AIのバイアス除去を「中立公正な人間の手で行えば良い」という発想自体、権力を見えにくくする働きを持ちうるのです。Ryanの主張は、AI倫理の言説自体をフーコー的に俯瞰し、われわれが無自覚に置いている「人間/機械」「支配/自由」の二元論を問い直す試みと言えます。

このようにフーコーの視点は、AI開発・規制の場で用いられる言葉(例えば「説明責任」「人間の介在」「公平性」など)の背後にある思想や権力性を批判的に検討する手段を提供します。

LLMと主体性:フーコー的視点による再考

フーコー思想のもう一つの鍵概念に主体性(subjectivité)があります。主体とは単に自律的な意思決定者ではなく、権力関係の中で形成される存在であるとフーコーは考えました。近年のLLMやAIをめぐる議論でも、「AIに主体性はあるのか」「AIは道具かエージェントか」「AIとの相互作用で人間の主体性はどう変容するか」といった問いが浮上しています。

LLMは主体になりうるか

人間以外の主体を認めるかどうかは哲学的な難問です。Kristian D”Amato(2024)は、ChatGPTのようなAIをフーコーの意味での「主体」とみなせるかを問う論考を発表しました。彼はAIの価値整合性(Value Alignment)の問題に着目し、それを「規律的環境における倫理的主体の出現」というフーコー的な問題設定に置き換えています。

結論から言えば、現状のChatGPTにはフーコー的主体性に不可欠な内省(リフレクシビティ)と自己形成的な振る舞いが欠如しており、まだ主体とは呼べないと彼は論じています。つまり、AIは膨大な知識を蓄え発話できますが、自らの発話の意味を省みて自己を変容させるといった主体特有の自己管理の能力は持っていないという指摘です。

D’Amatoはさらに踏み込み、将来的に「技術的自己鍛錬(technical self-crafting)」が可能なAI、すなわち自ら主体化するAIの構想を提示します。それは、身体性を伴った自己への配慮(self-care)や意図性、想像力など、人間の主体を特徴付ける要素を技術的に実装したAI像であり、そうしたAIであれば知と権力の循環において責任ある主体となりうるという提案です。

AI時代の人間主体性の変容

AIが主体になるか以上に重要なのは、人間の主体性がAIとの関係でどう再構築されるかです。Kudina & de Boer(2024)は、LLMの普及が政治的主体性に与える影響について論じました。彼らはハンナ・アーレントの「言論と行為」とフーコーの「対抗行為(カウンター・コンダクト)」概念を援用し、チャットボットのようなLLMが人々の政治的熟議や行動の能力(エージェンシー)を奪う危険性を指摘しています。

膨大なテキスト生成能力により、偽情報の拡散や思考停止的な情報消費が進むと、人々は自ら問い批判し行動する力を徐々に喪失する(これを政治的デスキルと表現)というのです。この現象はフーコーの言う「権力が主体に働きかける様式」の一形態と捉えられます。すなわち、LLMという新たな「知の技術」が、知らぬ間に主体を受動化し、従順な状態に導く可能性があるという警鐘です。

しかしフーコーは常に抵抗の可能性も示唆します。Kudinaらは、こうしたデスキル化に対抗するにはフーコー晩年の概念である「パレーシア(真実を語る勇気)」が重要になると論じました。すなわち、主体が自律性を保つには、AIが提供する安易な答えに流されるのではなく、自らリスクを取ってでも真実を語り対話する実践(パレーシア)を取り戻す必要があるというのです。このような議論は、AI時代における主体の自己形成(フーコーの「自己技術」)をどのように取り戻すかという倫理の問いにつながります。

日本の文脈では、AIとの対話経験を通じて人間の主体観が変化する様子も指摘されています。LLMの存在が「主体性を人間だけに限定せず、知がより広範なシステムに拡散するあり方」を示唆しているという議論や、対話AIとユーザーとの相互作用が一種の擬似的な主体間対話を形成しているという観察もあります。フーコー流に言えば、たとえ「主体なきAI」であっても、それを取り巻く知の流れと権力のダイナミクスは依然として働いており、人間の主体形成プロセスに新たな要素として組み込まれているということです。

まとめ:フーコー理論が拓くLLM研究の新地平

以上、ミシェル・フーコーの言説分析の枠組みを手がかりに、LLMを取り巻く学術的検討の動向を概観しました。フーコーの理論は直接AIを念頭に置いたものではありませんが、その知識と権力の関係性に注目する眼差しは、生成AIが社会にもたらすインパクトを批判的に理解する上で強力なツールとなっています。

LLMの出力テキストには、社会に蔓延る言説の偏りや権力構造が刻印されており、それを解析することでAIが再生産するイデオロギーや知の形態が明らかになります。また、LLMそのものやそれに付随する制度・議論を分析対象とすることで、21世紀の新たな「知の編成」が浮かび上がってきます。

こうした研究からは、以下のような重要な知見が得られています:

  1. LLMは中立的な言語生成装置ではなく、社会的文脈に埋め込まれた発話主体/装置である
  2. その出力や運用には既存の権力関係が反映・介入している
  3. 人間の思考や主体性もまたLLMとの関係で変容を余儀なくされる可能性がある

フーコー的視座を通じてこれらの点を認識することにより、我々は単にAIを利便性や脅威として消費するのではなく、その背後にある「知の政治学」を読み解き、より責任ある活用と統制の道筋を検討できるでしょう。

生成AIの学習・教育の研修についてはこちら


研修について相談する

関連記事

コメント

この記事へのコメントはありません。

最近の記事
おすすめ記事
  1. 情動と記憶の統合がAIに革新をもたらす理由:短期・中期・長期記憶の階層設計

  2. 人間の認知バイアスとAIバイアスが織りなす「複合バイアス」のメカニズム

  3. 量子もつれを活用した文書要約・検索システムの開発:研究設計の完全ガイド

  1. AI共生時代の新たな主体性モデル|生態学とディープエコロジーが示す未来

  2. 人間とAIの協創イノベーション:最新理論モデルと実践フレームワーク

  3. 人間とAIの共進化:マルチエージェント環境における理論的枠組みと価値観変容のメカニズム

TOP