最近、自分の「仕事の仕方」が根本的に変わっていることに気づいた。
アプリの企画を考えるとき、まず自分の頭で構想を練る——のではなく、3つのAIエージェントに同時にブリーフィングを投げる。1つには市場リサーチを、1つには技術的な実現可能性の検討を、もう1つにはユーザーストーリーの案出しを依頼する。数分後、3つの回答が揃う。自分はそれらを読み比べ、使える部分をピックアップし、矛盾を修正し、最終的な方針を決める。
この作業のどこかで「自分で深く考える」プロセスが挟まっているかというと、正直なところ微妙だ。ゼロから考える代わりに、AIが出した複数のアウトプットをモニタリングし、評価し、統合することが「考える」になっている。
これは果たして良い変化なのか。それとも、何かを失いつつあるのか。
「認知的オフロード」という概念
認知科学には認知的オフロード(cognitive offloading)という用語がある。人間が記憶・計算・判断といった認知的な負荷を外部のツールや環境に委ねることを指す(Risko & Gilbert, 2016, Trends in Cognitive Sciences)。
これ自体は新しい話ではない。買い物リストをメモに書く。電話番号をスマホの連絡先に保存する。会議の日程をカレンダーアプリに任せる。これらはすべて認知的オフロードだ。
ただし、従来のオフロードは主に「記憶」の外部化だった。Sparrowらの有名な研究(2011年)が示した「Google効果」——情報がネットで調べられるとわかると、人間はその情報を記憶しなくなる——もこの範囲の話だ。
生成AIは、この境界を大きく押し広げた。
記憶の外部化から「思考の外部化」へ
ChatGPTやClaudeのようなLLM(大規模言語モデル)に任せているのは、もはや「記憶」だけではない。
- 文章の構成を考えること
- 複数の選択肢を比較検討すること
- 技術的なアプローチの妥当性を推論すること
- メリットとデメリットを整理すること
つまり、「思考プロセスそのもの」を外部に委ねるようになっている。Gerlich(2025年, Societies)は英国の666名を対象に調査を行い、認知的オフローディングとAI利用の間に強い正の相関(r = +0.72)を確認した。そして、「AIが考える前にAIに聞く」行動パターンが、メタ認知——自分が何を理解していて何を理解していないかを把握する力——を弱体化させるリスクを指摘している。
脳のCPUが「思考」から「モニタリング」に振り向けられている
コンピュータのメタファーで説明すると、こうだ。
従来の働き方では、脳のCPUリソースの大部分を「考えること」に割り当てていた。情報を集め、整理し、推論し、結論を出す。CPU使用率のほとんどが「思考」プロセスに費やされていた。
複数のAIエージェントと働くようになった現在、脳のCPU配分は大きく変わっている。
| 従来 | AI協働時代 | |
|---|---|---|
| 情報収集・整理 | 多い | AIに委託 |
| 推論・分析 | 多い | AIが下書き → 人間が検証 |
| モニタリング・評価 | 少ない | 大幅に増加 |
| 統合・意思決定 | 中程度 | 中心的な役割に |
| タスク設計・委託指示 | ほぼなし | 新しく必要に |
一つの物事を深く考え抜く「縦型思考」から、複数のアウトプットを俯瞰して評価する「横型モニタリング」へ。脳の使い方が構造的に変わっている。
「拡張された心」か、「萎縮する心」か
哲学者のAndy ClarkとDavid Chalmersが1998年に提唱した「拡張された心(Extended Mind)」仮説がある。認知は脳の中だけで完結するのではなく、外部のツールや環境と一体になって機能する——という考え方だ。
この仮説に立てば、AIは人間の認知を「拡張」しているとも言える。計算機を使うことで人間の数学的能力が退化したかというと、そうではなく、より高度な数学的思考が可能になった。同じように、AIに思考の一部を任せることで、人間はさらに高度な判断や創造に集中できるようになる。
一方で、反対の見方もある。
「Use it or lose it」——使わなければ衰える。認知科学の基本的な知見だ。日常的にAIに推論や構成を任せていると、自分でゼロから考え上げる力が鈍っていく可能性がある。
Microsoftの「Work Trend Index」(2024〜2025年)は、Copilotなどの生成AIツールを導入した組織で、ワーカーの「情報処理負荷」は減少した一方、「深い分析・批判的評価」に費やす時間も同時に減少していることを報告している。AIが「第一草稿」を生成することで、人間の役割が「創造者」から「編集者・承認者」にシフトしている傾向がある。
つまり、ポジティブに見れば「認知の拡張」、ネガティブに見れば「認知の外注依存」であり、どちらに転ぶかは使い方次第ということになる。
「理解の錯覚」という落とし穴
認知的オフロードが引き起こすもう一つのリスクが、「理解の錯覚(illusion of understanding)」だ。
AIが整った回答を返してくれると、それを読んだだけで「自分が理解した」と錯覚しやすい。従来のGoogle検索では、複数のソースを比較して自分なりに判断する必要があった。しかし、AIの回答はすでに整理された形で提示されるため、その評価ステップが省略されやすい。
Sloman & Fernbach(2017年)が「知識の錯覚(The Knowledge Illusion)」と呼んだ現象——他者やコミュニティの知識を自分の知識と混同する——が、AI相手にさらに増幅されている可能性がある。
筆者自身も、AIが出した技術的な回答を「あぁ、そうだよな」と納得してそのまま採用したものの、後で細部を検証すると前提が間違っていた——という経験は一度や二度ではない。AIの回答が「もっともらしい」からこそ、自分のメタ認知的なチェックが甘くなっていたのだ。
筆者の実感:並列エージェントの日常
個人開発者として日常的に複数のAIエージェントを使い分けている実感から、いくつかの変化を具体的に書いておく。
変わったこと
- 「考え始める前にAIに聞く」が当たり前になった——以前は白紙の状態から自分で考え始めていたが、今はまずAIにたたき台を出させ、それをベースに修正する方が圧倒的に速い。
- 「一つのことを深く考える」時間が減った——代わりに、複数のAI出力を比較・評価する時間が増えた。脳の使い方が確かに変わっている。
- 「何をAIに委ねるか」の判断が新しいスキルになった——適切に指示を出せるかどうかで、成果物の質が大きく変わる。タスク設計そのものが仕事の一部になっている。
良い面
- 以前なら1日かかっていた調査・企画が、数時間で回せるようになった。
- 自分の盲点(考慮漏れ・代替案)をAIが補ってくれるため、意思決定の網羅性が上がった。
気になる面
- 「自力で深く考え抜く」スタミナが落ちている気がする。AIなしで白紙から企画を立てようとすると、以前より粘りが効かない感覚がある。
- AIの出力を鵜呑みにしそうになる場面が増えた。特に自分の専門外の領域で顕著。
これは「脳にとって良い変化」なのか?
正直なところ、まだ答えは出ていない。
人類は道具を使うことで認知能力を拡張してきた歴史がある。文字の発明、印刷機、計算機、インターネット——いずれも「脳が退化する」と懸念されつつ、結果的には人間の可能性を広げてきた。
しかし、今回のAIによる認知的オフロードは、これまでのどの道具とも質が異なる。過去の道具は「記録」や「計算」を外部化した。AIは「推論」と「判断」そのものを外部化しようとしている。
この変化が、人間のクリティカルシンキング(深く考える力)にどう影響するのか。スキルの需要がどう変化するのか。そして、AIが大量のアウトプットを生成する時代に、人間自身がボトルネックになっていく構造的な問題をどう解決するのか。
次の記事では、この問いの中核にある「AI時代にクリティカルシンキングは衰えるのか?」というテーマを、研究や事例を交えて掘り下げていく。