前回の記事で、AIへの認知的オフロードによって脳の使い方が「思考」から「モニタリング」にシフトしていることを書いた。今回はその核心にある問いを掘り下げる。
「AIに考えさせていると、人間の深く考える力は衰えるのか?」
結論を先に言うと、衰える面と、むしろ強化される面の両方がある。重要なのは「AIが思考力を奪う」のか「人間が思考力を手放している」のかという、主体の問題だ。
「AIを使うと成績が上がるが、学力は下がる」という実験結果
最も示唆に富む研究の一つが、Wharton School(ペンシルバニア大学)のBastaniらによるランダム化比較試験だ(2024年初出、2025年 PNAS 正式掲載)。
トルコの高校生を対象に、ChatGPT(GPT-4)を使って数学を学習するグループと、使わないグループを比較した。結果は明快だった。
- ChatGPTを使ったグループは、練習問題のスコアが向上した
- しかし、AIなしの最終テストでは成績が低下した
- 特に「GPTに答えをそのまま聞いた」学生で、この傾向が顕著だった
つまり、AIの力を借りてその場のパフォーマンスは上がるが、自力で問題を解く力は育たない。「答えを教えてもらう」使い方では、学習の本質であるproductive struggle(生産的な苦闘)——問題に粘り強く取り組む過程での学び——が省略されてしまうのだ。
ただし、重要な例外がある
同じ研究で、GPTをチューター的に使う設定——答えを直接教えず、ヒントや考え方の枠組みを提示する——では、学習効果が改善した。Wharton SchoolのEthan Mollick教授も、AIを教育に活用する7つのアプローチを整理し、「AIに考えさせる」のではなく「AIと共に考える」設計が鍵であると主張している(Mollick & Mollick, 2024年, International Journal of Artificial Intelligence in Education)。
使い方によって結果が真逆になる。これがAIとクリティカルシンキングの関係の本質だ。
クリティカルシンキングは「消える」のではなく「質が変わる」
AI以前のクリティカルシンキングと、AI協働時代のクリティカルシンキングを比較すると、求められる思考の「型」が変わっていることがわかる。
| AI以前 | AI協働時代 | |
|---|---|---|
| 思考の起点 | ゼロから問いを立て、仮説を構築 | AIの提案の妥当性を検証し、方向修正 |
| 情報の扱い | 自分で収集・整理・分析 | AIの分析結果を批判的に評価 |
| 意思決定 | 限られた情報から判断 | 複数のAI案をマージ・統合して決定 |
| 重要なスキル | 深い分析力、情報収集力 | 質問設計力、矛盾検出力、統合力 |
0→1で考え上げる力の重要性は相対的に下がり、代わりに——
- AIの提案に含まれる前提条件の妥当性をチェックする力
- 複数のAI出力から矛盾や抜け漏れを検出する力
- ゴール設定や制約条件を適切に設計する力
——といった「メタレベルの思考力」の重要性が増している。クリティカルシンキングが不要になったのではなく、その対象が「問題そのもの」から「AIの出力」に移行したのだ。
「考え抜くスタミナ」は確実に落ちやすくなっている
質の変化とは別に、懸念すべき量的な変化もある。
Gerlich(2025年, Societies)は英国の666名を対象に調査を行い、この問題を定量化した。結果は明快だ。
- 認知的オフローディングとAI利用の間に強い正の相関(r = +0.72)
- 認知的オフローディングとクリティカルシンキングの間に強い負の相関(r = -0.75)
- 若年層ほどAI依存度が高く、クリティカルシンキングのスコアが低い
つまり、AIを多く使う人ほど認知をオフロードし、認知をオフロードするほどクリティカルシンキングが弱まる——という連鎖が数値で示されている。
これは筋トレの比喩でよく説明できる。ジムに通って重い重量を持ち上げることを日常的にしていれば、筋力は維持される。しかし、すべての荷物を運搬ロボットに任せるようになれば、腕の筋肉は確実に衰える。衰えるのは「筋肉を使わなくなった結果」であって、ロボットのせいではない。
さらに衝撃的なのは、MIT Media Labの「Your Brain on ChatGPT」研究(Kosmyna et al., 2025年)だ。54名の参加者をLLM群・検索エンジン群・ツールなし群に分けてエッセイ執筆実験を行い、EEG(脳波計)で脳活動を測定した。結果、LLM利用者が最も弱い脳の接続性を示し、ツールなし群が最も強い分散的な脳ネットワーク活動を示した。研究チームはこれを「認知的負債(cognitive debt)」と名付けた——AIは短期的に認知的努力を節約するが、長期的にはクリティカルシンキングの低下として「負債」が蓄積する、という概念だ。
CHI 2025(コンピュータと人間のインタラクション学会)で発表されたLeeらの研究(Microsoft Research, 2025年)も、319名のナレッジワーカーから936件のAI利用事例を収集し、AIへの信頼度が高い人ほどクリティカルシンキングを行わない一方、自身の能力への自信が高い人ほどクリティカルシンキングを実践するという相関を示している。つまり、「AIを信頼しすぎない」姿勢を持てるかどうかが分水嶺になっている。
高リスクタスクでは、むしろ認知負荷が「増える」
一方で、すべてのタスクでクリティカルシンキングが減るわけではない。
Microsoft Research / CHI(コンピュータと人間のインタラクション学会)周辺の研究は、タスクの重要度によって人間の行動が分かれることを示している。
- 低リスク・日常的タスク(メールの下書き、議事録の要約など): AIへの信頼が高いほど、自分で考える負荷を減らしがち。「まぁこれでいいだろう」と承認する。
- 高リスク・重要タスク(経営判断の資料、顧客への提案書など): AI利用時でも、むしろ批判的検証に余計な認知負荷がかかる。「AIの出力が間違っていないか」を徹底的にチェックする必要があるため。
つまり、AIは低リスクタスクでは思考を「節約」してくれるが、高リスクタスクでは「AIの出力を検証する」という新しい認知負荷を上乗せする。この二面性を理解しておくことが重要だ。
スキル需要の構造的シフト
個人の思考力の変化と並行して、労働市場が求めるスキルの構成も大きく動いている。
McKinseyの「Skill Shift: Automation and the Future of the Workforce」レポート(2018年、その後も更新)は、2030年までのスキル需要の変化を予測している。
- 需要が減少するスキル: 基本的な認知スキル(定型的なデータ入力・処理、単純な情報整理)、基本的なデジタルスキル
- 需要が増加するスキル: 高次の認知スキル(創造性、複雑な情報処理、批判的評価)、社会的・感情的スキル(リーダーシップ、交渉、共感)、先端テクノロジースキル
2026年の実感として、この予測はかなり正確だったと言える。AIが「基本的な認知スキル」を代替している一方で、「AIの出力を評価する」「適切な問いを設計する」「複数の情報源を統合して判断する」といった高次スキルの需要は明確に高まっている。
言い換えれば、「AIに答えさせる」スキルは誰でも持てるが、「AIの答えが正しいか判断する」スキルが希少価値を持つ時代になっている。
「退化」ではなく「強化」にするための3つの工夫
研究や事例から見えてくるのは、AI利用を「退化」ではなく「強化」に転じさせることは可能だということだ。以下に、すぐ実践できる3つの工夫を提案する。
工夫1: まず自分で考えてから、AIに聞く
Bastaniらの研究が示した通り、「AIに答えを聞く」のではなく「自分の仮説を持ったうえでAIに壁打ちする」だけで、学習効果は大きく変わる。
具体的には——
- 企画を立てるとき: まず自分で5分だけ箇条書きで案を出してから、AIに代替案を聞く
- バグを修正するとき: まず自分で原因の仮説を立ててから、AIに検証を依頼する
- 文章を書くとき: まず自分で構成案を考えてから、AIにたたき台を出させる
「5分だけ先に考える」習慣が、思考の筋力を維持する最小限のトレーニングになる。
工夫2: AIの推論プロセスを「読む」
AIの回答を結論だけ受け取るのではなく、chain-of-thought(推論の過程)を展開させて読む。そして、その推論に同意できるか・抜け漏れがないかを自分で検証する。
これは「答え合わせ」ではなく「思考プロセスの比較」だ。AIの推論ステップと自分の直感を突き合わせることで、自分では気づかなかった論理の飛躍や、逆にAIが見落としている前提条件に気づける。
工夫3: 定期的に「AIなし」の時間を作る
週に1〜2回、意識的にAIを使わずに問題に取り組む時間を設ける。これは筋トレにおける「フリーウェイト」の時間だ。マシン(AI)を使えば効率的に鍛えられるが、フリーウェイト(自力思考)でしか鍛えられない体幹のような力がある。
特に、自分の専門領域に関しては「AIなしで答えを出せる状態」を維持することが、長期的なキャリアの保険にもなる。
まとめ: 思考力の「使い道」が変わっている
深く考える力が「消える」のではない。深く考える「対象」と「モード」が変わっているのだ。
- ゼロから推論を組み立てる「構築モード」の出番は減っている
- 代わりに、AIの出力を検証・統合する「評価モード」の出番が増えている
- ただし、「評価モード」だけを使い続けると、「構築モード」のスタミナ(粘り)が落ちる
- 意識的に「構築モード」を使う時間を確保することで、両方の力を維持できる
次の記事では、この「評価モード」がさらに問われる場面——AIが大量に生成するアウトプットの山に、人間のレビューが追いつかなくなる「ボトルネック問題」——を取り上げる。「workslop」という新しい概念とともに、AI時代の生産性の逆説を掘り下げていく。