個人の自由研究として、「AIを使うと考えなくなるのか」を調べてみました。
きっかけは2つある。
1つ目は、このサイトのサーチコンソール。「chatgpt as a cognitive crutch」「Doshi Hauser generative AI」「パフォーマンスが低下しています」。AIが思考力を奪う問題を調べている人が、このサイトにたどり着いている。
2つ目は、記事9「人間+AI=パフォーマンス低下?」を書いた後に出てきた新しい研究データだ。2025年後半から2026年にかけて、脳波測定、ランダム化比較試験、40万時間の職場データなど、「AIが認知に何をしているか」を直接測定した研究が急増した。
調べてみたら、「松葉杖」という比喩が、思った以上に正確だった。
この記事でやったこと
- 調査対象: AIツール(特にChatGPT)の使用が人間の認知能力(記憶、批判的思考、専門スキル)に与える影響を、査読済み論文を中心に検証
- 方法: 4方向並行調査。「学術研究(認知心理学・教育・医療)」「営業・ビジネス実務での脱スキル化事例」「日本語圏の報道・体験記」「2025-2026年の最新データ」を同時に調査
- ソース数: 120件超(英語80件超、日本語40件超)
- 調査日: 2026-04-03
- 関連記事: 人間+AI=パフォーマンス低下? 106研究が示す不都合な真実 — 本記事はあの106研究メタ分析の「なぜ」を、認知科学の側から掘り下げる
- 関連記事: 新人営業の最初の3ヶ月、AIをどう使う/使わない — 本記事のデータは、新人にAIを無制限に使わせるリスクを裏付ける
- 関連記事: AI×人間の「ハイブリッド」は機能するのか — ハイブリッドが機能する条件を、認知の側から再検討する
9本の研究が指す同じ方向
まず、査読済み(またはそれに準ずる)論文を時系列で並べてみる。
| 研究 | 年 | 対象 | 核心データ |
|---|---|---|---|
| Sparrow, Liu & Wegner | 2011 | Columbia/Harvard実験 | 情報をGoogleで検索できると知ると、情報そのものの記憶が低下する(「Google効果」) |
| Dell’Acqua et al.(Harvard/BCG) | 2023 | BCGコンサルタント758人 | AIの得意領域で+40%品質向上。不得意領域で19ポイント悪化 |
| Doshi & Hauser | 2024 | 作家300人+評価者600人 | 個人の創造性+8-10%。だが作品間の類似度が10.7%上昇(集団的多様性の低下) |
| Barcaui(FGV/UFRJ) | 2025 | 大学生120人のRCT | ChatGPT使用群の45日後の知識定着率57.5%(非使用群68.5%)。11ポイントの差 |
| MIT Media Lab | 2025 | 54人のEEG脳波測定 | ChatGPT使用群の脳の神経接続が最も弱い。使用中止後も回復しない |
| Microsoft/CMU(CHI 2025) | 2025 | 知的労働者319人 | AIへの信頼度が高いほど、批判的思考が低下 |
| Gerlich | 2025 | 666人の調査 | AIの頻繁な利用と批判的思考能力に有意な負の相関。若い参加者ほど強い |
| Lancet(内視鏡研究) | 2025 | 医師19人・1,443件 | AI支援後の非AI検出率: 28.4%→22.4%(20%の相対的低下) |
| Wharton/Penn(PNAS) | 2025 | 高校生約1,000人 | GPT-4使用群の練習時+48%。AI除去後の試験で**-17%** |
9本の研究すべてが、同じ方向を指している。AIは短期的なパフォーマンスを上げながら、長期的な能力を下げる。
「松葉杖」の正体 — 認知的オフローディング
なぜ、AIを使うと考えなくなるのか。認知科学には、この現象を説明する概念がある。認知的オフローディング(cognitive offloading)だ。
2016年にRisko & Gilbertが『Trends in Cognitive Sciences』で体系化した概念で、「外部のツールに認知的な作業を移譲すること」を指す。電卓を使えば暗算しなくなる。カーナビを使えば道を覚えなくなる。メモ帳を使えば記憶に頼らなくなる。
これ自体は悪いことではない。人間は昔からオフローディングをしてきた。文字の発明は記憶のオフローディングだった。
問題は、オフローディングの範囲が「計算」や「記憶」から「思考」そのものに広がったことだ。
Grinschgl, Papenmeier & Meyerhoff(2021年、172人の実験)は、認知的オフローディングの代償を端的に示した。「タスクの処理速度は上がったが、想起パフォーマンスは低下した」。つまり、やっている最中は速い。終わった後に何も残らない。
ChatGPTでメールを書けば速い。だが「なぜこの書き方にしたのか」「この顧客にこの表現が効く理由は何か」を、自分で考えていない。MITの脳波研究が示したのは、まさにこの構造だ。
MITの脳波研究 — 脳のつながりが弱くなる
MIT Media Labの研究(2025年)は、AIの認知的影響を脳波で直接測定した初の本格的な試みだ。
54人の参加者を3グループに分けた。「ChatGPT使用」「検索エンジン使用」「自分の脳だけ」。エッセイを書かせながらEEG(脳波計)で脳の接続性を測定した。
結果:
- 脳の接続性: 「自分の脳だけ」が最も強く、「検索エンジン」が中間、「ChatGPT」が最も弱い
- 4ヶ月後のクロスオーバー実験: ChatGPT→自力に切り替えた18人は、切り替え後も脳の接続性が弱いままだった
- ChatGPT使用者は、自分が書いたエッセイを正確に引用できなかった
研究者はこれを**「認知的負債」**(cognitive debt)と呼んだ。金銭的な負債と同じで、目に見えないうちに積み上がり、返済を求められたとき(AIなしで仕事をする必要が出たとき)に問題が顕在化する。
注意点として、この研究はサンプル数54人と小さく、査読プロセスも途上だ。ただし、他の研究と方向が一致している点は注目に値する。
Wharton/Pennの「-17%」— 松葉杖を外したら歩けなくなった
Wharton School(ペンシルベニア大学)の研究は、PNASに掲載された(2025年)。対象はトルコの高校生約1,000人。
3グループに分けた。
- 対照群: AIなし
- GPT Base群: GPT-4を自由に使える
- GPT Tutor群: GPT-4をチューター型(答えを直接出さず、ヒントで導く)で使う
練習段階の成績:
- GPT Base群は対照群より48%高い成績
- GPT Tutor群は127%高い成績
しかし、GPTへのアクセスを外した試験で:
- GPT Base群は対照群より17%低い成績
- GPT Tutor群は悪影響が緩和された
松葉杖を外したら、使わなかった人より歩けなくなっていた。
この研究が重要なのは、「正しい使い方」が存在することも同時に示しているからだ。GPT Tutor群(答えではなくヒントを出す使い方)は、悪影響が緩和された。つまり問題は「AIを使うこと」ではなく、**「AIに考えてもらうこと」**にある。
Barcaui — 45日後に11ポイントの差
ブラジルのFGV(ジェトゥリオ・ヴァルガス財団)で行われたRCT(2025年)は、より直接的だ。
120人のビジネス系学部生を2グループに分けた。ChatGPT自由使用群と、従来型学習群。
- ChatGPT群の学習時間: 平均3.2時間
- 従来型群の学習時間: 平均5.8時間(45%多い)
45日後の抜き打ちテスト(20問の選択式):
- 従来型群: **68.5%**正解
- ChatGPT群: **57.5%**正解
11ポイントの差。学習時間の差を統計的に調整しても、この差は残った。つまり「ChatGPT群は勉強時間が短かったから」だけでは説明できない。ChatGPTの利用経験の有無による差もなかった。
著者は「望ましい困難」(desirable difficulties)理論で説明している。苦労して学んだことは長く残る。苦労を省くと、短期的に楽だが、長期的に残らない。
Harvard/BCG — 「ギザギザの境界線」の19ポイント
記事9でも触れたHarvard/BCGの実験(758人のBCGコンサルタント)を、ここで認知の文脈から再解釈する。
AIの得意な領域(「境界線の内側」)では、品質が40%向上し、作業速度は25%上がった。しかし境界線の外側(AIが苦手な領域)に踏み込んだタスクでは、AI使用群はAI非使用群より19ポイント悪い結果を出した。
研究者は2つのパターンを特定した。
- ケンタウロス型: タスクを人間パートとAIパートに分け、AIの得意・不得意を見極めて使い分ける
- サイボーグ型: 作業全体を通してAIと融合し、常にAIの出力を基に作業する
サイボーグ型は、境界線の外側で特に成績が悪化した。AIの出力を疑わずに受け入れるため、AIが間違えたときに気づけない。
「Delve」現象 — AIの語彙が人間に感染する
Max Planck人間発達研究所の分析(2025年)は、別の角度からAIの影響を可視化した。
学術系YouTubeチャンネル約28万本の動画を分析したところ、ChatGPT登場後18ヶ月で「meticulous」「delve」「realm」「adept」といった単語の使用頻度が最大51%増加した。
医学論文では「delve」の出現率が0.04%未満から0.5%超に急増した。
さらに興味深いのは、ポッドキャストでの分析だ。「delve」の使用の58%は台本なしの自発的発話だった。つまり、AIの語彙が書き言葉だけでなく、話し言葉にまで浸透している。
これは「考えなくなる」問題の別の側面だ。AIが生成する文章を繰り返し読むうちに、AIの表現パターンが自分の語彙を侵食していく。イタリアのレストランを対象にした研究(SSRN、2025年)では、ChatGPT一時禁止期間中にInstagram投稿の語彙的類似度が15%低下し、いいね数が3.5%増加した。AIの影響が消えたら、コンテンツが多様になり、エンゲージメントが上がった。
内視鏡医の脱スキル化 — Lancetの衝撃
Lancet Gastroenterology & Hepatology(2025年)に掲載された研究は、AIの認知的影響が「気分の問題」ではなく、実測可能な能力低下を引き起こすことを、医療の現場で証明した。
ポーランドの4施設、19人の熟練内視鏡医(全員2,000件以上の実績)、1,443件の大腸内視鏡検査を分析した。
- AI支援導入前の腺腫検出率: 28.4%(795件中226件)
- AI支援に慣れた後の非AI検査での検出率: 22.4%(648件中145件)
6ポイントの絶対低下。相対的に20%の劣化だ。
熟練医が、AIに慣れた結果、AIなしでの能力が下がった。これは「松葉杖に頼りすぎて、筋力が落ちた」構造そのものだ。
営業の現場 — 新人がAIにしか相談しない
ここまでは学術研究の話だ。では、営業の現場で何が起きているか。
経営コンサルタントの横山信弘が報告した事例(Yahoo!ニュース、2025年4月)が象徴的だ。
新入社員がAIだけで商談準備を行った。結果、顧客対応の基本 — 挨拶、立ち振る舞い、言葉選び、臨機応変な対応 — が全く身についていなかった。先輩社員の「もうAIを使うな」という指導に、コメント欄で賞賛が集まった。
2026年3月の続報では、新人の研修期間中にAIツールの使用を制限する企業が増えている。制限期間は3ヶ月から1年。あるITコンサルティング企業では、段階的にAI使用を解禁する仕組みを導入した。
NSSスマートコンサルティングの調査(2026年2月、会社員対象)はさらに踏み込んでいる。
- 会社員の約**7割(67.1%)**がAI依存を自覚
- 不安の第1位: 「スキルが低下したと感じる」(37.0%)
- AI利用頻度は前年比1.5倍に急増
使えば使うほど依存し、依存するほどスキル低下を実感し、それでも使用頻度は上がる。この循環は、記事12「解約率」で見た「導入するが続かない」とは正反対の構造だ。こちらは「使い続けて能力が下がる」問題。
830コメント事件 — AIコード生成の認知的負債
2026年3月、日本のテック界隈で話題になった事例がある。入社1年目のエンジニアがAI(Cursor + Claude Code)を使ってコードを生成し、初めての大規模コードレビューで830件のコメントを受けた。
コードは動いていた。だが「なぜそう書いたのか」を説明できなかった。本人が「理解が実装に追いついていない」と自覚し、AI使用を一時中断した。
これはWhartonの「-17%」の職場版だ。AIで速く作れる。だが松葉杖を外したとき — レビュー、質問、トラブル対応 — に自分の足で立てない。
Microsoftの研究 — 信頼するほど考えない
Microsoft Research + カーネギーメロン大学の研究(CHI 2025、319人の知的労働者)は、「松葉杖」のメカニズムを特定した。
AIへの信頼度が高いほど、批判的思考が低下する。
逆に、自分自身への自信が高い人ほど、批判的思考を維持していた。
研究者はこう表現した。「定型業務を機械化し、例外処理だけを人間に残すことで、日常的に判断力を鍛える機会を奪っている。その結果、認知的な筋肉が萎縮し、例外が来たときに対処できなくなる」。
Gerlichの666人調査(MDPI、2025年)も同じ方向を示す。AIの頻繁な利用と批判的思考能力に有意な負の相関があり、若い参加者ほど相関が強い。高等教育を受けた人では緩衝効果が見られた。
UC Berkeley — AIは時間を節約しない。仕事を濃縮する
UC Berkeley Haasの研究(2026年2月、HBR掲載)は、8ヶ月のエスノグラフィー調査(40人の知的労働者を密着観察)だ。
発見は、多くの企業が期待するものとは正反対だった。
AIは時間を節約しなかった。仕事を濃縮した。
3つのメカニズムが特定された。
- タスクの範囲膨張: AIで空いた時間に、「AIでできるから」と新しい仕事が入ってくる
- 仕事と私生活の境界侵食: 解決策が「あと1プロンプト」で手に入るため、休憩の自然なきっかけが消える
- 慢性的マルチタスキング: プロダクトマネージャーがコードを書き始め、リサーチャーがエンジニアリングチケットを引き受ける
6ヶ月後、燃え尽き、不安、意思決定麻痺が急増した。
ActivTrakの443万時間・16.3万人の職場データ分析(2026年)も、この構造を裏付ける。集中セッションの長さは9%短縮(14分23秒→13分7秒)。コラボレーション時間は34%増加。マルチタスキングは12%増加。週末労働は40%超増加。
AIは仕事を楽にしていない。速く、密度高く、休みなくしている。
Z世代の矛盾 — 「AI禁止企業はお断り」vs「AI禁止で利益200%」
日本で面白い対立構造が浮かんでいる。
IDEATECHの調査では、Z世代就活生の**58.2%**がAI活用の可能性を就職先選びで重視し、AI禁止企業への内定辞退も1割を超えた。
一方、横山信弘は「AI使用を規制して利益を200%アップさせた社長」の事例を報告している(2026年)。
ダラス連銀のデータ(2026年1月)は、もうひとつの構造を示す。AI影響の大きい職種(ソフトウェアエンジニア、カスタマーサービス、マーケティング/営業マネージャー)で、22-25歳の雇用が6%減少した(2022年末〜2025年7月)。
米国では新卒向けの求人が2023年1月以降約35%減少した(Fortune、2025年9月)。エントリーレベルの仕事は定型業務で構成されている。定型業務こそ、トレーニングの場だ。AIがそれを奪うと、スキルを身につける最初の階段が消える。
英CIPD調査(2,019人の人事責任者)では、62%の英国企業がジュニア・事務・管理職の仕事がAIに置き換わると予測している。
消費者はすでに気づいている
Muse/NetInfluencerの大規模調査(2025年、米英4,000人の消費者 + 1,000人のクリエイター + 1,000人のマーケター)が、もう一つの構造を明らかにした。
AI生成コンテンツへの消費者の好感度:
- 2023年: 60%
- 2025年: 26%
34ポイントの崩落。消費者の52%が、AI生成と疑われるコンテンツへのエンゲージメントを意識的に減らしている。
にもかかわらず、マーケターはAIコンテンツへの支出を79%増加させた。
記事7「AI営業メール、送った先で何が起きているか」、記事11「真顔の喜劇」で書いた構造と同じだ。送り手はAIで量を増やし、受け手はAIコンテンツを避ける。松葉杖で量産されたコンテンツは、受け手に見透かされている。
注意点
「AIを使うな」と言いたいわけではない。
Whartonの研究で「GPT Tutor群」(答えではなくヒントを出す)は悪影響が緩和された。Harvard/BCGの「ケンタウロス型」(タスクを分けてAIの得意・不得意を見極める)は境界線の外側でも成績を維持した。Gerlichの研究では高等教育が緩衝効果を持っていた。
共通するのは、「AIに考えてもらう」のではなく「AIと一緒に考える」使い方だ。
- AIの出力をそのまま使わず、自分で書き直す(認知的努力を維持する)
- 答えではなくヒントを求める(Whartonの「Tutor型」)
- AIが得意な領域と不得意な領域を区別する(BCGの「ケンタウロス型」)
- 定期的にAIなしで作業する(内視鏡研究の教訓: 使わないと能力が落ちる)
日本で新人のAI使用を制限する企業が増えているのは、無意識にこの構造に対応しているのだろう。スキルが形成される時期にオフローディングを許すと、そもそも鍛えるべき筋肉が育たない。
他の記事との関連
- 営業AI「導入したのに使われない」問題 — 使われない問題の裏側に「使われすぎ」問題がある
- 営業の「時間泥棒」業務5つ × 生成AIの効き具合 — 時間泥棒をAIで解消すると、別の認知コストが発生する
- 議事録AI、導入前に知っておきたい5つの落とし穴 — 議事録をAIに任せると会議に集中できなくなる問題
- 提案書AI、修正地獄を避ける使い方 — AIで提案書を量産すると「なぜこの構成にしたか」が説明できない
- 新人営業の最初の3ヶ月、AIをどう使う/使わない — 本記事のデータは、新人期間のAI制限を強く支持する
- 営業AIエージェント、「自動で売れる」の期待と現実 — エージェントに任せきりにするリスクの認知科学的根拠
- AI営業メール、送った先で何が起きているか — 松葉杖で量産されたメールが受け手に見透かされる構造
- 商談前30分の準備 — 「AIで調べる」と「自分で考える」の使い分けが鍵
- 人間+AI=パフォーマンス低下? — 本記事は106研究メタ分析の「なぜ」を認知科学で掘り下げた
- AI vs AI 戦線マップ — AIの認知的影響を、市場構造に重ねて読む
- なぜ営業AIは「真顔の喜劇」になるのか — 認知的松葉杖は「真顔の喜劇」の個人版
- 営業AIの解約率 — 「使い続けて能力低下」は「使い捨て」とは別の失敗パターン
- AI営業エージェント、静かに壊れている — エージェントに委ねた判断が壊れたとき、人間に戻せるか
- SaaSpocalypse — 営業AIツール、挟み撃ちの構造 — ツールの淘汰は認知的依存を深める(乗り換え先でも同じ松葉杖)
- LinkedIn営業メッセージ、墓場になっている — AI量産メッセージの「Delve現象」LinkedIn版
- 規制の振り子 — 規制が松葉杖を外す日が来る可能性
- マネージャーが入れたAIを現場が使わない構造 — 使わない側と使いすぎる側の両極
- CRM導入の半分は失敗する — CRMの「入力しない」問題とAIの「考えない」問題は同根
- 買い手もAIで武装している — 買い手もAIの松葉杖を使っている。誰が考えているのか
- AI×人間の「ハイブリッド」は機能するのか — ケンタウロス型/Tutor型は認知的松葉杖の回避策でもある
- 英語で効くAI営業術が日本語では通用しない5つの構造 — 日本の新人AI禁止は言語的制約とも関連
- ソローのパラドクス再来 — パラドクスの一因は認知的松葉杖による見えない能力低下
- 採用率と失敗率の定点観測 2026Q1 — 採用率と能力変化の時系列対照
- 営業AIの現場レポート 2026Q1 — 現場の松葉杖依存の実態
- 営業AIエージェント時代の定点観測 2026Q1 — エージェント依存のリスクデータ
- 中小企業のAI導入率は5%か68%か — 政府統計5-12% vs ベンダー調査55-68%。10倍ズレる数字の構造と、大企業向けAI戦略が中小に通用しない理由
─────────────────────────────── 📋 調査カード ─────────────────────────────── 調査日:2026-04-03 調査ソース: 査読済み論文 9本(Science Advances, PNAS, Lancet GH, CHI 2025, Organization Science等) / プレプリント・ワーキングペーパー 3件(MIT Media Lab, SSRN等) / 業界調査(Microsoft Work Trend Index, ActivTrak, NSSスマートコンサルティング等) 8件 / メディア記事(HBR, Fortune, 東洋経済, 日経ビジネス, Business Insider Japan等) 15件超 / 日本語体験記(note.com 5件, Yahoo!ニュース 4件) ソースの言語:英語 80件超 / 日本語 40件超 地域・前提:学術研究は米国・欧州・ブラジル・トルコが中心。日本のデータはNSS調査(2026年)、横山信弘のコラムシリーズ、note体験記でカバー 情報の鮮度:2023年〜2026年4月の公開情報が中心。認知的オフローディングの基礎理論は2011年(Google効果)から
ソース偏りチェック: ✓ 英語・日本語 各10件以上 ✓ 成功と失敗の両面データあり(Wharton Tutor型の緩和効果、BCGケンタウロス型、高等教育の緩衝効果を含む) ✓ 査読済み論文を核に据え(9本)、ベンダー調査は補助的に使用 △ 営業現場の脱スキル化事例は間接的(横山コラムは体系的調査ではなくコンサルの観察) ✓ 日本固有データ3件以上(NSS調査、DBER調査、横山コラム4件、830コメント事件、note体験記5件)
反対意見・異論: 「ツールは常にスキルを変容させてきた」という歴史的視点は正当だ。電卓は暗算能力を下げたが、より高度な数学的思考に時間を使えるようになった。AIも同様に「低次の認知を解放し、高次の認知に集中させる」可能性がある。Salesforce State of Sales 2026では87%がAIで仕事のストレスが減ったと回答しており、認知負荷の軽減は主観的には実感されている。「スキル低下」と「スキル変容」の区別は難しく、現時点の研究は変容の長期的影響を十分に追跡できていない
調べきれなかったこと: ・営業職に限定した認知的オフローディングの定量研究(存在しない可能性が高い) ・日本の新人AI禁止企業の数と、禁止後の業績変化 ・「Tutor型」「ケンタウロス型」使い方の具体的ガイドラインの効果測定 ・MITの脳波研究の再現実験(サンプルサイズの拡大が必要)
私の仮説(暫定): 「松葉杖」比喩は本質を突いている。松葉杖は骨折の治療に必要だが、治った後も使い続けると筋力が落ちる。AIも同じで、特定のタスクを加速するには有効だが、恒常的に使うと「考える筋肉」が萎縮する。営業に即して言えば、新人が基本スキルを獲得する段階でのAI無制限使用は危険だ。一方、十分なスキルを持つ熟練者がAIを「道具」として使う分にはリスクは小さい。問題の核心は「誰が」「いつ」「どう」使うか — つまり設計の問題であり、AI自体の問題ではない ───────────────────────────────
※ この記事は個人の自由研究です。投資助言や特定ツールの推薦ではありません。掲載情報は調査日時点のものであり、最新状況と異なる可能性があります。
※ この記事の調査・構成にはAI(Claude)を使用しています。