個人の自由研究として、「人間+AIで本当にパフォーマンスが上がるのか」を調べてみました。
「人間とAIが協力すれば、どちらか単独より良い結果が出るはず」。
営業AIの導入を検討するとき、ほとんどの人がこの前提から出発する。ベンダーの提案資料にも「AIが営業担当をサポートし、生産性を○%向上」と書いてある。「AIが判断を補助し、人間が最終決定する」というヒューマン・イン・ザ・ループモデルは、いまやAI導入の標準的な設計思想になっている。
2024年、MITの研究チームがこの常識を検証した。106の実験を横断分析した結果、出てきたのは予想と正反対の数字だった。
人間+AIの組み合わせは、どちらか優れた方が単独で作業するより、有意にパフォーマンスが低い。
80件超のソースを集めて掘り下げたら、この「不都合な真実」の背景に、複数のパラドックスが絡み合っている構造が見えてきた。
この記事でやったこと
- 調査対象: 人間+AIの組み合わせがパフォーマンスを下げる現象 — 学術的証拠、脳科学的メカニズム、営業現場への影響
- 参照した情報: メタ分析(Vaccaro, Almaatouq, Malone — Nature Human Behaviour 2024、106実験370効果量)、HBR論文群(リテラシーパラドックス、能力ペナルティ、業務集約化、ワークスロップ、過信効果 — いずれも2025-2026年)、脳科学研究(MIT Media Lab — CHI 2025、脳波測定54名4ヶ月追跡)、Microsoft/CMU批判的思考調査(n=319)、BCG/Harvard「ギザギザの境界線」実験(n=758)、METR開発者生産性RCT(n=246)、認知科学研究(Gerlich 2025 n=666、Barcaui 2025 n=120)、PwC 5カ国比較調査、日本語メディア(Web担当者Forum/博報堂DY、日経xTECH、ITmedia、ダイヤモンド・オンライン、WIRED Japan)、note.com体験記
- ソース総数: 80件超(英語50件超、日本語30件超)※前8記事+定点観測の調査を含む累計は560件超
- 調査日: 2026-02-23
- 補足: 本記事は概論記事として、個別の営業業務(メール、議事録、提案書等)ではなく「人間+AIの組み合わせ」という構造的な問題を扱っている。個別業務については各論記事を参照
- 関連記事: 【調べてみた】営業AI「導入したのに使われない」問題 — 「使われない」構造の全体像。本記事はその根底にある「使っても効かない」問題を掘り下げる
- 関連記事: 【調べてみた】新人営業の最初の3ヶ月、AIをどう使う/使わない — 新人の脱スキル化を学術データで検証。本記事のメカニズム解説と直接つながる
106研究が示した「不都合な真実」
論文の概要
2024年10月、MITスローン経営大学院のMichelle Vaccaro、Abdullah Almaatouq、Thomas Maloneの3名が、Nature Human Behaviourに論文を発表した。タイトルは「When combinations of humans and AI are useful(人間とAIの組み合わせが有用なのはいつか)」。
5,126件の論文をスクリーニングし、最終的に74本の論文に含まれる106の実験から370の効果量を分析した、事前登録済みのメタ分析。対象期間は2020年1月から2023年6月まで。営業・医療・教育・クリエイティブなど多領域にまたがる。
2つの問い、2つの答え
この論文は、2つの問いを立てている。
問い1: AIを使うと人間だけより良くなるか?(人間の増強効果)
答え: はい。 Hedges’ g = +0.64(p < 0.001)。人間+AIは、人間だけより有意にパフォーマンスが高い。
ここまでは予想通り。多くのベンダーが引用する「AIで生産性○%向上」は、この効果を見ている。
問い2: 人間+AIは、どちらか優れた方の単独より良いか?(人間-AIシナジー)
答え: いいえ。 Hedges’ g = -0.23(95% CI: -0.39 to -0.07, p = 0.005)。人間+AIの組み合わせは、どちらか優れた方が単独で作業するより、有意にパフォーマンスが低い。
研究を主導したThomas Malone教授(MIT集合知センター所長)は、この結果を論文の**「最も驚くべき発見」**と呼んだ。
タスクの種類で明暗が分かれる
106の実験を「判断業務」と「コンテンツ作成」に分けると、パターンが鮮明になる。
| タスクの種類 | 効果量の数 | シナジー効果 | 解釈 |
|---|---|---|---|
| 判断業務(分類、予測、診断など) | 336 | g = -0.27(p = 0.002) | 人間がAIの足を引っ張る |
| コンテンツ作成(文章、デザインなど) | 34 | g = +0.19(p = 0.180) | 改善傾向だが統計的に有意ではない |
判断業務 — つまり「リードの優先順位付け」「売上予測」「顧客の見込み度判定」といった営業の中核業務 — で、人間+AIの組み合わせは有意にパフォーマンスが低下している。
一方、メール文面の作成や提案書のドラフトといったコンテンツ作成では、改善の兆候がある(ただし統計的に有意ではない)。
「人間がAIの足を引っ張る」具体例
論文で引用されている個別の実験結果を見ると、構造がより鮮明になる。
| タスク | AI単独 | 人間単独 | 人間+AI | 人間の影響 |
|---|---|---|---|---|
| 偽レビュー検出 | 73% | 55% | 69% | AIの精度を4ポイント低下させた |
| 医療診断(バージニア大学) | 92% | 76% | 76% | AIの精度を16ポイント低下させた |
| 鳥類の種分類(専門家) | 73% | 81% | 90% | 人間の方が得意な領域ではシナジーが生まれた |
偽レビュー検出では、AIが73%の精度で正しく判定していたのに、人間が「いや、これは本物のレビューだろう」と上書きして、精度を69%に落としている。医療診断では、ChatGPTが92%の精度を出していたのに、医師が「自分の臨床経験」で判断を修正した結果、76%に落ちた。
逆に、鳥類の種分類では人間の専門家がAIより得意だったため、AIの補助が純粋にプラスに働いた(81%→90%)。
相対的なスキルが方向を決める
この論文の最も重要な知見は、AIと人間のどちらが得意かで効果の方向が逆転するということ。
| 状況 | シナジー効果 | 解釈 |
|---|---|---|
| 人間がAIより得意 | g = +0.46(p < 0.001) | AIの補助が効く |
| AIが人間より得意 | g = -0.54(p < 0.001) | 人間が足を引っ張る |
AIが人間より得意な領域で人間を介在させると、パフォーマンスが中程度に低下する(g = -0.54)。人間はAI単独の場合よりは良くなるが(増強効果 g = +0.74)、その改善はAI単独のパフォーマンスに追いつかない。
そして、AIの能力が急速に向上している現在、AIが人間より得意な領域は拡大し続けている。
「改善策」が効いていない
研究者たちは、シナジーを改善するために試されてきた介入策の効果も検証した。結果は期待を裏切るものだった。
| 介入策 | 効果 |
|---|---|
| AIの判断理由を表示する(説明可能AI / XAI) | 有意差なし |
| AIの確信度スコアを表示する | 有意差なし |
| 専門家 vs 素人の違い | 有意差なし |
| 分業の設計方法 | 有意差なし |
「AIが理由を説明してくれれば、人間は適切に判断できるはず」という仮説は、データに支持されなかった。説明可能AIも、確信度スコアも、専門家の参加も、シナジーの改善には結びついていない。
「AIが推薦し、人間が決定する」というヒューマン・イン・ザ・ループモデルの根幹が、メタデータで否定されている。
「使えば使うほど」の5つのパラドックス
106研究の構造的問題の周辺に、複数のパラドックスが見つかった。どれも「直感に反する」データだが、複数の独立した研究で確認されている。
パラドックス1: 速くなったのに遅くなる
2025年7月、AI安全性研究機関METRが、経験豊富なオープンソース開発者を対象にしたランダム化比較試験(RCT)の結果を発表した。
| 項目 | 結果 |
|---|---|
| AIツール使用時の作業時間 | 19%増加(遅くなった) |
| 開発者の事前予測 | 「AIで24%速くなるはず」 |
| 開発者の事後感想 | 「AIのおかげで20%速くなった」 |
開発者はCursor ProとClaude 3.5/3.7 Sonnetを使い、実際のリポジトリで平均2時間のタスクに取り組んだ。結果、AIを使った方が19%遅くなった。しかし開発者自身は、作業後も「AIのおかげで20%速くなった」と信じていた。
知覚と現実のギャップは約39ポイント。AIが「速くなった感覚」を生み出すが、実際のアウトプットは遅くなっている。
HBR(2026年2月、UCバークレーのRanganathan教授ら)の8ヶ月エスノグラフィー研究は、この現象の組織版を報告している。米テクノロジー企業(約200名)を対象に、AIの導入後に何が起きたかを追跡した結果:
- **83%の従業員が「AIで仕事量が増えた」**と回答
- AIは12時間労働を常態化させた
- 従業員は「生産的に感じるが、忙しさは減っていない。むしろ増えた」と報告
経済学ではこれをジェボンズのパラドックスと呼ぶ。技術的な効率化は、その資源の総消費量を減らすのではなく、むしろ増やす。AIで仕事が速くなると、組織はさらに多くの仕事を割り当てる。
パラドックス2: 理解するほど使いたくなくなる
2025年7月、HBRに掲載されたボッコーニ大学のChiara Longoniらの研究は、直感に反する発見を報告した。
AIについて深く理解している人ほど、AIを使いたがらない。
数千名の米国参加者を対象にした6つの研究と、国際比較データの分析から、以下の構造が見えてきた:
- AIリテラシーが低い人は、AIを「魔法のようなもの」と感じ、畏敬の念から積極的に使おうとする
- AIリテラシーが高い人は、アルゴリズムや学習データの仕組みを理解しており、「魔法」の感覚がなくなる
- この効果は、AIの能力評価や倫理的判断の違いでは説明できない。純粋に「神秘性の消失」が原因
つまり、「AIの仕組みを教育すれば使ってもらえる」というベンダーの標準的な処方箋は、逆効果になり得る。理解させるほど、使いたくなくなる。
パラドックス3: 使った人の評価が下がる
2025年8月のHBR記事(Acarら、PNAS掲載論文に基づく)は、もう一つの厄介なパラドックスを報告した。
大手テクノロジー企業のエンジニア1,026人に、同一のPythonコードをレビューしてもらった。唯一の違いは、そのコードが「AIの支援で書かれた」と説明されたかどうか。
| 条件 | 能力評価 |
|---|---|
| 「自分で書いた」と説明されたコード | ベースライン |
| 「AIの支援で書いた」と説明されたコード | 9%低下 |
コードは全く同じ。にもかかわらず、「AIを使った」と言うだけで、能力が9%低く評価された。
さらに厄介なのは、この「能力ペナルティ」に性別格差があること:
| 対象 | 能力ペナルティ |
|---|---|
| 男性エンジニア | 6%低下 |
| 女性エンジニア | 13%低下 |
| AI非使用の男性が女性AI使用者を評価 | 26%低下 |
12ヶ月の追跡で、AIツールを試した社員は全体の41%にとどまった。女性エンジニアは31%、40歳以上は39%。能力ペナルティを予期している人ほど、採用率が低かった。
営業の現場に置き換えると、「AIを使って提案書を書きました」と正直に言うことが、評価を下げるリスクになり得る。
パラドックス4: AIが生み出す「新しいゴミ」
2025年9月のHBR記事(スタンフォード大学Hancock教授ら)は、**「ワークスロップ」**という概念を提示した。AIが生成した、見た目は整っているが中身のない仕事のこと。
| データ | 数字 |
|---|---|
| 直近1ヶ月でワークスロップに遭遇した従業員 | 40% |
| 職場コンテンツのうちワークスロップだと推定される割合 | 15.4% |
| 1件のワークスロップへの対処に要する時間 | 1時間56分 |
| 1万人企業の年間損失(推定) | 900万ドル超 |
AIで「効率的に」生成されたドキュメントが、受け取った側の時間を1件あたり約2時間奪っている。生産性ツールが、生産性を破壊している。
さらに、ワークスロップを受け取った人の反応:
- 50%が送り主を「創造性に欠ける」と評価
- 42%が「信頼できない」と評価
- 32%が「もうこの人とは協働したくない」
パラドックス3(能力ペナルティ)とパラドックス4(ワークスロップ)は重なる。AIを使ったことが分かると評価が下がり、AIが生成した低品質なアウトプットが信頼を壊す。
パラドックス5: 予測がかえって悪化する
2025年7月のHBR記事(Parra-Moyanoら)は、約300名の経営幹部を対象にした実験を報告した。
参加者はNvidiaの株価チャートを見て1ヶ月後の価格を予測。その後、半数がChatGPTに、残り半数が同僚にアドバイスを求めてから予測を修正した。
| グループ | 予測の修正方向 | 予測精度 |
|---|---|---|
| ChatGPTに相談 | 平均**+5.11ドル**引き上げ | 悪化 |
| 同僚に相談 | 平均**-2.20ドル**引き下げ | 改善 |
ChatGPTは権威的な口調で詳細な分析を提供し、経営幹部の「自信」を高めた。しかし、その自信は根拠のないものだった。小数点付きの具体的な数字で予測する人(過信の指標)は、ChatGPT相談後に有意に増加した。同僚との対話は、社会的な調整メカニズム(「本当にそう思う?」)が働き、過信を抑制した。
AIは「自信を与える」が、その自信が判断を歪める。
なぜ人間はAIの足を引っ張るのか — 脳科学の知見
5つのパラドックスの背景には、より深いメカニズムがある。脳科学と認知科学の研究が、「AIを使うと人間の思考力が低下する」メカニズムを明らかにし始めている。
脳の神経接続が低下し、回復しない
2025年6月、MIT Media Labの研究チームがCHI 2025(コンピュータ・ヒューマンインタラクション国際会議)で発表した研究は、衝撃的だった。
54名の参加者を3グループ(ChatGPT使用、検索エンジン使用、自力のみ)に分け、4ヶ月間にわたって4回のエッセイ執筆を行いながら脳波(EEG)を測定した。
| グループ | 脳の神経ネットワーク | エッセイの質 | 自己引用の正確性 |
|---|---|---|---|
| 自力のみ | 最も強く、分散 | 最も高い | 最も正確 |
| 検索エンジン使用 | 中程度 | 中程度 | 中程度 |
| ChatGPT使用 | 最も弱い | 最も低い | 自分が書いた内容を正確に引用できない |
ChatGPTグループは、脳の神経接続が最大55%低下していた。
最も衝撃的だったのは、回復しないという発見。ChatGPTに依存してエッセイを書いた参加者が、後からAIなしで書こうとしても、脳活動は低いままだった。自律的な思考に必要な高次ネットワークが「休眠状態」のまま戻ってこなかった。
一方、最初に自力で書き、その後AIを導入したグループでは、脳活動がむしろ増加し、エッセイの質も満足度も高かった。
KDDI総合研究所の分析(2025年)はこの研究を引用し、「生成AIに依存すると脳活動が低下したまま戻らない」と日本語で警告している。
AIへの信頼が高いほど、思考が浅くなる
2025年初頭、Microsoft ResearchとCarnegie Mellon大学の共同研究は、319名の知識労働者から936件の一次体験を収集し、AIと批判的思考の関係を分析した。
主な発見:
- AIへの信頼度が高いほど、批判的思考の使用頻度が低下する
- 逆に、自分自身への信頼度が高いほど、批判的思考の使用頻度が上昇する
- 低リスク・時間制約ありの業務では、批判的思考が顕著に減少する
- AIが日常業務を機械化することで、判断力を鍛える日々の練習機会が失われる
「オートメーションの皮肉」と呼ばれる構造がここにある。日常的な判断をAIに任せて「楽」になると、非日常的な判断(クレーム対応、契約交渉、顧客の微妙な反応の読み取り)が必要になったとき、その能力が萎縮して使えなくなっている。
認知的オフローディングの数値化
2025年1月、Gerlichの研究は666名を対象にAI使用と認知能力の関係を定量化した。
| 関係 | 相関係数 | 解釈 |
|---|---|---|
| AIツールの使用頻度 → 認知的オフローディング | r = +0.72 | 使うほど「脳の仕事」をAIに任せる |
| 認知的オフローディング → 批判的思考力 | r = -0.75 | 脳の仕事を任せるほど思考力が落ちる |
若い参加者ほどAI依存度が高く、批判的思考スコアが低かった。高学歴はこの効果を部分的に緩和した。
「答えを聞く」vs「考え方を聞く」で結果が変わる
2026年1月、Anthropicが発表した研究(日経xTECH報道、1月のAI論文ソーシャルメディア言及数で世界4位)は、AIの使い方によってスキル獲得への影響が正反対になることを示した。
Pythonの非同期ライブラリを題材にしたプログラミング課題で:
| 使い方 | 生産性 | スキル習得(クイズ) |
|---|---|---|
| AIなしで自力 | 低い(時間がかかる) | 高い |
| AIに「答え(コード)」を聞く | 高い | 低い |
| AIに「考え方(概念)」を聞く | 中程度 | 高い |
AIに「このコードを書いて」と頼む人は生産性が上がるがスキルが身につかない。AIに「この概念を説明して」「なぜこのアプローチがいいのか」と聞く人は、スキルが身につく。
同じAIツールを使っていても、「答えを求める」使い方と「理解を深める」使い方で、長期的な効果が正反対になる。
営業の現場で何が起きているか
ここまでは領域横断の学術データだった。では、営業の現場ではどうか。
「期待を上回った」 — 日本だけ13%
PwC Japanの2025年春の5カ国比較調査は、生成AIの効果実感に大きな格差があることを示した。
| 国 | 「期待を上回った」 | 「期待通り以上」(合計) |
|---|---|---|
| 米国 | 51% | 90%超 |
| 英国 | 50% | 90%超 |
| ドイツ | 28% | — |
| 中国 | 24% | — |
| 日本 | 13% | 64% |
日本企業の約25%が「効果は期待以下だった」と回答している。ITmedia(2025年7月)はこの状況を「日本企業の生成AI活用が『何かおかしい』」と表現した。
PwCの分析によると、日本企業はAIを「OA(オフィスオートメーション)ツール」の延長として導入している。文書要約や定型業務の効率化 — つまり「自動化と費用削減」。一方、効果を出している米国企業は、AIを「新しいビジネス企画」や「業務プロセス全体の再設計」に使っている。
AIの導入率自体は日本も世界平均レベル。足りないのは「効果の出し方」。
導入しても使われなくなる — 90%以上
note.com上の実務者の報告(towa_0530)によると、AIを導入しても数週間で使われなくなるケースが90%以上。これは前の記事「使われない問題」で詳しく調べた構造と一致する。
Members社(デジタルマーケティング支援)の事例はさらに具体的。リテール企業のLP(ランディングページ)制作にAIを導入した結果:
- AIが生成したLP原稿に人間の品質チェックが必要になった
- チェック工程がAI導入前の工程より複雑化した
- 人員が増加した
- プロジェクトは撤退
「AIで効率化」が「AIのせいで非効率化」に反転した典型例。
勝率と商談サイクルの悪化傾向
Outreach社のSales 2025 Data Reportは、営業全体の勝率が下降トレンドにあることを報告している。2025年の最大ボリュームゾーンは21-25%で、1年前の31-40%から低下した。商談サイクルも長期化し、34%が1-2四半期に及ぶ。
AI SDRの過剰使用が見込み客の信頼を損ない、パイプライン全体の質を下げている可能性がある。この構造は「AI営業メール、送った先で何が起きているか」で詳しく調べた。
「現場のせいではない」
ダイヤモンド・オンラインの坂田幸樹氏(戦略コンサルタント)の分析は、この状況を「構造的な病」と表現している。
- 現場では「仕事が前より増えた」「誰も使っていない」の声
- 問題はAIの性能ではなく組織構造
- 各部門の「痛点」を個別にAIで解決しようとするほど、システム全体が複雑化
- 部分最適を積み重ねた結果、全体最適から遠ざかる
財務省の経済トレンドコラム134号(2025年8月)も同様の分析を行い、「生成AI導入はゴールではない」と題して、導入と効果の間の構造的ギャップを指摘している。
BCG/Harvard「ギザギザの境界線」 — 人間を鈍らせる構造
106研究のメタ分析とは別に、BCGとHarvard Business Schoolの共同実験(Dell’Acqua, Mollickら、2023年)が、人間がAIに「騙される」メカニズムを詳細に解剖している。
実験の設計
BCGの現役コンサルタント758名(個人貢献者レベルの約7%)に、18種類のタスクを与えた。タスクはAIが得意なもの(境界線の内側)と不得意なもの(境界線の外側)に分かれている。
境界線の内側: 驚異的な改善
AIの能力境界線の内側では:
- タスク完了数: 12.2%増
- 完了速度: 25.1%速い
- 品質: 40%向上
これだけ見れば、AIは文句なしの生産性ツール。
境界線の外側: 静かな劣化
AIの能力境界線の外側(ビジネスデータ分析に基づく戦略的意思決定など)では:
- AIを使ったコンサルタントは、使わなかったコンサルタントより正答率が19ポイント低い
- 思考の多様性が41%減少 — AIの紋切り型の回答に引きずられた
- プロンプトエンジニアリングの研修を受けたグループは、受けていないグループよりさらに成績が悪かった
なぜ境界線が見えないのか
この実験の最も重要な発見は、人間には境界線がどこにあるか分からないということ。
AIは境界線の内側でも外側でも、同じように自信に満ちた口調で回答する。正しい回答も間違った回答も、同じレベルの「説得力」で提示される。精緻な「サイバーグ」型の使い方(AIの出力を細かく検証しながら使う)を実践しているコンサルタントですら、AIの自信に満ちた誤答に説得されるケースがあった。
営業の文脈では、「売上予測」「顧客セグメンテーション」「競合分析」のどれがAIの境界線の内側で、どれが外側か、現場の営業担当には判断できない。境界線が見えないまま全業務にAIを使えば、一部は改善し、一部は劣化する。劣化した部分は気づかれにくい — AIの回答は常に自信に満ちているから。
それでも「効く」条件
ここまでの話は暗いが、106研究が示しているのは「AIが使えない」ということではない。**「人間+AIの組み合わせ方に、現在の標準的なアプローチには構造的な問題がある」**ということ。
データが示す「効く」条件を整理する。
条件1: 人間がAIより得意な領域で使う
メタ分析の最も明確な知見。人間がAIより得意な領域(g = +0.46)でAIを補助的に使えば、シナジーが生まれる。
営業で「人間がAIより得意」な領域は:
- 対面でのニュアンス読み取り(表情、声色、沈黙の意味)
- 複雑な利害関係の整理(組織内の力学、未発言の関心事)
- 信頼構築(一貫性、誠実さ、約束の履行)
- 異例の状況への対応(想定外の質問、クレーム、予算の急な変更)
これらの領域で、AIに「情報整理」や「選択肢の提示」をさせ、判断は人間がする。この使い方なら106研究のデータとも整合する。
条件2: コンテンツ作成に絞る
メタ分析でシナジーが正(g = +0.19)だったのはコンテンツ作成。
- メールの下書き作成
- 議事録の要約
- 提案書の構成案出し
- 見込み客リサーチの要約
ただし、これらにも落とし穴がある。「提案書AI、修正地獄を避ける使い方」「議事録AI、導入前に知っておきたい5つの落とし穴」で調べた通り、コンテンツ作成でも「AIに丸投げ」すると品質問題が発生する。
条件3: 「答え」ではなく「考え方」を聞く
Anthropicの研究が示した、AIの使い方による効果の逆転。
- ✕「この見込み客に送るメールを書いて」→ スキルが身につかない
- ○「この見込み客へのアプローチ、どんな切り口が考えられる?それぞれのメリット・デメリットは?」→ 思考力が鍛えられる
MIT Media Labの研究も、順序が重要だと示している:
- ✕ 最初からAIに頼る → 脳活動が低下し、回復しない
- ○ まず自分で考え、その後AIを使う → 脳活動がむしろ増加する
「AIを使うな」ではなく、**「使う順番と使い方を変える」**だけで、効果が正反対になる。
条件4: 「速さ」ではなく「精度」のために使う
METRの開発者研究(19%遅くなった)と、HBRの業務集約化研究(83%が仕事量増加)が示すのは、「AIで速くする」という目標設定自体が罠になり得ること。
AIを「速く処理するためのツール」として使うと:
- 処理量が増え、仕事量が増える(ジェボンズのパラドックス)
- 速さの感覚が判断力の劣化を隠す(METR研究)
- 低品質のアウトプットが増え、他者の時間を奪う(ワークスロップ)
AIを「精度を上げるためのツール」として使うと:
- 送る数ではなく、送る質が上がる(メール軍拡競争の唯一の脱出口)
- 判断の前に多角的な情報を集められる(商談準備の最適解)
- 自分の思考を検証するためのセカンドオピニオンになる
注意点
この記事の限界
- Vaccaro et al.のメタ分析は2020-2023年の研究を対象としており、最新の大規模言語モデル(GPT-4o, Claude 3.5以降等)の効果は含まれていない。AIの急速な進化により、状況は変わり得る
- 106実験の97.7%が異質性(I²)を示しており、「平均的に悪い」と言っても個別の研究結果は大きくばらつく。自分の業務がどこに位置するかは、個別に検証が必要
- 日本語圏のデータはPwC調査やメディア報道が中心で、大規模なRCT(ランダム化比較試験)は見つからなかった
- 営業に特化したRCTは見つからなかった。BCG/Harvard研究はコンサルタント、METR研究は開発者が対象
- 「効く条件」は現時点での仮説であり、営業現場での大規模検証は今後の課題
この記事が扱えていないこと
- AIの進化が構造を変える可能性: AIが人間を超える領域が増えれば、106研究の「人間がAIより得意な領域でシナジーが生まれる」という知見自体の適用範囲が狭まる
- 業界別・企業規模別の差異: PwC調査で「期待を上回った」企業と「期待以下」の企業の間に何があるのか、本記事では十分に掘り下げていない
- 「人間-AI」のデザインパターン: どのような分業設計なら負のシナジーを回避できるか。106研究では「分業の設計方法に有意差なし」だったが、研究対象期間外の新しい設計パターンは未検証
関連記事
この記事で扱った問題は、本サイトの各論記事と多くの接点がある。
- 【調べてみた】営業AI「導入したのに使われない」問題 — 「使われない」問題の全体像。本記事は「使っても効かない」側を掘り下げている
- 【比較してみた】営業の「時間泥棒」業務5つ × 生成AIの効き具合 — 業務別のAI効果比較。判断業務とコンテンツ作成の違いが本記事の知見と直結する
- 【調べてみた】議事録AI、導入前に知っておきたい5つの落とし穴 — コンテンツ作成系でも起きる品質問題の具体例
- 【調べてみた】提案書AI、修正地獄を避ける使い方 — 「修正コストの逆転」は本記事のワークスロップ問題の具体版
- 【調べてみた】新人営業の最初の3ヶ月、AIをどう使う/使わない — 脱スキル化の営業特化版。MIT Media Lab研究と直接つながる
- 【調べてみた】営業AIエージェント、「自動で売れる」の期待と現実 — 「自動で売れる」が83%動いていない現実は、本記事の構造的問題の帰結
- 【調べてみた】AI営業メール、送った先で何が起きているか — 「量のためにAIを使う」vs「精度のためにAIを使う」の分岐を具体的に示す
- 【調べてみた】初回商談の前日にChatGPTでやる30分の準備 — 「読ませる使い方」vs「生成させる使い方」の違いが本記事の知見と整合
- 【定点観測】営業AIの採用率と失敗率 2026年初頭 — 「採用率88% vs 成功率5%」のデータは、本記事の106研究と通底する構造
- 関連記事: 【定点観測】営業AI、現場で何が起きているか 2026Q1 — 106研究の知見を3つの営業現場に適用した追跡レポート
- 関連記事: 【調べてみた】AI vs AI 戦線マップ — 106研究の「量↑質↓」構造が6つの営業チャネルすべてで確認された全体像
調査カード
───────────────────────────────
📋 調査カード
───────────────────────────────
調査日:2026-02-23
調査ソース:
メタ分析 1件(106実験370効果量)/ 査読付き論文 8件 /
HBR論文 10件 / 調査レポート 6件 / メディア記事 30件超 /
note.com体験記 4件 / 政府・機関レポート 5件
ソースの言語:英語 50件超 / 日本語 30件超
地域・前提:メタ分析は米国・欧州中心の学術論文、
日本データはPwC 5カ国比較・博報堂DYレポート等
情報の鮮度:2023年〜2026年2月の公開情報が中心
(メタ分析の対象は2020-2023年の実験)
ソース偏りチェック:
✓ 英語・日本語 各10件以上
✓ 成功と失敗の両面データあり(「効く条件」セクションで成功側を整理)
△ コミュニティ体験談は間接的(note.com経由)
✓ 学術論文が全体の30%以上(メタ分析、PNAS、Nature、HBR掲載論文)
反対意見・異論:
Brynjolfsson, Li, Raymond(2023年、QJE掲載)の研究では、
カスタマーサポート5,179名のAI支援で平均14%の生産性向上が
確認されている。特に低スキル者は34%の改善。ただし、
経験豊富なスタッフでは速度の小幅改善と引き換えに品質が
わずかに低下しており、一様な効果ではない。
また、Noy & Zhang(2023年、Science掲載)の研究でも、
中程度のライティング業務でAIにより時間40%短縮・品質18%向上が
確認されているが、「AIが労働者の努力を補完するのではなく
代替している」パターンが指摘されており、長期的な脱スキル化の
懸念が同時に提示されている。
本記事は「パフォーマンス低下」の側面に焦点を当てているため、
ポジティブな研究結果の紹介が相対的に少ない点にご留意ください。
調べきれなかったこと:
営業に特化した大規模RCTが存在するかどうか。
BCG/Harvard研究(コンサルタント)やMETR研究(開発者)の知見が
営業職にどの程度転用可能かは推測の域を出ない。
日本企業を対象にした「人間+AIの組み合わせ」効果の
学術的検証は見つからなかった。
Reddit r/salesでの実務者の体験談(Claude in Chrome未実施)。
私の仮説(暫定):
106研究の「負のシナジー」は、AIの問題というより
「人間-AIの組み合わせ方」の問題だと考えている。
現在の標準的な設計(AIが推薦し、人間が最終決定する)は、
AIが人間を超える領域では構造的に機能しない。
営業においては、「判断業務はAIに任せ、関係構築は人間が担う」
という分業が、現時点では最もデータに整合的な方針だと思う。
ただし、AIの進化速度を考えると、この分業の最適解は
半年〜1年で変わり得る。
───────────────────────────────
出典
英語圏
- Vaccaro, Almaatouq, Malone: When combinations of humans and AI are useful: A systematic review and meta-analysis. Nature Human Behaviour, Vol. 8, 2293-2303 (2024-10) https://www.nature.com/articles/s41562-024-02024-1
- PMC Full Text of Vaccaro et al. https://pmc.ncbi.nlm.nih.gov/articles/PMC11659167/
- MIT Sloan: Humans and AI: Do they work better together or alone? (2024-10) https://mitsloan.mit.edu/press/humans-and-ai-do-they-work-better-together-or-alone
- Jakob Nielsen: When Humans Add Negative Value: AI Alone vs. Human-AI Synergy (2024) https://jakobnielsenphd.substack.com/p/humans-negative-value
- Dell’Acqua, Mollick, Lakhani et al.: Navigating the Jagged Technological Frontier. Harvard Business School Working Paper 24-013 (2023-09) https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4573321
- METR: Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity (2025-07) https://metr.org/blog/2025-07-10-early-2025-ai-experienced-os-dev-study/
- HBR / Ranganathan, Ye: AI Doesn’t Reduce Work — It Intensifies It (2026-02) https://hbr.org/2026/02/ai-doesnt-reduce-work-it-intensifies-it
- HBR / Longoni, Appel, Tully: Why Understanding AI Doesn’t Necessarily Lead People to Embrace It (2025-07) https://hbr.org/2025/07/why-understanding-ai-doesnt-necessarily-lead-people-to-embrace-it
- Tully, Longoni, Appel: Lower Artificial Intelligence Literacy Predicts Greater AI Receptivity. Journal of Marketing, Vol. 89, No. 5 (2025-09) https://journals.sagepub.com/doi/10.1177/00222429251314491
- HBR / Acar, Gai, Tu, Hou: Research: The Hidden Penalty of Using AI at Work (2025-08) https://hbr.org/2025/08/research-the-hidden-penalty-of-using-ai-at-work
- Acar et al.: Evidence of a social evaluation penalty for using AI. PNAS (2025) https://www.pnas.org/doi/10.1073/pnas.2426766122
- HBR / Niederhoffer, Hancock et al.: AI-Generated ‘Workslop’ Is Destroying Productivity (2025-09) https://hbr.org/2025/09/ai-generated-workslop-is-destroying-productivity
- HBR / Parra-Moyano, Reinmoeller, Schmedders: Research: Executives Who Used Gen AI Made Worse Predictions (2025-07) https://hbr.org/2025/07/research-executives-who-used-gen-ai-made-worse-predictions
- HBR / De Freitas: Why People Resist Embracing AI (2025-01) https://hbr.org/2025/01/why-people-resist-embracing-ai
- HBR: Why AI Adoption Stalls, According to Industry Data (2026-02) https://hbr.org/2026/02/why-ai-adoption-stalls-according-to-industry-data
- HBR: Companies Are Laying Off Workers Because of AI’s Potential — Not Its Performance (2026-01) https://hbr.org/2026/01/companies-are-laying-off-workers-because-of-ais-potential-not-its-performance
- MIT Media Lab: Your Brain on ChatGPT: Accumulation of Cognitive Debt (CHI 2025 / arXiv 2506.08872) https://arxiv.org/abs/2506.08872
- Lee et al. (Microsoft Research / CMU): The Impact of Generative AI on Critical Thinking (2025) https://www.microsoft.com/en-us/research/wp-content/uploads/2025/01/lee_2025_ai_critical_thinking_survey.pdf
- Gerlich: AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies, Vol. 15, No. 1 (2025-01) https://www.mdpi.com/2075-4698/15/1/6
- Barcaui: ChatGPT as a Cognitive Crutch: Evidence from a Randomized Controlled Trial on Knowledge Retention (2025) https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5353041
- Bastani et al.: Generative AI Without Guardrails Can Harm Learning. PNAS (2025) https://www.pnas.org/doi/10.1073/pnas.2422633122
- Winter et al.: AI Teammates and Human Performance: Evidence for Commitment Deficits (2025) https://www.sciencedirect.com/science/article/pii/S2451958825002430
- Doshi, Hauser: Generative AI Enhances Individual Creativity but Reduces the Collective Diversity of Novel Content. Science Advances (2024-07) https://www.science.org/doi/10.1126/sciadv.adn5290
- Brynjolfsson, Li, Raymond: Generative AI at Work. NBER Working Paper 31161 (2023 / QJE 2025) https://www.nber.org/papers/w31161
- Noy, Zhang: Experimental Evidence on the Productivity Effects of Generative Artificial Intelligence. Science, Vol. 381, 187-192 (2023) https://www.science.org/doi/10.1126/science.adh2586
- California Management Review: Seven Myths about AI and Productivity (2025-10) https://cmr.berkeley.edu/2025/10/seven-myths-about-ai-and-productivity-what-the-evidence-really-says/
- Friis, Riley: Performance or Principle: Resistance to AI in the U.S. Labor Market. HBS Working Paper (2025-10) https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5560401
- Communications of the ACM: The AI Deskilling Paradox (2025-11) https://cacm.acm.org/news/the-ai-deskilling-paradox/
- Cognitive Research: Does Using AI Assistance Accelerate Skill Decay (2024) https://pmc.ncbi.nlm.nih.gov/articles/PMC11239631/
- Outreach: Sales 2025 Data Report https://www.outreach.io/resources/blog/sales-2025-data-analysis
- Fortune: HBR Survey — Only 6% of Companies Fully Trust AI Agents (2025-12) https://fortune.com/2025/12/09/harvard-business-review-survey-only-6-percent-companies-trust-ai-agents/
- Nature Scientific Reports: Human-generative AI collaboration enhances task performance but undermines intrinsic motivation (2025) https://www.nature.com/articles/s41598-025-98385-2
- Imparta: When AI Thinks for You — The Impact of Skills Atrophy on Sales Performance (2025) https://imparta.com/us/resources/when-ai-thinks-for-you-the-impact-of-skills-atrophy-and-cognitive-offloading-on-sales-performance/
- EDUCAUSE Review: The Paradox of AI Assistance: Better Results, Worse Thinking (2025-12) https://er.educause.edu/articles/2025/12/the-paradox-of-ai-assistance-better-results-worse-thinking
- Psychology Today: Humans and AI: Do They Work Better Together or Alone? (2024-11) https://www.psychologytoday.com/us/blog/evidence-based-living/202411/humans-and-ai-do-they-work-better-together-or-alone
日本語圏
- Web担当者Forum / 博報堂DY: 2026年、AI導入で「組織の生産性」が逆に低下する? (2026-01) https://webtan.impress.co.jp/e/2026/01/14/51860
- PwC Japan: 生成AIに関する実態調査 2025春 5カ国比較 https://www.pwc.com/jp/ja/knowledge/thoughtleadership/generative-ai-survey2025.html
- ITmedia: 「生成AIは期待外れ」と言ってしまう日本企業が生まれるワケ (2025-07) https://www.itmedia.co.jp/aiplus/articles/2507/18/news023.html
- ITmedia: これじゃダメだ 日本企業の生成AI活用が「何かおかしい」理由とは (2025) https://news.yahoo.co.jp/articles/c7ceec4c25f1b4030d6d246a0dd356eeefbc6f59
- ダイヤモンド・オンライン / 坂田幸樹: ChatGPTで生産性が上がらないのは「現場のせい」ではない (2025) https://diamond.jp/articles/-/376312
- 財務省: 生成AI導入はゴールではない 経済トレンドコラム134号 (2025-08) https://www.mof.go.jp/public_relations/finance/202508/202508f.html
- 日経xTECH: 「生成AIを使い続けると脳が劣化する」は本当か? (2025-07) https://xtech.nikkei.com/atcl/nxt/column/18/02801/070900024/
- 日経xTECH / Anthropic: AIが人間のスキル形成に与える影響 (2026-01) https://xtech.nikkei.com/atcl/nxt/column/18/02801/021200031/
- 日経ビジネス: Microsoft/Gartner — AI依存で批判的思考が低下 (2025) https://business.nikkei.com/atcl/gen/19/00351/102300214/
- KDDI総合研究所: 生成AIに依存すると脳活動が低下したまま戻らない (2025) https://rp.kddi-research.jp/atelier/column/archives/5443
- Ledge.ai: ChatGPTで脳活動が低下 MIT研究 (2025) https://ledge.ai/articles/chatgpt_brain_activity_decline_mit
- XenoSpectrum: ChatGPTが脳活動を最大55%低下させる (2025) https://xenospectrum.com/chatgpt-reduces-brain-activity-by-up-to-55/
- WIRED Japan: AIによる生産性向上は幻想に終わる (VOL.58, 2025-2026) https://wired.jp/article/vol58-ais-productivity-gains-wont-be-realized/
- ONE CAREER: 2026年は「アンチAI」の時代になる (2025-2026) https://plus.onecareer.jp/articles/1302
- SBBit: 賢くなりすぎた…「AIの2026年問題」という皮肉 (2025) https://www.sbbit.jp/article/cont1/178534
- JBpress: AIのお試し期間は2025年で終了 (2025) https://jbpress.ismedia.jp/articles/-/92531
- Zenn / Cloud Ace: 人間とAIの協働がプラスに働くとき(Vaccaro et al.日本語解説) (2025-03) https://zenn.dev/cloud_ace/articles/7a441e91d324cb
- note.com / towa_0530: 「とりあえずAI導入」が、ほぼ確実に失敗する本当の原因 https://note.com/towa_0530/n/n9a6712a5dfc4
- note.com / kekq: AIは人間の頭をどこまで悪くするか? https://note.com/kekq/n/n73091dd313a1
- note.com / 小田志門: AIだけでは失敗する理由:Klarna事例から学ぶ https://note.com/shimonoda/n/n806e81a77cd8
- Members社: AIの導入はなぜ失敗するのか (2024-07) https://www.members.co.jp/column/20240731-ai-implement
- AI-Market: なぜ我が社はAI導入に失敗するのか (2025) https://ai-market.jp/case_study/ai-failed/
- BCG Japan: 日本の業務上のAI活用率は51%、世界に大幅後れ https://bcg-jp.com/article/10228/
- ASCII.jp: 生成AIを使ってるのに成果が出ない日本企業 (2025) https://ascii.jp/elem/000/004/294/4294009/
- Zenkigen Tech: Human-AI Collaboration パフォーマンスと嗜好性のトレードオフ (2025-03) https://zenn.dev/zenkigen_tech/articles/2025-03-kawasaki-collaboration
- GMO Tenbin AI: 脳がサボる、意欲が下がる? 生成AIの便利さに潜む思考力低下 https://tenbin.ai/media/ai_news/ai-thinking-decline-motivation-loss
- EY Japan: 2026年に生成AIがもたらす新たな変革と課題とは (2025-11) https://www.ey.com/ja_jp/insights/technology/generative-ai-2026
免責
※ 個人の自由研究として調べてまとめています。特定のAIツールの推薦・非推薦を目的としたものではありません。 ※ 最終判断の前に、必ず一次情報をご確認ください。
AI活用について
この自由研究では、情報収集と整理の補助にAIを活用しています。 ただし、最終的な確認・記述・公開判断は人間が行っています。 重要な判断は、必ず一次情報で確認してください。