AI「職を奪う」、シリコンバレーで大規模解雇!第一線のエンジニアが真実を暴露:AIの効率は深刻に過大評価されており、人間は審査員に追い詰められ、仕事量は過去の10倍になっている

2026年、シリコンバレーのテック業界ではリストラの波が絶えません。1月、アマゾンは約1万6000人の削減を確認し、2月にはフィンテック企業Blockが従業員の半数近くを解雇、3月にはMetaが1万6000人のリストラを計画していると報じられました。

AIによるホワイトカラーの仕事の代替への不安が職場を席巻しています。

しかし、テクノロジー企業OnaのソフトウェアエンジニアSiddhant Khareが投稿した「AI疲労は実在するが、誰も語らない」記事は、世界中のメディアや読者の間で広く議論を呼びました。

彼は、AIの実用と理想的なビジョンとの間に大きなギャップがあることを指摘しています。彼は、AIによる効率向上は過大評価されている一方で、職場の人々は「AI疲労」に陥っていると考えています。

最近、Siddhant Khareは《每日経済新聞》の記者(以下NBD)とのインタビューで、AIインフラの開発者として、AIの使い方を変えることを提案し、生成・レビュー・再生成・再レビューのループに陥るのを避けるべきだと述べました。

Siddhant Khareの写真出典:インタビュー相手のSNSアカウント

「AI導入後、人の仕事量は従来の10倍に」


NBD:あなたは、「AI疲労」の原因は何だと考えますか?

Siddhant Khare:「AI疲労」の本質は構造的な問題です。AIはコードや文章、ドキュメントなどの生成効率を数倍に高めましたが、検証や確認の段階の効率は追いついていません。人間は依然として作業の核心部分でボトルネックとなっており、従来の10倍の作業量を処理しなければならなくなっています。

これは工場に例えると、従来の10倍の速度で部品を打ち抜く機械に交換したのに、最後の検査員は一人だけ、という状況に似ています。生産能力は大きく向上しましたが、検査員の仕事量は倍増し、不良品率に変化がなければ、最終的に崩壊するのはこの検査を担う人だけです。

知識労働の分野でも同様で、AIは生産の自動化は実現しましたが、検証の自動化は進んでいません。ほとんどの企業管理者はこの問題に気づいていません。表面的なデータだけを見て、コードの納品数やドキュメントの量、メールの送信数が増え、レポートも華やかに見えますが、従業員の心身の疲弊は無視されています。

NBD:人々はAIが効率を高めると思っていたのに、なぜ仕事量が逆に増えてしまうのでしょうか?

**Siddhant Khare:**AIによる生産性の向上は、従業員の自由時間に反映されていません。むしろ、企業はそれをより高い仕事の期待値に変換し、「合格ライン」を引き上げているのです。

AI登場前は、ソフトウェアエンジニアは週に20件のコードプルリクエスト(PR)を提出するのが標準でした。AIの補助を得ると、理論的には50件まで増やせるとされ、企業はこれを新たな標準としました。

AIが生成するすべてのコンテンツは、人間の検証を必要とします。私自身、オープンソースプロジェクトのメンテナとして、特に実感しています。以前は週に20〜25件のコードPRを処理していれば良かったのに、今やその数は百件を超え、そのほとんどがAI生成のものです。しかし、私は一つ一つを丁寧に審査しなければなりません。

“AIプログラミングツールを使うと、実作業効率は逆に19%低下する”


NBD:AIのどの価値が過大評価されやすく、逆にコストが過小評価されているのでしょうか?

**Siddhant Khare:**最も一般的な過大評価は、AIの導入スピードと即時的な効率向上です。多くの企業は、「AIを導入すれば数週間で生産性が飛躍的に向上する」と誤解していますが、実際のデータは全く逆です。

DXというエンジニアリング効率と生産性分析プラットフォームは、450社以上、12万人以上の開発者を対象に調査を行いました。調査結果によると、AIプログラミングツールを使っている開発者のうち93%がいるにもかかわらず、実効的な効率向上はわずか10%にとどまり、その後の伸びも期待できません。

モデル評価とリスク研究機関METRの比較試験では、AIツールを使う開発者の実作業効率は逆に19%低下し、主観的には24%の速度向上を感じているにすぎません。

一方、企業が最も過小評価しているのは、AIによるコンテンツの人工検証コストです。ほとんどの企業は、この時間と労力を要する検証作業を全体のコストに組み込んでいません。また、従業員の職業的満足感も見落とされています。多くの仕事がAIに代替されると、かつて専門的なスキルで達成感を得ていた社員は次第に、「自分はただのラインの検査員だ」と感じるようになります。このアイデンティティのギャップは定量化しにくいですが、結果的に人材流出を引き起こします。

“AIの検証は、自分でやるより疲れる”


NBD:多くのホワイトカラーは、AIを使うことは自分の代わりにAIを訓練していると感じているようですが、その懸念は妥当ですか?どの職種が最も代替されやすく、逆に代替されにくいですか?

**Siddhant Khare:**大半の普通の社員は、AIの大規模モデルを直接訓練しているわけではありません。ChatGPTやCopilotのようなツールを日常的に使う場合でも、入力内容が自動的に次世代のモデルの学習データになることはほとんどなく、多くの企業の利用規約もこれを禁止しています。「自分を代替するAIを訓練している」との考えは、技術的には成立しません。

AIが職場に与える本当の影響は、大規模な人員代替ではなく、職務の再定義や作業負荷の大幅な増加、そしてコア業務の移行です。 代替されやすいのは、標準化されたアウトプットや品質要求の低い、反復性の高い仕事です。例えば、初稿の文章作成、基礎的なデータ入力、簡単なコード生成、テンプレート化されたレポート作成など、「十分に使えれば良い」レベルのタスクです。これらはAIに任せることが可能です。

一方、AIに最も代替されにくいのは、全体像の理解力や審美眼、独立した判断力を必要とする職種です。例えば、システムアーキテクチャの設計、製品戦略の立案、ビジネス交渉やクリエイティブなコンテンツ企画などです。これらの仕事の核心的価値は、「実行」そのものではありません。

実際、多くの職場の人は中間層に位置しています。仕事は完全に消えるわけではありませんが、変革に直面しています。

NBD:あなたは、社員のコア価値がどのように変化していると考えますか?

**Siddhant Khare:**すでに変化は確実に起きています。ただし、多くの企業の評価制度はそれに追いついていません。

将来的には、最も優秀なエンジニアは、コードを書き速度や量だけで評価されるのではなく、AIの提案がシステム全体に適合しているか、論理的に妥当かを一目で判断できる人になるでしょう。 この判断力は、長年の業界経験と全体像の理解に依存し、プロンプトの最適化だけでは得られません。

社員の価値は、アウトプットの量から判断の質へと移行し、実行のスピードから思考の深さへとシフトしています。将来的に最も代替困難な社員は、正誤を的確に判断し、明確で合理的な根拠を示せる人です。判断力こそが、コアの価値です。

“疲労の根源はAIの不確実性にある”


NBD:従来の自動化の波と比べて、なぜAIはより疲労を引き起こしやすいのですか?

**Siddhant Khare:**主な理由は、従来の自動化ツールは決定論的だったのに対し、AIは不確実性に満ちているからです。

**以前のツールは、同じ指示・同じ入力を与えれば、同じ出力が得られ、エラーがあればすぐに報告されました。しかし、AIは違います。同じプロンプトでも、全く異なる内容を生成することがあり、**誤りがあっても表現が非常にリアルで、混乱を招きやすいのです。AIの誤りは非常に隠蔽されやすく、コードは正常に動作し、文章は通じ、レポートのフォーマットも整っていても、あるページには事実誤認が潜んでいたり、論理的な穴があったり、虚構のデータが含まれていたりします。

この静かな誤りは、人間が常に集中して監視し続ける必要があり、長時間にわたると非常に精神的に疲弊します。さらに、AIは人間の表現スタイルを高度に模倣します。AIの内容を検証するには、自分で創作するのとほぼ同じ認知コストが必要です。

NBD:AIの出力を完全に信頼できない場合、かつ大量に運用しなければならないとき、どのようにしてこの「信頼のギャップ」を埋めるべきですか?

**Siddhant Khare:**残念ながら、多くの企業は最悪の方法を採用しています。それは、人間の検証を唯一の品質管理ポイントとするやり方です。

良い企業は、「バックプレッシャー(反圧)メカニズム」と呼ぶ仕組みを構築しています。簡単に言えば、AIコンテンツが人間の検証に入る前に、自動化されたフィードバック機構を通じて、多くの明らかな誤りを事前に検出し、人間の負担を軽減する仕組みです。

“最も重要な仕事は、実はAI不要”


NBD:AIによる仕事の重圧と精神的疲弊に直面している普通のホワイトカラーは、どうやってAIと正しく付き合えば良いですか?

**Siddhant Khare:**私がお勧めするのは、次の三つの方法です。

第一に、「思考そのものが価値」とされるタスクではAIを使わないこと。例えば、戦略立案などは、思考の過程に価値があり、ただのタイピングではありません。AIを使って思考を飛ばすと、自分の仕事の価値を削ぐことになります。AIは、「結果重視、過程は二の次」の繰り返し作業に適しています。

第二に、レビューにかかる時間の明確な上限を設定すること。もし毎日AIの出力をレビューするのに2時間以上かかるなら、作業フローに問題があります。 プロンプトが不明確、コンテキスト不足、ルールが曖昧、あるいは自動化された検査機能が欠如している可能性があります。「無制限にAIの出力をレビューし続ける」のを常態化しないこと。

第三に、深い仕事の時間を確保すること。AIは、人を生成・レビュー・再生成・再レビューのループに閉じ込め、注意力を断続的に妨害します。意図的に一定時間、AIを使わない時間を作ることが重要です。最も重要な仕事は、提示されたヒントに頼るのではなく、独立した思考で完結させるべきです。

NBD:すでにAIに依存している人は、どう変わるべきですか?

**Siddhant Khare:**まず、AIの使い方を根本的に変える必要があります。

今、多くの人は問題に直面すると、無意識にChatGPTを開きます。独立して考える前に、すぐにAIに内容を生成させてしまいます。

逆の順序に変えることです。まず自分で考え、仕事の目的を明確にし、その後にAIを使う必要があるか判断します。多くの場合、白紙の状態から20分間の深い思考を行うだけで、より良い結果が得られます。

人々のAIへの不安は、コントロール感を失うことに起因します。AIが絶えず生成し、提案を続けると、自分はただの受動的な実行者だと感じてしまいます。逆に、「AIを使うかどうか、いつ使うか」を自分で決められると、コントロール感が回復し、不安も自然に減少します。そうすれば、AI疲労から抜け出すことができるのです。

この記事出典:每日経済新聞

リスク提示と免責事項

市場にはリスクが伴います。投資は慎重に行ってください。本記事は個別の投資アドバイスを意図したものではなく、特定の投資目的や財務状況、ニーズを考慮したものではありません。読者は、本文の意見や見解が自身の状況に適しているかどうかを判断し、自己責任で投資してください。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン