世界経済フォーラムの「Future of Jobs Report 2025」では、事務職や秘書職、たとえば管理アシスタント、銀行の窓口担当者、データ入力の事務担当などが、減少が最も速い職種の一つとして挙げられています。ILOの「生成AIへの職業曝露に関する洗練された世界指数」でも
事務作業は、最も曝露されている領域の一つに位置づけられています。
認知的な安心(コンフォート)の問題もあります。OECDの「デジタル教育アウトルック2026」は、生徒が宿題支援、アイデア生成、説明のためにAIツールを多用していると報告しています。教育におけるAI導入についての、以前のOECD資料では、宿題支援は
中心的な用途だと分かっていました。これは、生徒が能力を失っていることを証明するものではありません。しかし、それは学校や家庭が「アウトプット」だけでなく「プロセス」を守るために、より一層踏ん張って戦う必要があることを示唆しています。答えが安い世界では、「作業を示しなさい(show your work)」が価値を持つのは、
むしろ減るのではなく、増えるのです。
安価な知性、高価な信頼
2030年までに、AIはどのように仕事、キャリアの入口、信頼、そして日常生活を変えるのか
よくあるAIの問いは、まだ間違っています。人々は「AGIはいつ到来するのか」を聞き続けていますが、まるで物語全体がひとつの劇的な日付にかかっているかのようです。おそらくそうではありません。もっと役に立つ問いはこれです。つまり、「知的なアウトプットが安くなると何が起きるのか」です。それが、すでに目前で起きている変化です。テキスト、要約、初稿、説明、コード支援、画像生成、さらには分析の一部まで、すべてが安くなり、速くなり、より一般的になっています。
2026年から2030年の間に起きる本当の衝撃は、機械知能の魔法のような一発からというより、「能力のあるアウトプットがもはや珍しくない」という単純な事実から来る可能性が高いです。2030年の雇用に関する世界経済フォーラムの取り組みは、ひとつの明確なAGIのマイルストーンに依存していません。 それはシナリオで成り立っています。AIの進展が速いか遅いか、才能の適応が強いか弱いか、制度の対応が良いか悪いか。
次の数年を考えるうえで、それが正しい見方です。AGIがなくても、すでに十分なAI能力があります。定型業務を圧縮し、新規参入者のキャリアを作り変え、監視と検証の層を強化し、組織に対してどのように 意思決定が行われるかを再設計させることができます。混乱を作るのに超知能は要りません。標準的な企業の導入で十分です。
これが重要なのは、経済は抽象的な「知能」に報酬を与えないからです。報酬が与えられるのは、希少性を保つものです。答えが安くなるなら、信頼は高くつきます。磨かれた初稿がどこにでもあるなら、判断がより重要になります。誰でも有能そうに見せられるなら、有能であることの証明が、口調よりも重要になっていきます。だからこそ、これから来るAIの転換は単なる技術の物語ではありません。労働の物語であり、地位の物語であり、社会的な信頼の物語です。道具は改善し続けます。ですが、より深い変化はそれらが 人々が考えなしに価値を置いてきたものの「価格」を変えてしまうことです。
データはすでに移動方向を示しています。スタンフォードHAIのレポートによると、2024年にAIを使っていると答えた組織は78%で、前年の55%から増えています。マッキンゼーは2025年末までに、組織の88%が少なくとも1つのビジネス機能でAIを利用している一方で、 本格的なスケール導入に「本当に」踏み込んだのは約3分の1にとどまることを見出しました。平易に言えば、AIはすでにどこにでもありますが、ほとんどの組織はまだそれを軸に自分たちを作り直していません。そのギャップが重要です。技術は先に進みます。構造、インセンティブ、キャリア、教育 は後からついてきます。
また、これがAGIが議論の実務的な中心ではない理由でもあります。次のフェーズは「人々が片手間でチャットボットを開く」ことではありません。次のフェーズは、AIが通常の業務フロー、承認、計画、報告、サポート、実行の一部になることです。見世物は少なく、配管は多く。通常は、 見世物よりも配管のほうが変わります。
欧州はこの物語にもう一つの層を加えます。規則です。EUのAI法(AI Act)は2024年に発効しました。禁止されるAIの実践とAIリテラシーの義務は、2025年2月2日から適用が始まりました。汎用目的のAIモデルに関するガバナンス規則と義務は 2025年8月2日から始まりました。この法律は、2026年8月2日から一般適用になります。さらに特定の高リスク・システムには、2027年8月2日までの、より長い移行期間など、後日の適用日が設けられています。つまり、2026年以降の欧州のAI期間は単なる 導入の話だけではありません。証明、文書化、統制、説明責任の話でもあります。それはまさに、「信頼が高くつく」ときに起きることです。
仕事は職業としては最初に消えるのではなく、タスクとして消える
ここがほとんどの公開討論で、まだ少し子どもっぽく聞こえるところです。人々は「どの仕事が消えるのか」を聞きますが、まるで職名が変化の実体だと言わんばかりです。違います。タスクが変わります。AIは通常、職業そのものを一度にきれいに消し去りません。職業の一部を消します。 特に、構造化されていて反復的で、テキストが多く、そして事後に検証しやすい部分です。
世界経済フォーラムの「Future of Jobs Report 2025」では、事務職や秘書職、たとえば管理アシスタント、銀行の窓口担当者、データ入力の事務担当などが、減少が最も速い職種の一つとして挙げられています。ILOの「生成AIへの職業曝露に関する洗練された世界指数」でも 事務作業は、最も曝露されている領域の一つに位置づけられています。
だからこそ、AI論争で最も危険な文は「その職業は生き残るだろう」かもしれません。それは紙の上では生き残るかもしれず、なおかつキャリアとしては大きく悪化する可能性もあります。金融、法務、カスタマーサポート、マーケティング、オペレーション、プロダクト、コンプライアンス、マネジメントが 単純に消えるわけではありません。ですが、その多くは「内側から」変わります。手作業による準備が減る。確認(レビュー)が増える。定型のアウトプットが減る。例外処理が増える。事務作業が減る。判断、調整、リスクの所有が増える。職名はそのままです。職の中身 が変わります。人々はしばしば、これは「安定」と同じではないと気づくのが遅すぎます。
同時に、AIに直結した役割は伸びています。WEFは、ビッグデータの専門家、フィンテックのエンジニア、AI・機械学習の専門家、ソフトウェアおよびアプリケーション開発者、セキュリティ管理の専門家などを、 2030年までに最も増える仕事の一つとして挙げています。Microsoftは、AIエージェント、セキュリティ、トレーニング、そしてビジネスの再設計に関わる役割への需要が伸びると見ています。これは重要です。というのも、AIによって生み出される仕事の多くは純粋な研究職ではありません。それは業務運用の役割です。技術と、現実の 世界との間に位置します。誰かが決めなければなりません。モデルが触れてよいものは何か、触れてはいけないものは何か、自動で承認されるものは何か、エスカレーションされるものは何か、そして、うまくいかず問題が起きたときに誰が署名するのか。機械はスケールしています。説明責任は スケールしません。
より大きな問題は「仕事の喪失」より「入口の喪失」かもしれない
ここで労働の物語は、はるかに深刻になります。最大の短期的な問題は、AIがシニアの専門家を置き換えることではないかもしれません。むしろ、それは、彼らを訓練してきたはずのジュニアの仕事が圧縮されてしまうことかもしれないのです。ブルッキングスは最近、雇用が 若い労働者ではAIへの曝露がより高い職種でより大きく減った一方で、年配の労働者では差がかなり小さかったという証拠を要約しました。このパターンが成り立つなら、実際の損害は単なる置換ではありません。はしごの「狭まり」なのです。
これは重要です。多くの職業が、訓練の場として、低レベルで反復的で監督された仕事に依存しているからです。それは華やかな仕事ではありませんが、人々がその業界(ビジネス)を学ぶ方法です。AIはまさにその層を食い尽くすのがとても得意です。ですから問題は、「AIがある程度のジュニア業務をこなせる」ことだけではありません。問題は、ジュニア業務がしばしば「シニアになるための道」だったことです。その層を削りすぎると、ある職業は自分自身のパイプラインを消費し始めます。企業はまだ「経験者が欲しい」と言っています。いいですね。素晴らしい。では、その経験者は どこから来ることになっているのでしょうか。初期段階の仕事が縮み続けるなら。
IMFはもう一つ重要な点を追加しています。先進国では、現在の求人の約10分の1が、少なくとも1つの新しいスキルを求めており、こうした新しい要件は最初にアメリカで、特にITや高度技能分野で現れているというのです。つまり 問題は、AIへの曝露だけではありません。入口のハードルが上がっています。仕事は技術的には存在し続けても、入りにくくなり得ます。とりわけAIの素養がない人、実務経験がない人、あるいはその両方がない人にとってです。Anthropicの2026年の経済指数もまた 、経験がよりあるユーザーのほうが、新規ユーザーよりもAIシステムからより良い結果を得る傾向があることを見出しています。言い換えれば、AIは一部の労働者に対しては「倍率(マルチプライヤー)」として働き、一部の労働者に対しては「門番」として働き得ます。
安いアウトプットは、信頼、証明、人間によるレビューをより価値あるものにする
ここが本当の転換点です。磨かれたアウトプットが一般的になると、信頼は希少になります。そして希少なものは高くつきます。
米連邦取引委員会(FTC)は、消費者が2024年に詐欺で失った金額が125億ドル超で、前年から25%増えたと報告しています。Microsoftの2025年デジタル防衛レポートは、国家主体の関係者がすでにAIを使って影響力操作と合成の コンテンツをスケールさせていると述べています。ここで言いたいのは、あらゆるコンテンツが偽物だということではありません。問題はそれよりさらに悪い点です。十分な偽物、クローン化されたもの、操作されたもの、合成された素材が今や存在しているため、人々は「本物が何か」を確認するのに、より多くの時間とお金を使わなければならない、ということです。
これは市場と仕事の両方を変えます。アイデンティティの本人確認、出所(プロヴェナンス)、監査トレイル、信頼できるネットワーク、人間によるレビュー、そして高い説明責任を伴うサービスの価値が高まります。また、「人が主導した」「人がレビューした」「検証済み」「信頼できる」「現実世界での実績」といったシグナルの価値も高まります。 これはノスタルジーではありません。単純な経済学です。誰でも賢そうに見せられるなら、賢そうに見えることは感心されなくなります。プレミアムは証明へ移動します。
これはAIの、最も評価されていない(見落とされがちな)ビジネス上の結果の一つかもしれません。人々は、次のプレミアムはより多くの知能だと考えます。実際には、それはもっと曖昧さが減ることかもしれません。より良い追跡。より良いレビュー。より良い証拠。取引ごとの嘘の減少です。気の滅入る 文ではありますが、同時に役立つ文でもあります。
心理的コストは単なる付随的な問題ではない
スタンフォードHAIの世論データが示すのは、重要なギャップです。人々はAIを「役に立つ」と見がちです。しかし、それが仕事にとって良いのか、あるいは自分自身の長期の安全にとって良いのかについては、ずっと確信がありません。利便性と確信の間のこのギャップは、次の数年を規定するのに、 どんなベンチマークのチャートよりも大きくなるかもしれません。人々は同時にAIをもっと使い、社会的な結果への信頼はより少なくします。矛盾はありません。普通です。多くの技術は、社会的に消化されるようになる前に、まずは役に立つものになります。
これは新しい種類の労働不安を生みます。「仕事を失うのか?」だけではありません。「自分のキャリアの道筋はまだ現実のものなのか?」。「これからも伸びていくのか、それとも単により速いシステムを監督するだけなのか?」。「良くなっているのか、それとも助けをもらっているだけなのか?」企業は通常、この問題を 人材(労働力)の変革として扱います。個人は別のラベルで体験しがちです。つまり、不安です。
認知的な安心(コンフォート)の問題もあります。OECDの「デジタル教育アウトルック2026」は、生徒が宿題支援、アイデア生成、説明のためにAIツールを多用していると報告しています。教育におけるAI導入についての、以前のOECD資料では、宿題支援は 中心的な用途だと分かっていました。これは、生徒が能力を失っていることを証明するものではありません。しかし、それは学校や家庭が「アウトプット」だけでなく「プロセス」を守るために、より一層踏ん張って戦う必要があることを示唆しています。答えが安い世界では、「作業を示しなさい(show your work)」が価値を持つのは、 むしろ減るのではなく、増えるのです。
大人にも同じことが起きます。AIが下書きを作る、要約する、ブレインストーミングする、整理して応答することを簡単にするなら、深い集中、口頭での防衛(弁護)、記憶、そして忍耐強い推論は、より多くの人が定期的に訓練しなくなるからこそ、むしろ価値が高くなるかもしれません。私たちは 、AI時代における本当の贅沢はスピードではない、ということに気づくかもしれません。持続する思考こそが贅沢なのです。
一部の仕事は、ローカル(地域的)で、身体を伴い、証明可能な方向へ移るかもしれない
この移行の、少し変わっているがよりあり得る効果の一つは、地位と需要が、地域に根ざし、身体を伴い、物理的で、検証できる仕事へとシフトすることです。WEFは、AIの役割だけでなく、教師、ケアの役割、建設作業、 物流、配送、そして場所・人々・インフラ・直接サービスに結びついたその他の仕事でも成長が見込まれるとしています。PwCもまた、AIが農業や建設など、通常「ハイテク」とは見なされない分野においても、仕事を再構成していると指摘しています。
それは、未来が羊の飼育に属するという意味ではありません。そうではなく、いくらかの古い威信の階層が弱まる可能性があるということです。ホワイトカラーの仕事の一部が、より標準化され、より安くなり、そして合成しやすくなる一方で、手作業、ケア、そして地域に根ざしたサービスの 仕事の一部は、偽造しにくく、そして移転もしにくいままなら、それによって社会的価値の地図が変わっていきます。もちろん、一夜にしてではありません。きれいにではありません。でも、変わっていくのに十分なだけのことは起きます。「もっとAI」の方向へ動かない人もいます。より現実味があり、より地域に根ざし、より 安定していて、あるいは単に合成的な競争にさらされにくい仕事へ移る人もいます。
AIはAI以外の仕事も生み出す
これは、この物語全体の中で最も過小評価されている部分かもしれません。AIは、AIの仕事を生むだけではありません。AIの結果を管理し、吸収し、あるいは修復するために存在する仕事も生み出します。詐欺の予防が増える。家庭のデジタル安全が増える。人間による検証が増える。学習の整合性を担う仕事が増える。移行のコーチングが増える。レビュー業務が増える。信頼できるネットワークが増える。さらに、速い合成システムと、心配している人間の間に位置する役割が増えるのです。人間は安全なものが何か、本物が何か、そしてそれでもなお何が「数えられる」のかを知りたいのです。
だからこそ、2026年から2030年を考える最良の方法は「人間と機械の競争」として捉えることではありません。それは、知能が安くなった後に、社会が何をより価値あるものとして扱い始めるかをめぐる競争です。その新しい価値の一部は、AIシステムを作り、運用できる人々に向かうでしょう。 しかし多くの部分は、信頼、証明、判断、そして人々が生き残れる移行(トランジション)を生み出せる人々や組織に向かいます。
2030年には、最も重要な問いは「機械がもっと賢くなったかどうか」ではないかもしれません。彼らはそうなるでしょう。重要な問いはむしろこうです。賢いアウトプットがどこにでもあるとき、まだ「十分に稀」だと感じられるものは何なのか?
答えは、おそらくAGIの議論よりも、実務ではずっと華やかではなく、そしてより高くつくものになるはずです。信頼、評判、実際の技能、実際のレビュー、実際の教育、実際のケア、そして実際の人間の存在です。
それが次の市場の形です。おそらく次の議論の形でもあります。
出典
World Economic Forum, Four Futures for Jobs in the New Economy: AI and Talent in 2030
Stanford HAI, AI Index Report 2025
McKinsey, The State of AI 2025
Microsoft, Work Trend Index 2025
EUR-Lex, Rules for trustworthy artificial intelligence in the EU
World Economic Forum, Future of Jobs Report 2025
Brookings, Research on AI and the labor market is still in the first inning
IMF, New skills and AI are reshaping the future of work
FTC, New data show big jump in reported losses to fraud
Stanford HAI, AI Index 2025, Public Opinion chapter
OECD, Digital Education Outlook 2026
PwC, AI Jobs Barometer 2025
AIツールは、執筆プロセスを支援するために研究、構造的なアウトライン作成、校正(文法とスペリング)に使用されました。著者は英語が母語ではないためです。注目画像はAIによって生成されました。