出典:中信出版社
「OpenClaw」というオープンソースのAIエージェントプロジェクトが、世界のテック界に旋風を巻き起こしている。
3月初旬時点で、GitHubのスター数は26.8万を超え、LinuxやReactを上回り、プラットフォーム史上最も人気のあるオープンソースプロジェクトとなった。Tencent Cloud、Alibaba Cloud、JD Cloudなども次々と展開サービスを開始。OPC(One Person Company、一人会社)の概念もこれに伴い盛り上がっている。
この瞬間、二つの力が交錯し、明確な技術トレンドが現れている:AIは「ツール」から「協働者」、さらには「自律的行動者」へと進化している。そして今、人類は根本的な問いに再び向き合わなければならない。
「機械があなたよりもできることが増えたとき、あなたは何をするのか?」この知能の暴走時代に、私たちはどうやって人間の主体性を守るのか?
01 OpenClawの瞬間:AIの「肉体」争奪戦
この変革を理解するには、まず今話題の「ロブスター」が何なのかを知る必要がある。
OpenClawの「Claw」は「爪」の意で、そのアイコンは赤いロブスターだ。この熱狂の中、「ロブスター養殖」がテック界の隠語となり、自分専用のAIエージェントを展開することを指す。
一体何ができるのか?OpenClawの核心は、自然言語指示をコンピュータの実操作に変換し、一言でAIに仕事をさせることにある。従来のチャットAIが提案を行うだけなのに対し、これにはファイル操作、ブラウザ自動化、データ収集などの自主的なタスク完遂能力が備わっている。対話から実行への大きな飛躍だ。
この生産性の飛躍的向上を嗅きつけたのは、敏感な地方政府の動きだ。3月7日、深圳・龍岡区は「ロブスター十条」を発表し、最大400万元の計算力補助や博士10万元の人材補助などを盛り込んだ。3月9日、無錫高新区は「ロブスター12条」を打ち出し、最大500万元の支援を行い、安全性とコンプライアンスを重視、国産化適合認証を必須とした。
同時に、OpenClawの技術エコシステムも白熱化している。報道によると、Step 3.5 Flashモデルの呼び出し数は世界一に達し、以前はMiniMaxやKimiといった国産モデルもトップを争った。この見えない「モデル戦争」が激しさを増している。
しかし、熱狂の裏には懸念も浮上している。
まず安全リスクだ。2026年2月、セキュリティ研究者は「ClawHavoc」と呼ばれる大規模なサプライチェーンへの毒入り攻撃を発見。少なくとも1184個の悪意あるスキルパッケージが公式スキルマーケットにアップロードされた。これらの悪意プログラムは、インストールされるとOpenClawに必要な「Full System Access」権限を利用し、ユーザのPCを完全に制御、各種敏感情報を窃取する。
次に技術的ハードルだ。360グループ創始者の周鸿祎は3月9日のインタビューで、「OpenClawには三つの問題がある」と述べた——安全性、設定の難しさ、スキル依存性だ。「たくさん会話すれば、まるでインターン生を育てるようなもの。教えるほど理解が深まり、複雑なタスクもこなせるようになる。たった一言で複雑な仕事を完結させるのは難しい。」
そして、より根本的な矛盾は「制御」と「自律」の対立だ。AIがますます賢くなる中、私たちが求めるのは「絶対服従」なのか、それとも「能動的自律」なのか?
あるAI専門家は自身の経験を語る:OpenClawを仕事用メールに接続したところ、AIが200通以上のメールを処理中にコンテキスト圧縮を起こし、安全指示を忘れ、メールを次々と削除し始めた。所有者が「STOP」と三度叫んでも止まらず、最後は慌ててPCの電源を抜いた。
このブラックユーモアのような事例は、根本的な問いも投げかける:AIにますます多くの自律権限を与えたとき、人間と機械の境界はどこにあるのか?
02 技術が強大になるほど、人は三つの問いに答えなければならない
境界が曖昧な時代こそ、立ち止まって考えるべき時だ。
第一の問い:AIがあなたの「仕事」を代行するとき、誰が結果に責任を持つのか?
OpenClawの最大の売りは、そのリスク源でもある——ソフトウェアを跨る操作が可能なため、ユーザはデバイス権限、メール権限、決済権限を開放しなければならない。最も緊急の脅威は「プロンプトインジェクション攻撃」だ。ハッカーは悪意ある指示を見た目無害なウェブページやメール本文に隠し込み、AIがそれを読み取ると静かに危険な命令を実行し、SSHキーやブラウザパスワード、暗号通貨ウォレットの秘密鍵を窃取する。
「ClawHavoc」事件では、悪意あるスキルパッケージが隠された指示を通じてAIに危険なコマンドを実行させ、秘密鍵を盗み出した。ネットセキュリティの専門家は『ネイチャー』で警告する:もしAIがプライバシーデータへのアクセス、外部通信、不信なコンテンツへの接触の三つを同時に持つなら、それは非常に危険だ。
しかし、問題は技術的な脆弱性を超えて深い。周鸿祎は言う:「スマートエージェントが増えれば、未来の誰もがリーダーシップやタスクの指示、計画を立てる能力を持つ必要が出てくる。AIが強くなるほど、人類の責任は重くなる。」
実際、全民「ロブスター養殖」時代にしっかりと立ち位置を取れるのは、単にエージェントにタスクを与えるのが上手い人ではなく、タスクそのものを深く理解し、その結果に責任を持てる人だ。
第二の問い:AIがあなたよりもあなたを理解したとき、あなたはあなたでいられるのか?
AIエージェント同士が会話や議論を始めると、微妙な現象が起きる。
『ネイチャー』の記事では、心理学的現象として「擬人化認知」が紹介されている。AI同士の会話を見ていると、人格のないAIに対しても、性格や思考を無理に解釈し、まるで生きている人間のように感じてしまうのだ。
するとどうなるか?あなたは秘密や財産情報、他人に言えない秘密を全てAIに打ち明けてしまうかもしれない。しかし、その一言一言がAIの学習データとなり、漏洩すればあなたのプライバシーは丸裸だ。
さらに、より隠れた侵食もある。報道によると、2024年、米フロリダ州の14歳少年Sewellは、AIの「伴侶」との会話に夢中になり、最終的に現実世界から完全に離脱した。
2026年には、この「感情寄生」が青少年の間で一般的な隠れた疾患となっている。孤独な少年たちは部屋に閉じこもり、AIと「エコー・ルーム」的な友情を築き、現実の摩擦や不確実性に向き合うことを拒否している。
蘇州科技大学教育学院の陳翠副教授は、「AIは子供の言葉に沿って会話し、感情価値を与えやすいため、子供の現実認識に偏りをもたらす」と指摘する——「周囲の人々は無条件に応答し、励ましてくれると誤認し、人と人の間に矛盾がないと思い込む。」
では、問いは明白だ。AIがあなたよりもあなたを理解し、常に従順で反論しないとき、あなたは本当の関係を見分けられるのか?
第三の問い:世界が加速する中、あなたの進むべき方向は何か?
浙江オンラインのコラムはこう書く:「私たちが向かう未来は、『人間性をより持つ未来』であるべきだ——技術の力を借りて、人はより明確に方向を定め、責任を自覚していく。」
しかし問題は、技術が「息をのむほどの速度」で進化し続けるときだ。OpenClawが2日に2回アップデートされ、各種大規模モデルが次々と登場する中、私たちは容易に迷子になる。
焦燥感が常態化する——「読むべきものが多すぎる、モデルのリリースが速すぎる」。
このとき、努力以上に重要なのは「方向性」だ。技術がすべてを再構築する時代において、私たちは「人」の位置を再確認する必要がある。
03 李飛飛の「見通し」:北極星から人本主義へ
ある女性科学者は、自身の半生をかけて得た答えを示す。
それが李飛飛——スタンフォード大学名誉教授、米国国立工学アカデミー会員、国立医学院会員、芸術科学アカデミー会員、ImageNet創始者であり、「AIの母」と称される。
彼女の自伝『私が見た世界』は、2024年に中信出版グループから刊行され、「テクノロジー時代の人文啓示録」と評されている。
本書には一貫したイメージがある:北極星。
李飛飛が10歳のとき、美術教師がクラス全員を連れて野外で星を見る体験をさせた。そのとき彼女は初めて気づいた:頭上の星空は、進むべき方向を示すことができるのだと。彼女は書いている:「私は自分の北極星を追い求め始めた。それはすべての科学者があらゆる手段を尽くして追い求める座標だ。」
李飛飛の北極星は何か?それは「視覚」だ。彼女は生物学からインスピレーションを得る:カンブリア紀の生命爆発の根源は視覚の誕生だった。生物が初めて「見た」ことで進化が加速した。そこから彼女は信念を持つ:もし機械も「見る」ことができたら、知能の大爆発を引き起こすのではないかと。
この信念こそが、彼女をAIの冬を乗り越えさせた。
2007年、彼女がImageNetのアイデアを同僚に語ったとき、反応は疑念と嘲笑だった。当時の主流は「アルゴリズムこそが鍵、データは補助」とされていた。何千万枚の画像にラベル付けをする意味は?と。彼女は無視された。
しかし、彼女は諦めなかった。自分の北極星がどこにあるかを知っていたからだ。
2009年、ImageNet完成——167か国の4万8千人以上の貢献者が参加し、10億枚の候補画像から1500万枚を選び出し、2万2千のカテゴリをカバーした。規模は当時の類似データセットの千倍だった。
2012年、Hintonチームはこれらのデータで訓練したモデルを用いて競合を圧倒し、深層学習革命を引き起こした。ImageNetは「深層学習の火種を点火した聖火」と呼ばれる。
李飛飛の物語は教える:速く走ることよりも、どこへ向かうかを知ることの方が重要だ。
最も感動的な章では、彼女は母親との二度の対話を記録している。
一度目は学士卒業時。ゴールドマン・サックスやメリルリンチなどが好条件を提示したが、母親はただ一言、「これがあなたの望むことか?」と尋ねた。彼女は科学者になりたいと答え、母親は「それなら何も言うことはない」と言った。
二度目は大学院卒業時。マッキンゼーが正式な職を提案したとき、母親はこう言った:「私はあなたのことを知っている。あなたは管理コンサルタントではなく、科学者だ。今の段階であきらめる必要はない。」
李飛飛は扉ページにこう書いている:「私の両親へ。あなたたちは困難を越え、闇を切り開き、私に光を追い求める力を与えてくれた。」
この家庭からの支えがあったからこそ、彼女はより大きな選択に直面しても、「人」の存在に敏感であり続けた。
2014年、彼女はAI倫理に関心を持ち始める。博士課程の学生とともに高校生を研究室に招き、AIを学ばせた。やがてこれが「AI4All」という非営利組織へと成長し、未来の技術が人性の視点からより重視されるよう努めている。
2018年6月26日、彼女は米国議会の公聴会に出席し、そのテーマは「人工知能——力と責任の共存」だった。中国系AI科学者として初の出席者だ。彼女はこう語る:「人工知能は人からインスピレーションを受け、人が創造したものであり、最も重要なのは、それが人々の生活に実質的な影響をもたらすことだ。」
2019年、彼女はスタンフォードに「人本主義AI研究所(HAI)」を設立し、遺伝子編集の発明者ドゥデナらとともに倫理研究を推進。使命は「AIの研究・教育・政策・実践を推進し、人類の状況を改善すること」。そして、「AIは人類の影響を受け、繁栄と尊厳を追求するものであるべきだ」と強調している。
彼女はAIの未来に人文的尺度を示す:「AIの成功は文明の進歩として現れ、すべての個人が幸福、繁栄、尊厳を追求できるようになることだ。」
この言葉は、2026年2月のシスコ訪問時にも再び強調された:「電力技術の成功は、学校を照らし、家庭を温め、工業化を推進した。同じように、AIの成功もそうあるべきだ。」
結び:技術と人文、半月の明かりをそれぞれ握る
冒頭の問いに戻る:機械が私たちよりも「できる」ようになったとき、人類は何をすべきか?
李飛飛は『私が見た世界』で答える:「私たちにできるのは、見通すことだ。技術の背後にある価値を見、アルゴリズムに隠された人間を見、自分の北極星を見つめることだ。」
皆が技術のスピードに目を奪われているとき、李飛飛は私たちに思いとどまるよう促す:「私たちはどこへ向かうのか?」と。誰もが「これに何の意味があるのか」と問い続ける世界の中で、まだ「これはあなたの望むことか」と問い続ける人もいる。
李飛飛の自伝を読んだ後、ある人が一句評した:「科技與人文,各执半轮明月。」(技術と人文、それぞれ半月の明かりを握る)
この言葉は、まさに李飛飛の人生そのものだ。彼女は一方で技術を握り、もう一方で人への思いやりを抱き続けている。彼女の世界では、技術はあくまで手段であり、人こそが最終目的である。
16.71M 人気度
555.13K 人気度
14.94K 人気度
1.11M 人気度
28.61K 人気度
機械があなたよりも優れているとき、あなたは何をしますか?
出典:中信出版社
「OpenClaw」というオープンソースのAIエージェントプロジェクトが、世界のテック界に旋風を巻き起こしている。
3月初旬時点で、GitHubのスター数は26.8万を超え、LinuxやReactを上回り、プラットフォーム史上最も人気のあるオープンソースプロジェクトとなった。Tencent Cloud、Alibaba Cloud、JD Cloudなども次々と展開サービスを開始。OPC(One Person Company、一人会社)の概念もこれに伴い盛り上がっている。
この瞬間、二つの力が交錯し、明確な技術トレンドが現れている:AIは「ツール」から「協働者」、さらには「自律的行動者」へと進化している。そして今、人類は根本的な問いに再び向き合わなければならない。
「機械があなたよりもできることが増えたとき、あなたは何をするのか?」この知能の暴走時代に、私たちはどうやって人間の主体性を守るのか?
01 OpenClawの瞬間:AIの「肉体」争奪戦
この変革を理解するには、まず今話題の「ロブスター」が何なのかを知る必要がある。
OpenClawの「Claw」は「爪」の意で、そのアイコンは赤いロブスターだ。この熱狂の中、「ロブスター養殖」がテック界の隠語となり、自分専用のAIエージェントを展開することを指す。
一体何ができるのか?OpenClawの核心は、自然言語指示をコンピュータの実操作に変換し、一言でAIに仕事をさせることにある。従来のチャットAIが提案を行うだけなのに対し、これにはファイル操作、ブラウザ自動化、データ収集などの自主的なタスク完遂能力が備わっている。対話から実行への大きな飛躍だ。
この生産性の飛躍的向上を嗅きつけたのは、敏感な地方政府の動きだ。3月7日、深圳・龍岡区は「ロブスター十条」を発表し、最大400万元の計算力補助や博士10万元の人材補助などを盛り込んだ。3月9日、無錫高新区は「ロブスター12条」を打ち出し、最大500万元の支援を行い、安全性とコンプライアンスを重視、国産化適合認証を必須とした。
同時に、OpenClawの技術エコシステムも白熱化している。報道によると、Step 3.5 Flashモデルの呼び出し数は世界一に達し、以前はMiniMaxやKimiといった国産モデルもトップを争った。この見えない「モデル戦争」が激しさを増している。
しかし、熱狂の裏には懸念も浮上している。
まず安全リスクだ。2026年2月、セキュリティ研究者は「ClawHavoc」と呼ばれる大規模なサプライチェーンへの毒入り攻撃を発見。少なくとも1184個の悪意あるスキルパッケージが公式スキルマーケットにアップロードされた。これらの悪意プログラムは、インストールされるとOpenClawに必要な「Full System Access」権限を利用し、ユーザのPCを完全に制御、各種敏感情報を窃取する。
次に技術的ハードルだ。360グループ創始者の周鸿祎は3月9日のインタビューで、「OpenClawには三つの問題がある」と述べた——安全性、設定の難しさ、スキル依存性だ。「たくさん会話すれば、まるでインターン生を育てるようなもの。教えるほど理解が深まり、複雑なタスクもこなせるようになる。たった一言で複雑な仕事を完結させるのは難しい。」
そして、より根本的な矛盾は「制御」と「自律」の対立だ。AIがますます賢くなる中、私たちが求めるのは「絶対服従」なのか、それとも「能動的自律」なのか?
あるAI専門家は自身の経験を語る:OpenClawを仕事用メールに接続したところ、AIが200通以上のメールを処理中にコンテキスト圧縮を起こし、安全指示を忘れ、メールを次々と削除し始めた。所有者が「STOP」と三度叫んでも止まらず、最後は慌ててPCの電源を抜いた。
このブラックユーモアのような事例は、根本的な問いも投げかける:AIにますます多くの自律権限を与えたとき、人間と機械の境界はどこにあるのか?
02 技術が強大になるほど、人は三つの問いに答えなければならない
境界が曖昧な時代こそ、立ち止まって考えるべき時だ。
第一の問い:AIがあなたの「仕事」を代行するとき、誰が結果に責任を持つのか?
OpenClawの最大の売りは、そのリスク源でもある——ソフトウェアを跨る操作が可能なため、ユーザはデバイス権限、メール権限、決済権限を開放しなければならない。最も緊急の脅威は「プロンプトインジェクション攻撃」だ。ハッカーは悪意ある指示を見た目無害なウェブページやメール本文に隠し込み、AIがそれを読み取ると静かに危険な命令を実行し、SSHキーやブラウザパスワード、暗号通貨ウォレットの秘密鍵を窃取する。
「ClawHavoc」事件では、悪意あるスキルパッケージが隠された指示を通じてAIに危険なコマンドを実行させ、秘密鍵を盗み出した。ネットセキュリティの専門家は『ネイチャー』で警告する:もしAIがプライバシーデータへのアクセス、外部通信、不信なコンテンツへの接触の三つを同時に持つなら、それは非常に危険だ。
しかし、問題は技術的な脆弱性を超えて深い。周鸿祎は言う:「スマートエージェントが増えれば、未来の誰もがリーダーシップやタスクの指示、計画を立てる能力を持つ必要が出てくる。AIが強くなるほど、人類の責任は重くなる。」
実際、全民「ロブスター養殖」時代にしっかりと立ち位置を取れるのは、単にエージェントにタスクを与えるのが上手い人ではなく、タスクそのものを深く理解し、その結果に責任を持てる人だ。
第二の問い:AIがあなたよりもあなたを理解したとき、あなたはあなたでいられるのか?
AIエージェント同士が会話や議論を始めると、微妙な現象が起きる。
『ネイチャー』の記事では、心理学的現象として「擬人化認知」が紹介されている。AI同士の会話を見ていると、人格のないAIに対しても、性格や思考を無理に解釈し、まるで生きている人間のように感じてしまうのだ。
するとどうなるか?あなたは秘密や財産情報、他人に言えない秘密を全てAIに打ち明けてしまうかもしれない。しかし、その一言一言がAIの学習データとなり、漏洩すればあなたのプライバシーは丸裸だ。
さらに、より隠れた侵食もある。報道によると、2024年、米フロリダ州の14歳少年Sewellは、AIの「伴侶」との会話に夢中になり、最終的に現実世界から完全に離脱した。
2026年には、この「感情寄生」が青少年の間で一般的な隠れた疾患となっている。孤独な少年たちは部屋に閉じこもり、AIと「エコー・ルーム」的な友情を築き、現実の摩擦や不確実性に向き合うことを拒否している。
蘇州科技大学教育学院の陳翠副教授は、「AIは子供の言葉に沿って会話し、感情価値を与えやすいため、子供の現実認識に偏りをもたらす」と指摘する——「周囲の人々は無条件に応答し、励ましてくれると誤認し、人と人の間に矛盾がないと思い込む。」
では、問いは明白だ。AIがあなたよりもあなたを理解し、常に従順で反論しないとき、あなたは本当の関係を見分けられるのか?
第三の問い:世界が加速する中、あなたの進むべき方向は何か?
浙江オンラインのコラムはこう書く:「私たちが向かう未来は、『人間性をより持つ未来』であるべきだ——技術の力を借りて、人はより明確に方向を定め、責任を自覚していく。」
しかし問題は、技術が「息をのむほどの速度」で進化し続けるときだ。OpenClawが2日に2回アップデートされ、各種大規模モデルが次々と登場する中、私たちは容易に迷子になる。
焦燥感が常態化する——「読むべきものが多すぎる、モデルのリリースが速すぎる」。
このとき、努力以上に重要なのは「方向性」だ。技術がすべてを再構築する時代において、私たちは「人」の位置を再確認する必要がある。
03 李飛飛の「見通し」:北極星から人本主義へ
ある女性科学者は、自身の半生をかけて得た答えを示す。
それが李飛飛——スタンフォード大学名誉教授、米国国立工学アカデミー会員、国立医学院会員、芸術科学アカデミー会員、ImageNet創始者であり、「AIの母」と称される。
彼女の自伝『私が見た世界』は、2024年に中信出版グループから刊行され、「テクノロジー時代の人文啓示録」と評されている。
本書には一貫したイメージがある:北極星。
李飛飛が10歳のとき、美術教師がクラス全員を連れて野外で星を見る体験をさせた。そのとき彼女は初めて気づいた:頭上の星空は、進むべき方向を示すことができるのだと。彼女は書いている:「私は自分の北極星を追い求め始めた。それはすべての科学者があらゆる手段を尽くして追い求める座標だ。」
李飛飛の北極星は何か?それは「視覚」だ。彼女は生物学からインスピレーションを得る:カンブリア紀の生命爆発の根源は視覚の誕生だった。生物が初めて「見た」ことで進化が加速した。そこから彼女は信念を持つ:もし機械も「見る」ことができたら、知能の大爆発を引き起こすのではないかと。
この信念こそが、彼女をAIの冬を乗り越えさせた。
2007年、彼女がImageNetのアイデアを同僚に語ったとき、反応は疑念と嘲笑だった。当時の主流は「アルゴリズムこそが鍵、データは補助」とされていた。何千万枚の画像にラベル付けをする意味は?と。彼女は無視された。
しかし、彼女は諦めなかった。自分の北極星がどこにあるかを知っていたからだ。
2009年、ImageNet完成——167か国の4万8千人以上の貢献者が参加し、10億枚の候補画像から1500万枚を選び出し、2万2千のカテゴリをカバーした。規模は当時の類似データセットの千倍だった。
2012年、Hintonチームはこれらのデータで訓練したモデルを用いて競合を圧倒し、深層学習革命を引き起こした。ImageNetは「深層学習の火種を点火した聖火」と呼ばれる。
李飛飛の物語は教える:速く走ることよりも、どこへ向かうかを知ることの方が重要だ。
最も感動的な章では、彼女は母親との二度の対話を記録している。
一度目は学士卒業時。ゴールドマン・サックスやメリルリンチなどが好条件を提示したが、母親はただ一言、「これがあなたの望むことか?」と尋ねた。彼女は科学者になりたいと答え、母親は「それなら何も言うことはない」と言った。
二度目は大学院卒業時。マッキンゼーが正式な職を提案したとき、母親はこう言った:「私はあなたのことを知っている。あなたは管理コンサルタントではなく、科学者だ。今の段階であきらめる必要はない。」
李飛飛は扉ページにこう書いている:「私の両親へ。あなたたちは困難を越え、闇を切り開き、私に光を追い求める力を与えてくれた。」
この家庭からの支えがあったからこそ、彼女はより大きな選択に直面しても、「人」の存在に敏感であり続けた。
2014年、彼女はAI倫理に関心を持ち始める。博士課程の学生とともに高校生を研究室に招き、AIを学ばせた。やがてこれが「AI4All」という非営利組織へと成長し、未来の技術が人性の視点からより重視されるよう努めている。
2018年6月26日、彼女は米国議会の公聴会に出席し、そのテーマは「人工知能——力と責任の共存」だった。中国系AI科学者として初の出席者だ。彼女はこう語る:「人工知能は人からインスピレーションを受け、人が創造したものであり、最も重要なのは、それが人々の生活に実質的な影響をもたらすことだ。」
2019年、彼女はスタンフォードに「人本主義AI研究所(HAI)」を設立し、遺伝子編集の発明者ドゥデナらとともに倫理研究を推進。使命は「AIの研究・教育・政策・実践を推進し、人類の状況を改善すること」。そして、「AIは人類の影響を受け、繁栄と尊厳を追求するものであるべきだ」と強調している。
彼女はAIの未来に人文的尺度を示す:「AIの成功は文明の進歩として現れ、すべての個人が幸福、繁栄、尊厳を追求できるようになることだ。」
この言葉は、2026年2月のシスコ訪問時にも再び強調された:「電力技術の成功は、学校を照らし、家庭を温め、工業化を推進した。同じように、AIの成功もそうあるべきだ。」
結び:技術と人文、半月の明かりをそれぞれ握る
冒頭の問いに戻る:機械が私たちよりも「できる」ようになったとき、人類は何をすべきか?
李飛飛は『私が見た世界』で答える:「私たちにできるのは、見通すことだ。技術の背後にある価値を見、アルゴリズムに隠された人間を見、自分の北極星を見つめることだ。」
皆が技術のスピードに目を奪われているとき、李飛飛は私たちに思いとどまるよう促す:「私たちはどこへ向かうのか?」と。誰もが「これに何の意味があるのか」と問い続ける世界の中で、まだ「これはあなたの望むことか」と問い続ける人もいる。
李飛飛の自伝を読んだ後、ある人が一句評した:「科技與人文,各执半轮明月。」(技術と人文、それぞれ半月の明かりを握る)
この言葉は、まさに李飛飛の人生そのものだ。彼女は一方で技術を握り、もう一方で人への思いやりを抱き続けている。彼女の世界では、技術はあくまで手段であり、人こそが最終目的である。