イーロン・マスクの政府効率部門 (DOGE) は、連邦機関全体で彼のGrok AIチャットボットの適応版を静かに展開し、プライバシー侵害や利益相反の可能性についての警鐘を鳴らしています。ロイターは、DOGE内部の3つの情報源を引用し、チームがGrokを使用して敏感な政府データをふるい分け、分析し、従来の方法を超える速度でレポートと洞察を生成していると報じています。DOGEはGrok AIの動きで倫理に違反しています三人の内部者によると、DOGEのエンジニアは、2023年末にマスクのxAIが立ち上げたチャットボットGrokの上にカスタムパラメータをインストールし、データレビューを加速し、レポート作成を自動化した。「彼らは政府のデータセットを与え、複雑な質問をし、即座に要約を得る。」インサイダー。別の内部者は、DOGEのスタッフが国土安全保障省の職員に対して、ツールが正式な機関の承認を欠いているにもかかわらず、内部分析のためにGrokを使用するよう促していたと述べた。不明なのは、正確には、どの機密情報や個人を特定できる情報がGrokにアップロードされたのか、あるいはそれが連邦記録に対してどの程度の頻度で訓練されたのかということだ。センシティブな素材が含まれていた場合、その慣行は連邦プライバシー法および利益相反規則に抵触する可能性があります。5人の倫理と技術の専門家は、そのようなアクセスがマスクの企業に非公開の契約データに対する不均衡な洞察を与え、さらには私的な利益のためにGrok自体を洗練させるのに役立つ可能性があると警告しています。理論的には、機密政府データセットで訓練されたAIモデルは、厳格な法的保護を遵守しなければならない。データ共有プロトコルは通常、無断開示を防ぐために複数の承認と監視を含む。そのチェックを回避することで、DOGEは何百万ものアメリカ人の個人情報を危険にさらし、xAIに競合他社には入手できない膨大な実世界の情報を渡すリスクがあります。DOGEは、無駄、詐欺、虐待を根絶することを使命としていると主張しています。DHSのスポークスマンは、DOGEが特定のツールを採用するようにスタッフに圧力をかけたことはないとロイターに語りました。「私たちは効率に焦点を当てています」と広報担当者は述べた。しかし、2つの情報筋は、ここ数週間、DOGEの代表者が、データ漏洩の懸念からすべての商用AIプラットフォームを突然ブロックした後でも、移民のケースロード分析から予算予測に至るまでのタスクでGrokを試験的に行うようDHS部門に働きかけたと反論しています。現在のDHSポリシーの下では、従業員は非機密の分類されていない作業に対してのみ商用チャットボットを使用することができ、機密記録は特注のDHS AIが処理します。しかし、5月にChatGPTなどが無効にされたとき、DOGEの進展は法的なグレーゾーンで発生しました:内部のDHSボットは稼働していましたが、Grokは正式にオンボードされることはありませんでした。マスクはDOGEを使ってコントロールを中央集権化しているのか?DHSを超えて、DOGEの影響は国防総省のネットワークにも及び、約12人のアナリストがサードパーティのAIツールが彼らの活動を監視していると報告された。国防総省の広報担当者はDOGEがAIの展開を指導したことを否定しているが、ロイターが入手した部門のメールやテキストメッセージのやり取りはそれとは異なることを示唆している。批評家たちは、これらの動きがマスクのより広範な戦略を示していると見ており、AIを活用して官僚制を中央集権化し、その結果生まれるデータフローをマネタイズしようとしている。「自己取引の明確な兆候がある。」リチャード・ペインター、政府倫理の教授。もしマスクがグロックの展開を直接命じた場合、彼は公務員が私的利益に利益をもたらす決定に影響を与えることを禁じる刑法に違反する可能性があります。議論の中心にあるのは、GrokがX上の公開チャットボットと、政府のファイアウォール内の実験的な分析エンジンという2つの役割です。xAIのWebサイトでは、ユーザーのインタラクションが「特定のビジネス目的で」監視される可能性があることをほのめかしており、すべての連邦政府のクエリがGrokの学習ループにフィードバックできることを示唆しています。DOGEの2人のスタッフ、カイル・シュットとエドワード・コリスティン(後者はオンラインで「ビッグボール」として知られています)は、AIイニシアチブの多くを主導してきました。彼らはコメントを拒否しましたが、彼らの努力はパターンに適合しています。この1年間で、DOGEは何千人ものキャリア官僚を解雇し、安全なデータベースを掌握し、AIを官僚的な改革のための究極のツールとして擁護してきた。プライバシー擁護者は、未検証のAIを高リスクの国家安全保障環境に統合することは、データ漏洩、アイデンティティ盗難、外国の敵による悪用のレシピであると警告しています。「これは、プライバシーの脅威としては非常に深刻なものです」と、監視技術監視プロジェクトのアルバート・フォックス・カーンは述べています。透明性がほとんどなく、ガードレールも少ない中で、DOGEのAI実験が連邦データガバナンスを再構築する可能性があることへの懸念もあります。一般の人々がそれに気づくかどうかは別として。クリプトポリタンアカデミー: 市場の変動に疲れましたか?DeFiがどのようにして安定した受動的収入を構築する手助けができるかを学びましょう。今すぐ登録
Grok AIの米国政府における役割について倫理的懸念が高まる
イーロン・マスクの政府効率部門 (DOGE) は、連邦機関全体で彼のGrok AIチャットボットの適応版を静かに展開し、プライバシー侵害や利益相反の可能性についての警鐘を鳴らしています。
ロイターは、DOGE内部の3つの情報源を引用し、チームがGrokを使用して敏感な政府データをふるい分け、分析し、従来の方法を超える速度でレポートと洞察を生成していると報じています。
DOGEはGrok AIの動きで倫理に違反しています
三人の内部者によると、DOGEのエンジニアは、2023年末にマスクのxAIが立ち上げたチャットボットGrokの上にカスタムパラメータをインストールし、データレビューを加速し、レポート作成を自動化した。
「彼らは政府のデータセットを与え、複雑な質問をし、即座に要約を得る。」
インサイダー。
別の内部者は、DOGEのスタッフが国土安全保障省の職員に対して、ツールが正式な機関の承認を欠いているにもかかわらず、内部分析のためにGrokを使用するよう促していたと述べた。
不明なのは、正確には、どの機密情報や個人を特定できる情報がGrokにアップロードされたのか、あるいはそれが連邦記録に対してどの程度の頻度で訓練されたのかということだ。センシティブな素材が含まれていた場合、その慣行は連邦プライバシー法および利益相反規則に抵触する可能性があります。
5人の倫理と技術の専門家は、そのようなアクセスがマスクの企業に非公開の契約データに対する不均衡な洞察を与え、さらには私的な利益のためにGrok自体を洗練させるのに役立つ可能性があると警告しています。
理論的には、機密政府データセットで訓練されたAIモデルは、厳格な法的保護を遵守しなければならない。データ共有プロトコルは通常、無断開示を防ぐために複数の承認と監視を含む。
そのチェックを回避することで、DOGEは何百万ものアメリカ人の個人情報を危険にさらし、xAIに競合他社には入手できない膨大な実世界の情報を渡すリスクがあります。
DOGEは、無駄、詐欺、虐待を根絶することを使命としていると主張しています。DHSのスポークスマンは、DOGEが特定のツールを採用するようにスタッフに圧力をかけたことはないとロイターに語りました。
「私たちは効率に焦点を当てています」と広報担当者は述べた。しかし、2つの情報筋は、ここ数週間、DOGEの代表者が、データ漏洩の懸念からすべての商用AIプラットフォームを突然ブロックした後でも、移民のケースロード分析から予算予測に至るまでのタスクでGrokを試験的に行うようDHS部門に働きかけたと反論しています。
現在のDHSポリシーの下では、従業員は非機密の分類されていない作業に対してのみ商用チャットボットを使用することができ、機密記録は特注のDHS AIが処理します。しかし、5月にChatGPTなどが無効にされたとき、DOGEの進展は法的なグレーゾーンで発生しました:内部のDHSボットは稼働していましたが、Grokは正式にオンボードされることはありませんでした。
マスクはDOGEを使ってコントロールを中央集権化しているのか?
DHSを超えて、DOGEの影響は国防総省のネットワークにも及び、約12人のアナリストがサードパーティのAIツールが彼らの活動を監視していると報告された。国防総省の広報担当者はDOGEがAIの展開を指導したことを否定しているが、ロイターが入手した部門のメールやテキストメッセージのやり取りはそれとは異なることを示唆している。
批評家たちは、これらの動きがマスクのより広範な戦略を示していると見ており、AIを活用して官僚制を中央集権化し、その結果生まれるデータフローをマネタイズしようとしている。
「自己取引の明確な兆候がある。」
リチャード・ペインター、政府倫理の教授。
もしマスクがグロックの展開を直接命じた場合、彼は公務員が私的利益に利益をもたらす決定に影響を与えることを禁じる刑法に違反する可能性があります。
議論の中心にあるのは、GrokがX上の公開チャットボットと、政府のファイアウォール内の実験的な分析エンジンという2つの役割です。xAIのWebサイトでは、ユーザーのインタラクションが「特定のビジネス目的で」監視される可能性があることをほのめかしており、すべての連邦政府のクエリがGrokの学習ループにフィードバックできることを示唆しています。
DOGEの2人のスタッフ、カイル・シュットとエドワード・コリスティン(後者はオンラインで「ビッグボール」として知られています)は、AIイニシアチブの多くを主導してきました。彼らはコメントを拒否しましたが、彼らの努力はパターンに適合しています。この1年間で、DOGEは何千人ものキャリア官僚を解雇し、安全なデータベースを掌握し、AIを官僚的な改革のための究極のツールとして擁護してきた。
プライバシー擁護者は、未検証のAIを高リスクの国家安全保障環境に統合することは、データ漏洩、アイデンティティ盗難、外国の敵による悪用のレシピであると警告しています。
「これは、プライバシーの脅威としては非常に深刻なものです」と、監視技術監視プロジェクトのアルバート・フォックス・カーンは述べています。
透明性がほとんどなく、ガードレールも少ない中で、DOGEのAI実験が連邦データガバナンスを再構築する可能性があることへの懸念もあります。一般の人々がそれに気づくかどうかは別として。
クリプトポリタンアカデミー: 市場の変動に疲れましたか?DeFiがどのようにして安定した受動的収入を構築する手助けができるかを学びましょう。今すぐ登録