Ілон Маск’s Департамент Урядової Ефективності (DOGE) тихо запустив адаптовану версію свого чат-бота Grok AI в федеральних агентствах, викликавши тривогу щодо потенційних порушень конфіденційності та конфліктів інтересів.
Агентство Reuters з посиланням на три джерела в DOGE заявило, що команда використовувала Grok для просіювання та аналізу конфіденційних урядових даних, генеруючи звіти та висновки зі швидкістю, що перевищує традиційні методи.
DOGE порушує етику з ходом Grok AI
Згідно з трьома інсайдерами, інженери DOGE встановили власні параметри поверх Grok, чат-бота, який xAI Маска запустила наприкінці 2023 року, щоб прискорити перевірку даних і автоматизувати написання звітів.
"Вони постачають йому державні набори даних, ставлять складні запитання та отримують миттєві резюме."
Інсайдер.
Інший інсайдер додав, що співробітники DOGE заохочували працівників Міністерства внутрішньої безпеки використовувати Grok для внутрішніх аналізів, незважаючи на те, що цей інструмент не мав формального схвалення агентства.
Невідомо, яка саме класифікована або персональна інформація була завантажена в Grok або наскільки сильно модель була навчена на федеральних записах. Якщо чутлива інформація була включена, це може суперечити федеральним законам про конфіденційність та правилам конфлікту інтересів.
П'ять експертів з етики та технологій попереджають, що такий доступ може дати компаніям Маска непропорційні знання про непублічні дані контрактів і навіть допомогти вдосконалити Grok для приватної вигоди.
Теоретично будь-яка модель штучного інтелекту, навчена на конфіденційних урядових наборах даних, повинна мати суворі юридичні гарантії. Протоколи обміну даними зазвичай передбачають кілька підписань і нагляд для запобігання несанкціонованому розголошенню.
Обходячи ці перевірки, DOGE ризикує розкрити особисті дані мільйонів американців та передати xAI великий обсяг реальної інформації, недоступної для конкурентів.
DOGE наполягає на тому, що його місія полягає в боротьбі з марнотратством, шахрайством та зловживаннями. Представник DHS повідомив Reuters, що DOGE ніколи не тиснув на працівників, щоб вони використовували будь-який конкретний інструмент.
«Ми зосереджені на ефективності», - сказав речник. Але два джерела заперечують це, зазначаючи, що протягом останніх тижнів представники DOGE намагалися переконати підрозділи DHS випробувати Grok для завдань, що варіюються від аналізу справ з імміграції до прогнозування бюджету, навіть після того, як DHS раптово заблокував усі комерційні платформи ШІ через побоювання щодо витоку даних.
Згідно з поточною політикою DHS, співробітники можуть використовувати комерційні чат-боти лише для несекретної, неконфіденційної роботи, тоді як спеціальний штучний інтелект DHS обробляє конфіденційні записи. Але коли ChatGPT та інші були відключені в травні, досягнення DOGE відбулися в юридичній сірій зоні: внутрішній бот DHS залишався активним, але Грок ніколи офіційно не був включений на борт.
Чи використовує Маск DOGE для централізації контролю?
По інформації Reuters, поза межами DHS, вплив DOGE поширюється на мережі Міністерства оборони, де близько десятка аналітиків, як повідомляється, були проінформовані про те, що сторонній інструмент ШІ моніторить їхню діяльність. Хоча представники Міністерства оборони заперечують, що DOGE керував будь-якими впровадженнями ШІ, електронні листи та обміни текстовими повідомленнями, отримані Reuters, свідчать про протилежне.
Критики вважають ці кроки ілюстрацією більшої стратегії Маска, спрямованої на використання ШІ для централізації контролю над бюрократією, а потім монетизацію отриманого потоку даних.
«Є чіткий прояв самоповаги.»
Річард Пейнтер, професор етики уряду.
Якщо Маск безпосередньо наказав про розгортання Grok, він міг би порушити кримінальні статті, які забороняють посадовим особам впливати на рішення, що приносять вигоду їх приватним інтересам.
В основі дебатів лежить подвійна роль Grok як чат-бота для публіки на X та експериментального аналітичного двигуна всередині урядових мереж. На веб-сайті xAI навіть натякають, що взаємодії користувачів можуть бути моніторені "для конкретних бізнес-цілей", що свідчить про те, що кожен федеральний запит може надходити назад у навчальний цикл Grok.
Два співробітники DOGE, Кайл Шутт і Едвард Корістін, останній з яких відомий в Інтернеті як "Великі Яйця", очолили більшу частину ініціативи з АІ. Хоча вони відмовилися коментувати, їхні зусилля вписуються в певну тенденцію; протягом минулого року DOGE звільнив тисячі кар'єрних чиновників, захопив контроль над безпечними базами даних і виступив на захист АІ як остаточного інструменту для бюрократичної реформи.
Прихильники конфіденційності попереджають, що інтеграція невідкритого ШІ в умовах національної безпеки з високими ставками є рецептом для витоків даних, крадіжки особистості та експлуатації іноземними супротивниками.
«Це приблизно так серйозна загроза приватності, як тільки можна уявити», – говорить Альберт Фокс Кан з Проекту нагляду за технологіями спостереження.
Існують також побоювання, що з малою прозорістю та кількома обмеженнями експеримент з AI DOGE може перетворити державне управління даними, чи усвідомлює це громадськість, чи ні.
Cryptopolitan Academy: Втомилися від коливань ринку? Дізнайтеся, як DeFi може допомогти вам створити стабільний пасивний дохід. Зареєструйтесь зараз
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Зростають етичні занепокоєння щодо ролі Grok AI в уряді США
Ілон Маск’s Департамент Урядової Ефективності (DOGE) тихо запустив адаптовану версію свого чат-бота Grok AI в федеральних агентствах, викликавши тривогу щодо потенційних порушень конфіденційності та конфліктів інтересів.
Агентство Reuters з посиланням на три джерела в DOGE заявило, що команда використовувала Grok для просіювання та аналізу конфіденційних урядових даних, генеруючи звіти та висновки зі швидкістю, що перевищує традиційні методи.
DOGE порушує етику з ходом Grok AI
Згідно з трьома інсайдерами, інженери DOGE встановили власні параметри поверх Grok, чат-бота, який xAI Маска запустила наприкінці 2023 року, щоб прискорити перевірку даних і автоматизувати написання звітів.
"Вони постачають йому державні набори даних, ставлять складні запитання та отримують миттєві резюме."
Інсайдер.
Інший інсайдер додав, що співробітники DOGE заохочували працівників Міністерства внутрішньої безпеки використовувати Grok для внутрішніх аналізів, незважаючи на те, що цей інструмент не мав формального схвалення агентства.
Невідомо, яка саме класифікована або персональна інформація була завантажена в Grok або наскільки сильно модель була навчена на федеральних записах. Якщо чутлива інформація була включена, це може суперечити федеральним законам про конфіденційність та правилам конфлікту інтересів.
П'ять експертів з етики та технологій попереджають, що такий доступ може дати компаніям Маска непропорційні знання про непублічні дані контрактів і навіть допомогти вдосконалити Grok для приватної вигоди.
Теоретично будь-яка модель штучного інтелекту, навчена на конфіденційних урядових наборах даних, повинна мати суворі юридичні гарантії. Протоколи обміну даними зазвичай передбачають кілька підписань і нагляд для запобігання несанкціонованому розголошенню.
Обходячи ці перевірки, DOGE ризикує розкрити особисті дані мільйонів американців та передати xAI великий обсяг реальної інформації, недоступної для конкурентів.
DOGE наполягає на тому, що його місія полягає в боротьбі з марнотратством, шахрайством та зловживаннями. Представник DHS повідомив Reuters, що DOGE ніколи не тиснув на працівників, щоб вони використовували будь-який конкретний інструмент.
«Ми зосереджені на ефективності», - сказав речник. Але два джерела заперечують це, зазначаючи, що протягом останніх тижнів представники DOGE намагалися переконати підрозділи DHS випробувати Grok для завдань, що варіюються від аналізу справ з імміграції до прогнозування бюджету, навіть після того, як DHS раптово заблокував усі комерційні платформи ШІ через побоювання щодо витоку даних.
Згідно з поточною політикою DHS, співробітники можуть використовувати комерційні чат-боти лише для несекретної, неконфіденційної роботи, тоді як спеціальний штучний інтелект DHS обробляє конфіденційні записи. Але коли ChatGPT та інші були відключені в травні, досягнення DOGE відбулися в юридичній сірій зоні: внутрішній бот DHS залишався активним, але Грок ніколи офіційно не був включений на борт.
Чи використовує Маск DOGE для централізації контролю?
По інформації Reuters, поза межами DHS, вплив DOGE поширюється на мережі Міністерства оборони, де близько десятка аналітиків, як повідомляється, були проінформовані про те, що сторонній інструмент ШІ моніторить їхню діяльність. Хоча представники Міністерства оборони заперечують, що DOGE керував будь-якими впровадженнями ШІ, електронні листи та обміни текстовими повідомленнями, отримані Reuters, свідчать про протилежне.
Критики вважають ці кроки ілюстрацією більшої стратегії Маска, спрямованої на використання ШІ для централізації контролю над бюрократією, а потім монетизацію отриманого потоку даних.
«Є чіткий прояв самоповаги.»
Річард Пейнтер, професор етики уряду.
Якщо Маск безпосередньо наказав про розгортання Grok, він міг би порушити кримінальні статті, які забороняють посадовим особам впливати на рішення, що приносять вигоду їх приватним інтересам.
В основі дебатів лежить подвійна роль Grok як чат-бота для публіки на X та експериментального аналітичного двигуна всередині урядових мереж. На веб-сайті xAI навіть натякають, що взаємодії користувачів можуть бути моніторені "для конкретних бізнес-цілей", що свідчить про те, що кожен федеральний запит може надходити назад у навчальний цикл Grok.
Два співробітники DOGE, Кайл Шутт і Едвард Корістін, останній з яких відомий в Інтернеті як "Великі Яйця", очолили більшу частину ініціативи з АІ. Хоча вони відмовилися коментувати, їхні зусилля вписуються в певну тенденцію; протягом минулого року DOGE звільнив тисячі кар'єрних чиновників, захопив контроль над безпечними базами даних і виступив на захист АІ як остаточного інструменту для бюрократичної реформи.
Прихильники конфіденційності попереджають, що інтеграція невідкритого ШІ в умовах національної безпеки з високими ставками є рецептом для витоків даних, крадіжки особистості та експлуатації іноземними супротивниками.
«Це приблизно так серйозна загроза приватності, як тільки можна уявити», – говорить Альберт Фокс Кан з Проекту нагляду за технологіями спостереження.
Існують також побоювання, що з малою прозорістю та кількома обмеженнями експеримент з AI DOGE може перетворити державне управління даними, чи усвідомлює це громадськість, чи ні.
Cryptopolitan Academy: Втомилися від коливань ринку? Дізнайтеся, як DeFi може допомогти вам створити стабільний пасивний дохід. Зареєструйтесь зараз