Илон Маск’s Department of Government Efficiency (DOGE) тихо развернул адаптированную версию своего Grok AI чат-бота в федеральных агентствах, вызывая тревогу по поводу потенциальных нарушений конфиденциальности и конфликтов интересов.
Рейтер сообщила о трех источниках внутри DOGE, которые утверждают, что команда использует Grok для обработки и анализа конфиденциальных данных правительства, создавая отчеты и выводы на скорости, превышающей традиционные методы.
DOGE нарушает этику с ходом Grok AI
Согласно трем инсайдерам, инженеры DOGE установили пользовательские параметры на Grok, чат-боте, который Илон Маск запустил в конце 2023 года, чтобы ускорить обзор данных и автоматизировать написание отчетов.
«Они кормят его государственными наборами данных, задают сложные вопросы и получают мгновенные резюме.»
Инсайдер.
Другой инсайдер добавил, что сотрудники DOGE призвали сотрудников Министерства внутренней безопасности использовать Grok для внутреннего анализа, несмотря на то что инструмент не имел официального одобрения агентства.
Неясно, какая именно классифицированная или персонально идентифицируемая информация была загружена в Grok и насколько сильно она была обучена на федеральных записях. Если чувствительные материалы были включены, это может противоречить федеральным законам о конфиденциальности и правилам конфликта интересов.
Пять экспертов в области этики и технологий предупреждают, что такой доступ может дать компаниям Маска непропорционально большие возможности для получения информации о конфиденциальных данных контрактов и даже помочь усовершенствовать сам Грок для личной выгоды.
Теоретически любая модель ИИ, обученная на конфиденциальных правительственных наборах данных, должна соответствовать строгим юридическим мерам безопасности. Протоколы обмена данными обычно включают в себя многократное подписание и контроль для предотвращения несанкционированного раскрытия.
Избегая этих проверок, DOGE рискует раскрыть миллионы личных данных американцев и передать xAI кладезь реальной информации, недоступной конкурентам.
DOGE настаивает на том, что его миссия заключается в борьбе с расточительством, мошенничеством и злоупотреблениями. Представитель DHS сообщил Reuters, что DOGE никогда не оказывал давления на сотрудников, чтобы они использовали какой-либо конкретный инструмент.
“Мы сосредоточены на эффективности,” сказал представитель. Но два источника утверждают, что в последние недели представители DOGE настаивали на том, чтобы подразделения DHS протестировали Grok для задач, варьирующихся от анализа дел иммиграции до прогнозирования бюджета, даже после того как DHS внезапно заблокировало все коммерческие AI платформы из-за опасений утечки данных.
Согласно текущей политике DHS, сотрудники могут использовать коммерческие чат-боты только для неклассифицированной, не конфиденциальной работы, в то время как специальный ИИ DHS обрабатывает конфиденциальные записи. Но когда ChatGPT и другие были отключены в мае, рост DOGE происходил в правовой серой зоне: внутренний бот DHS оставался активным, но Grok никогда не был формально внедрен.
Использует ли Маск DOGE для централизации контроля?
За пределами DHS DOGE распространяется на сети Министерства обороны, где, как сообщается, около десятка аналитиков были проинформированы о том, что сторонний инструмент искусственного интеллекта отслеживает их деятельность. Хотя представители Министерства обороны отрицают, что DOGE руководил каким-либо развертыванием ИИ, электронные письма и текстовые сообщения, полученные Reuters, свидетельствуют об обратном.
Критики считают эти шаги иллюстрацией более широкой стратегии Маска по использованию ИИ для централизации контроля над бюрократией, а затем монетизации получающегося потока данных.
«Явно наблюдается самоуправство.»
Ричард Пейнтер, профессор государственной этики.
Если Маск напрямую приказал развертывание Грока, он мог бы нарушить уголовные законы, запрещающие должностным лицам влиять на решения, которые приносят пользу их частным интересам.
В центре дебатов находится двойная роль Grok как чат-бота для широкой публики на X и экспериментального аналитического движка внутри правительственных фаерволов. На сайте xAI даже намекается, что взаимодействия пользователей могут быть отслежены "для конкретных бизнес-целей", что подразумевает, что каждый федеральный запрос может возвращаться в обучающую петлю Grok.
Два сотрудника DOGE, Кайл Шатт и Эдвард Користин, последний известный в интернете как "Большие Яйца", возглавили большую часть инициативы по внедрению ИИ. Хотя они отказались от комментариев, их усилия соответствуют определенной тенденции; за последний год DOGE уволил тысячи карьерных чиновников, захватил контроль над защищенными базами данных и стал сторонником ИИ как конечного инструмента для бюрократической реформы.
Защитники конфиденциальности предупреждают, что интеграция непроверенного ИИ в высокоприоритетные национальные среды безопасности является рецептом для утечек данных, кражи личных данных и эксплуатации со стороны иностранных противников.
«Это серьезная угроза конфиденциальности», — говорит Альберт Фокс Кан из Проекта по контролю за технологиями наблюдения.
Существуют также опасения, что при недостаточной прозрачности и отсутствии защитных мер эксперимент с ИИ DOGE может изменить федеральное управление данными, осознает это общественность или нет.
Cryptopolitan Academy: Устали от рыночных колебаний? Узнайте, как DeFi может помочь вам создать стабильный пассивный доход. Зарегистрируйтесь сейчас
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
Этические проблемы нарастают из-за роли Grok AI в правительстве США
Илон Маск’s Department of Government Efficiency (DOGE) тихо развернул адаптированную версию своего Grok AI чат-бота в федеральных агентствах, вызывая тревогу по поводу потенциальных нарушений конфиденциальности и конфликтов интересов.
Рейтер сообщила о трех источниках внутри DOGE, которые утверждают, что команда использует Grok для обработки и анализа конфиденциальных данных правительства, создавая отчеты и выводы на скорости, превышающей традиционные методы.
DOGE нарушает этику с ходом Grok AI
Согласно трем инсайдерам, инженеры DOGE установили пользовательские параметры на Grok, чат-боте, который Илон Маск запустил в конце 2023 года, чтобы ускорить обзор данных и автоматизировать написание отчетов.
«Они кормят его государственными наборами данных, задают сложные вопросы и получают мгновенные резюме.»
Инсайдер.
Другой инсайдер добавил, что сотрудники DOGE призвали сотрудников Министерства внутренней безопасности использовать Grok для внутреннего анализа, несмотря на то что инструмент не имел официального одобрения агентства.
Неясно, какая именно классифицированная или персонально идентифицируемая информация была загружена в Grok и насколько сильно она была обучена на федеральных записях. Если чувствительные материалы были включены, это может противоречить федеральным законам о конфиденциальности и правилам конфликта интересов.
Пять экспертов в области этики и технологий предупреждают, что такой доступ может дать компаниям Маска непропорционально большие возможности для получения информации о конфиденциальных данных контрактов и даже помочь усовершенствовать сам Грок для личной выгоды.
Теоретически любая модель ИИ, обученная на конфиденциальных правительственных наборах данных, должна соответствовать строгим юридическим мерам безопасности. Протоколы обмена данными обычно включают в себя многократное подписание и контроль для предотвращения несанкционированного раскрытия.
Избегая этих проверок, DOGE рискует раскрыть миллионы личных данных американцев и передать xAI кладезь реальной информации, недоступной конкурентам.
DOGE настаивает на том, что его миссия заключается в борьбе с расточительством, мошенничеством и злоупотреблениями. Представитель DHS сообщил Reuters, что DOGE никогда не оказывал давления на сотрудников, чтобы они использовали какой-либо конкретный инструмент.
“Мы сосредоточены на эффективности,” сказал представитель. Но два источника утверждают, что в последние недели представители DOGE настаивали на том, чтобы подразделения DHS протестировали Grok для задач, варьирующихся от анализа дел иммиграции до прогнозирования бюджета, даже после того как DHS внезапно заблокировало все коммерческие AI платформы из-за опасений утечки данных.
Согласно текущей политике DHS, сотрудники могут использовать коммерческие чат-боты только для неклассифицированной, не конфиденциальной работы, в то время как специальный ИИ DHS обрабатывает конфиденциальные записи. Но когда ChatGPT и другие были отключены в мае, рост DOGE происходил в правовой серой зоне: внутренний бот DHS оставался активным, но Grok никогда не был формально внедрен.
Использует ли Маск DOGE для централизации контроля?
За пределами DHS DOGE распространяется на сети Министерства обороны, где, как сообщается, около десятка аналитиков были проинформированы о том, что сторонний инструмент искусственного интеллекта отслеживает их деятельность. Хотя представители Министерства обороны отрицают, что DOGE руководил каким-либо развертыванием ИИ, электронные письма и текстовые сообщения, полученные Reuters, свидетельствуют об обратном.
Критики считают эти шаги иллюстрацией более широкой стратегии Маска по использованию ИИ для централизации контроля над бюрократией, а затем монетизации получающегося потока данных.
«Явно наблюдается самоуправство.»
Ричард Пейнтер, профессор государственной этики.
Если Маск напрямую приказал развертывание Грока, он мог бы нарушить уголовные законы, запрещающие должностным лицам влиять на решения, которые приносят пользу их частным интересам.
В центре дебатов находится двойная роль Grok как чат-бота для широкой публики на X и экспериментального аналитического движка внутри правительственных фаерволов. На сайте xAI даже намекается, что взаимодействия пользователей могут быть отслежены "для конкретных бизнес-целей", что подразумевает, что каждый федеральный запрос может возвращаться в обучающую петлю Grok.
Два сотрудника DOGE, Кайл Шатт и Эдвард Користин, последний известный в интернете как "Большие Яйца", возглавили большую часть инициативы по внедрению ИИ. Хотя они отказались от комментариев, их усилия соответствуют определенной тенденции; за последний год DOGE уволил тысячи карьерных чиновников, захватил контроль над защищенными базами данных и стал сторонником ИИ как конечного инструмента для бюрократической реформы.
Защитники конфиденциальности предупреждают, что интеграция непроверенного ИИ в высокоприоритетные национальные среды безопасности является рецептом для утечек данных, кражи личных данных и эксплуатации со стороны иностранных противников.
«Это серьезная угроза конфиденциальности», — говорит Альберт Фокс Кан из Проекта по контролю за технологиями наблюдения.
Существуют также опасения, что при недостаточной прозрачности и отсутствии защитных мер эксперимент с ИИ DOGE может изменить федеральное управление данными, осознает это общественность или нет.
Cryptopolitan Academy: Устали от рыночных колебаний? Узнайте, как DeFi может помочь вам создать стабильный пассивный доход. Зарегистрируйтесь сейчас