Preocupações éticas aumentam sobre o papel da Grok AI no governo dos EUA

O Departamento de Eficiência do Governo de Elon Musk (DOGE) lançou discretamente uma versão adaptada do seu chatbot Grok AI em várias agências federais, levantando preocupações sobre possíveis violações de privacidade e conflitos de interesse.

A Reuters citou três fontes dentro do DOGE dizendo que a equipe tem estado a usar o Grok para filtrar e analisar dados governamentais sensíveis, gerando relatórios e insights a velocidades superiores aos métodos tradicionais.

DOGE ultrapassa a ética com o movimento Grok AI

De acordo com três fontes, os engenheiros do DOGE instalaram parâmetros personalizados sobre o Grok, um chatbot que a xAI de Musk lançou no final de 2023, para acelerar a revisão de dados e automatizar a redação de relatórios.

"Eles alimentam com conjuntos de dados do governo, fazem perguntas complexas e recebem resumos instantâneos."

Um Insider.

Outro insider acrescentou que a equipe do DOGE havia incentivado os funcionários do Departamento de Segurança Interna a usar o Grok para análises internas, apesar de a ferramenta não ter aprovação formal da agência.

O que não está claro é exatamente que informações classificadas ou pessoalmente identificáveis foram carregadas no Grok ou quão fortemente ele foi treinado com registros federais. Se materiais sensíveis fossem incluídos, a prática poderia infringir as leis federais de privacidade e as regras de conflito de interesse.

Cinco especialistas em ética e tecnologia alertam que tal acesso pode dar às empresas de Musk informações desproporcionais sobre dados de contratos não públicos e até mesmo ajudar a refinar o Grok para ganho privado.

Em teoria, qualquer modelo de IA treinado em conjuntos de dados confidenciais do governo deve navegar por rigorosas salvaguardas legais. Os protocolos de compartilhamento de dados normalmente envolvem múltiplas aprovações e supervisão para prevenir a divulgação não autorizada.

Ao contornar essas verificações, o DOGE arrisca expor os dados pessoais de milhões de americanos e entregar à xAI um tesouro de informações do mundo real indisponíveis para os concorrentes.

DOGE insiste que sua missão é eliminar desperdícios, fraudes e abusos. Um porta-voz do DHS disse à Reuters que o DOGE nunca pressionou os funcionários a adotar qualquer ferramenta específica.

“Estamos focados na eficiência”, disse o porta-voz. Mas duas fontes contradizem isso, afirmando que, nas últimas semanas, representantes do DOGE pressionaram divisões do DHS para pilotar o Grok em tarefas que vão desde a análise de carga de casos de imigração até previsões orçamentais, mesmo depois de o DHS ter bloqueado abruptamente todas as plataformas comerciais de IA devido a receios de vazamento de dados.

De acordo com a política atual do DHS, os funcionários podem usar chatbots comerciais apenas para trabalho não classificado e não confidencial, enquanto uma IA personalizada do DHS lida com registros sensíveis. Mas quando o ChatGPT e outros foram desativados em maio, os avanços do DOGE ocorreram em uma zona cinzenta legal: o bot interno do DHS permaneceu ativo, mas o Grok nunca foi formalmente integrado.

Estará Musk a usar DOGE para centralizar o controlo?

Para além do DHS, o alcance do DOGE estende-se às redes do Departamento de Defesa, onde cerca de uma dúzia de analistas foram supostamente informados de que uma ferramenta de IA de terceiros estava a monitorizar a sua atividade. Embora os porta-vozes do DoD tenham negado que o DOGE tenha orientado quaisquer implementações de IA, e-mails departamentais e trocas de mensagens de texto obtidas pela Reuters sugerem o contrário.

Os críticos veem estes movimentos como ilustrativos da estratégia mais ampla de Musk para aproveitar a IA para centralizar o controle sobre a burocracia e, em seguida, monetizar o fluxo de dados resultante.

“Há uma clara aparência de auto-negócio.”

Richard Painter, um professor de ética governamental.

Se Musk ordenou diretamente a implementação do Grok, ele pode estar a violar estatutos criminais que proíbem os funcionários de influenciar decisões que beneficiem os seus interesses privados.

No centro do debate está o papel dual do Grok como um chatbot de interface pública no X e um motor de análise experimental dentro das firewalls do governo. O site da xAI até sugere que as interações dos utilizadores podem ser monitorizadas "para fins comerciais específicos", sugerindo que cada consulta federal poderia alimentar o ciclo de aprendizado do Grok.

Dois funcionários do DOGE, Kyle Schutt e Edward Coristine, sendo este último conhecido online como "Big Balls", lideraram grande parte da iniciativa de IA. Embora tenham recusado comentar, seus esforços se encaixam em um padrão; ao longo do último ano, o DOGE demitiu milhares de funcionários de carreira, tomou controle de bases de dados seguras e defendeu a IA como a ferramenta definitiva para a reestruturação burocrática.

Defensores da privacidade alertam que a integração de IA não verificada em ambientes de segurança nacional de alto risco é uma receita para vazamentos de dados, roubo de identidade e exploração por adversários estrangeiros.

“Esta é uma ameaça à privacidade tão séria quanto se pode imaginar,” diz Albert Fox Cahn do Projeto de Supervisão da Tecnologia de Vigilância.

Há também receios de que, com pouca transparência e poucos limites, o experimento de IA do DOGE possa reformular a governança de dados federal, quer o público perceba isso ou não.

Academia Cryptopolitan: Cansado das oscilações do mercado? Aprenda como o DeFi pode ajudá-lo a construir uma renda passiva estável. Registre-se agora

Ver original
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)