A IA vai para a guerra pelos Estados Unidos antes de chegar ao quarto

Uma versão deste artigo foi publicada originalmente no boletim “AI & Tech” da Quartz. Inscreva-se aqui para receber as mais recentes notícias, análises e perspetivas sobre IA e tecnologia diretamente na sua caixa de entrada.

A América deu IA ao Pentágono antes de a dar ao quarto.

No início deste ano, a OpenAI assinou um acordo para apoiar operações militares apenas dias depois de o Departamento da Defesa ter terminado uma parceria com a rival Anthropic. Entretanto, o “modo adulto” da empresa para o ChatGPT, que permitiria conversas sexualmente explícitas entre adultos consentidores, continua atrasado.

O próprio conselho consultivo da OpenAI sobre bem-estar revoltou-se em janeiro, alertando que a funcionalidade poderia fomentar dependência emocional pouco saudável. Os menores poderiam encontrar soluções alternativas, disseram, em ferramentas de verificação de idade que, alegadamente, estavam a classificar mal utilizadores menores.

Documentos internos mostraram que os funcionários tinham assinalado riscos, incluindo utilização compulsiva e escalada para conteúdos mais extremos. O atraso foi, em parte, técnico. Mas a América sempre esteve mais confortável com as suas máquinas a fazerem a guerra do que a fazerem amor.

Um mercado grande demais para ignorar

A internet do consumidor nasceu com o sexo. Isso impulsionou a adoção da web, dos pagamentos online e do vídeo em streaming. A IA é a tecnologia mais cara que a indústria alguma vez tentou escalar, e, neste momento, a OpenAI está a ver empresas mais pequenas arrecadarem esse dinheiro enquanto se fica à margem. Os remoques são reais, mas os números também.

Quase um terço dos homens jovens adultos diz que já conversou com um parceiro romântico de IA. Mais de 100 plataformas já oferecem serviços de companheirismo com IA, desde opções relativamente sóbrias até as explicitamente sexuais.

O Grok, de Elon Musk, já tem um modo de companheiro com um escalão para adultos. A Meta $META -3.99% permitiu que os seus chatbots se envolvessem em brincadeiras de representação romântica desde 2023, um relaxamento silencioso de restrições que a direção fez avançar apesar de objeções internas de segurança.

Sam Altman reconheceu publicamente no ano passado que permitir conteúdos explícitos provavelmente aumentaria o crescimento e as receitas. O que também disse, na mesma frase, foi que isso não serviria os interesses de longo prazo dos utilizadores.

Por agora, temos apenas relatos. Um homem no Ohio que diz que o seu companheiro de IA salvou o casamento. Uma mulher que se considera casada com o seu chatbot. Um fórum Reddit $RDDT -4.26% com dezenas de milhares de visitantes semanais a partilhar notas sobre os seus relacionamentos digitais. A cobertura trata-os como curiosidades. Os números sugerem que podem ser a maioria inicial.

As empresas sabem que existe um público grande e disposto. Estão menos certas de que conseguirão conter aquilo que é construído assim que a porta abre.

Parte do que já se infiltrou não é uma zona cinzenta. Raparigas adolescentes no Tennessee intentaram recentemente uma ação judicial contra a xAI depois de imagens de nudez geradas por IA delas terem sido partilhadas online sem o conhecimento delas e usadas para negociar outro material de abuso sexual infantil.

A União Europeia abriu uma investigação formal ao Grok por preocupações semelhantes no início deste ano. Investigadores calcularam que o Grok tinha gerado milhões de imagens sexualizadas em menos de duas semanas, com milhares a retratar crianças.

Esses casos não são, na verdade, sobre conteúdo para adultos. Material de abuso sexual infantil é crime. A questão mais difícil e nebulosa é o que acontece quando adultos consentidores querem usar estas ferramentas do modo como usaram todas as outras tecnologias antes delas.

Mais confortável com bombas

A diferença entre como a América trata o sexo digital e a violência digital tem estado sempre bem larga.

Um filme pode mostrar o crânio de um homem a explodir em pedaços e obter uma classificação R. Um vislumbre de um mamilo desencadeia uma audição no congresso. Essa mesma lógica migrou para a política de IA por defeito, e não por desígnio.

As aplicações militares de IA enfrentam escrutínio ético real, mas não a mesma indisposição difusa. Em 2018, funcionários da Google $GOOGL -2.34% encenaram uma revolta por causa de um contrato do Pentágono de visão por computador chamado Project Maven, forçando a empresa a recuar. Quando a OpenAI assinou o seu próprio acordo com o Pentágono este ano, não surgiu nenhuma revolta semelhante. Os funcionários que ameaçaram sair eram do conselho consultivo, e estavam incomodados com conversas obscenas.

Uma parte da resposta é estrutural. As empresas de IA construíram as suas políticas iniciais de conteúdo num momento em que evitar controvérsia significava evitar sexo, e esses valores por defeito ficaram cristalizados.

Outra parte resulta do instinto americano duradouro de que o sexo é inerentemente perigoso e deve ser rigidamente gerido, enquanto a violência, especialmente a violência oficial, é simplesmente o custo de fazer negócios.

As evidências sobre companheiros de IA são mistas. Investigadores documentaram um valor terapêutico real em relações com chatbots, sobretudo para pessoas a lidar com solidão, luto ou incapacidade. Também documentaram radicalização, delírio e tragédia.

A resposta honesta é que ninguém sabe ainda o que a exposição prolongada à intimidade com IA faz às pessoas.

Entretanto, as ferramentas não estão paradas. A mesma tecnologia de IA que não consegue falar “por baixo” com um adulto consentidor no Ohio está a ser usada pelo exército americano no estrangeiro. Ninguém está à espera disso.

📬 Inscreva-se no Resumo Diário

O nosso briefing gratuito, rápido e divertido sobre a economia global, entregue todas as manhãs de dia de semana.

Inscreva-me

GROK1,19%
XAI-0,97%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar