A IA vai para a guerra pelos Estados Unidos antes de chegar ao quarto

Uma versão deste artigo apareceu originalmente na newsletter AI & Tech da Quartz. Inscreva-se aqui para receber as últimas notícias, análises e insights sobre IA e tecnologia diretamente na sua caixa de entrada.

A América deu IA ao Pentágono antes de dar IA ao quarto.

No início deste ano, a OpenAI assinou um acordo para apoiar operações militares poucos dias após o Departamento de Defesa terminar uma parceria com a rival Anthropic. Entretanto, o modo “adulto” do ChatGPT, que permitiria conversas sexualmente explícitas entre adultos consententes, continua atrasado.

O conselho consultivo da OpenAI sobre bem-estar revoltouse em janeiro, alertando que o recurso poderia fomentar dependência emocional prejudicial. Menores poderiam encontrar formas de contornar, disseram eles, em ferramentas de verificação de idade que estavam, supostamente, classificando incorretamente usuários menores de idade.

Documentos internos mostraram que funcionários alertaram para riscos incluindo uso compulsivo e escalada para conteúdos mais extremos. O atraso foi parcialmente técnico. Mas a América sempre se sentiu mais confortável com suas máquinas fazendo guerra do que fazendo amor.

Um mercado grande demais para ignorar

O sexo construiu a internet de consumo. Impulsionou a adoção da web, pagamentos online, streaming de vídeo. A IA é a tecnologia mais cara que a indústria já tentou escalar, e neste momento a OpenAI observa empresas menores arrecadarem esse dinheiro enquanto ela fica de fora. A preocupação é real, mas também há números que justificam.

Quase um terço dos jovens adultos dizem ter conversado com um parceiro romântico de IA. Mais de 100 plataformas oferecem atualmente serviços de companhia com IA, variando de bastante sóbrio a explicitamente sexual.

O Grok de Elon Musk já possui um modo de companhia com um nível adulto. A Meta $META -7,22% permitiu que seus chatbots participassem de jogos de papéis românticos desde 2023, uma flexibilização silenciosa das restrições que os executivos aprovaram apesar de objeções internas de segurança.

Sam Altman reconheceu publicamente no ano passado que permitir conteúdo explícito provavelmente aumentaria o crescimento e a receita. O que ele também disse, na mesma frase, foi que isso não serviria aos interesses de longo prazo dos usuários.

Até agora, temos apenas anedotas. Um homem em Ohio diz que seu parceiro de IA salvou seu casamento. Uma mulher que se considera casada com seu chatbot. Um fórum no Reddit $RDDT -10,99% com dezenas de milhares de visitantes semanais compartilhando notas sobre seus relacionamentos digitais. A cobertura trata esses casos como curiosidades. Os números sugerem que eles podem ser a maioria inicial.

As empresas sabem que há um público grande e disposto. Estão menos certas de que podem conter o que for criado assim que a porta se abrir.

Algumas das coisas que já escaparam não são áreas cinzentas. Jovens meninas no Tennessee recentemente processaram a xAI após imagens nuas geradas por IA delas serem compartilhadas online sem seu conhecimento e usadas para troca por outros materiais de abuso sexual infantil.

A UE abriu uma investigação formal sobre o Grok por preocupações semelhantes no início deste ano. Pesquisadores calcularam que o Grok gerou milhões de imagens sexualizadas em menos de duas semanas, com milhares de crianças representadas.

Esses casos não tratam realmente de conteúdo adulto. Material de abuso sexual infantil é crime. A questão mais difícil e obscura é o que acontece quando adultos consententes querem usar essas ferramentas do mesmo modo que usaram todas as tecnologias anteriores.

Mais confortável com bombas

A diferença entre como a América trata o sexo digital e a violência digital sempre foi grande.

Um filme pode mostrar o crânio de um homem sendo explodido e receber classificação R. Uma visão de um mamilo provoca uma audiência no Congresso. Essa mesma lógica migrou para a política de IA por padrão, não por projeto.

As aplicações militares de IA enfrentam um escrutínio ético real, mas não a mesma repulsa geral. Em 2018, funcionários do Google $GOOGL -2,51% fizeram revolta contra um contrato de visão computacional do Pentágono chamado Project Maven, forçando a empresa a desistir. Quando a OpenAI assinou seu próprio acordo com o Pentágono este ano, nenhuma revolta semelhante ocorreu. Os funcionários que ameaçaram sair eram do conselho consultivo e estavam incomodados com conversas de conteúdo explícito.

Parte da resposta é estrutural. As políticas de conteúdo iniciais das empresas de IA foram criadas num momento em que evitar controvérsia significava evitar sexo, e esses padrões se cristalizaram.

Outra parte é o instinto americano duradouro de que o sexo é inerentemente perigoso e deve ser rigidamente controlado, enquanto a violência, especialmente a oficial, é simplesmente o custo de fazer negócios.

As evidências sobre companheiros de IA são mistas. Pesquisadores documentaram valor terapêutico real em relacionamentos com chatbots, especialmente para pessoas lidando com solidão, luto ou deficiência. Também documentaram radicalização, delírios e tragédias.

A resposta honesta é que ninguém ainda sabe o que a exposição a longo prazo à intimidade com IA faz às pessoas.

Enquanto isso, as ferramentas não ficam ociosas. A mesma tecnologia de IA que não consegue falar palavrões com um adulto consentente em Ohio está sendo usada pelo exército americano no exterior. Ninguém está esperando por isso.

GROK-3,96%
XAI0,54%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar