A IA vai para a guerra pelos Estados Unidos antes de chegar ao quarto

Uma versão deste artigo apareceu originalmente no boletim informativo de IA e Tecnologia da Quartz. Inscreva-se aqui para receber as últimas notícias, análises e perceções sobre IA e tecnologia diretamente na sua caixa de entrada.

A América deu IA ao Pentágono antes de a dar ao quarto.

No início deste ano, a OpenAI assinou um acordo para apoiar operações militares apenas alguns dias depois de o Departamento de Defesa ter terminado uma parceria com o rival Anthropic. Entretanto, o “modo adulto” da empresa para o ChatGPT, que permitiria conversas sexualmente explícitas para adultos que consintam, continua adiado.

O próprio conselho consultivo da OpenAI sobre bem-estar revoltou-se em janeiro, alertando que a funcionalidade poderia fomentar dependência emocional pouco saudável. Os menores poderiam encontrar soluções alternativas, disseram, em ferramentas de verificação de idade que, segundo foi noticiado, estavam a classificar mal utilizadores menores.

Documentos internos mostraram que os funcionários tinham assinalado riscos, incluindo uso compulsivo e escalada para conteúdos mais extremos. O atraso era em parte técnico. Mas a América sempre se sentiu mais confortável com as suas máquinas a fazerem guerra do que a fazerem amor.

Um mercado grande demais para ignorar

A construção da internet para consumidores foi impulsionada pelo sexo. Acelerou a adoção da web, dos pagamentos online, do vídeo em streaming. A IA é a tecnologia mais cara que a indústria alguma vez tentou dimensionar, e neste momento a OpenAI está a ver empresas mais pequenas recolherem esse dinheiro enquanto ela fica de fora. As preocupações são reais, mas a matemática também.

Quase um terço dos homens jovens adultos diz que já conversou com um parceiro romântico de IA. Mais de 100 plataformas já oferecem serviços de companheirismo de IA que vão do mais sóbrio ao explicitamente sexual.

O Grok, de Elon Musk, já tem um modo de companheirismo com um escalão para adultos. A Meta $META -3.77% permitiu que os seus chatbots se envolvessem em role-play romântico desde 2023, um afrouxamento discreto de restrições que os executivos conseguiram fazer avançar apesar de objeções internas de segurança.

Sam Altman reconheceu publicamente no ano passado que permitir conteúdo explícito provavelmente aumentaria o crescimento e as receitas. O que ele também disse, na mesma frase, foi que isso não serviria os interesses de longo prazo dos utilizadores.

Até agora, o que temos são anedotas. Um homem no Ohio que diz que o seu companheiro de IA salvou o seu casamento. Uma mulher que se considera casada com o seu chatbot. Um fórum no Reddit $RDDT -4.20% com dezenas de milhares de visitantes semanais a partilhar notas sobre as suas relações digitais. A cobertura trata tudo isto como curiosidades. Os números sugerem que podem ser a maioria inicial.

As empresas sabem que existe um público grande e disposto. Elas estão menos certas de que conseguem conter aquilo que é construído assim que a porta se abre.

Parte do que já escapou não está numa zona cinzenta. Raparigas adolescentes no Tennessee apresentaram recentemente uma ação judicial contra a xAI depois de imagens nuas geradas por IA delas terem sido partilhadas online sem o seu conhecimento e usadas para negociar outro material de abuso sexual infantil.

A UE abriu uma investigação formal sobre o Grok devido a preocupações semelhantes no início deste ano. Os investigadores calcularam que o Grok tinha gerado milhões de imagens sexualizadas em menos de duas semanas, com milhares a retratar crianças.

Esses casos não têm muito a ver, na verdade, com conteúdo para adultos. Material de abuso sexual infantil é um crime. A questão mais difícil e mais turva é o que acontece quando adultos que consentem querem usar estas ferramentas do mesmo modo que usaram todas as tecnologias que as precederam.

Mais confortáveis com bombas

A diferença entre a forma como a América trata o sexo digital e a violência digital tem sempre sido grande.

Um filme pode mostrar um crânio de um homem a ser desfeito e obter uma classificação para maiores. Uma espreitadela de um mamilo desencadeia uma audiência no Congresso. Essa mesma lógica migrou para a política de IA, por defeito, em vez de por conceção.

As aplicações militares da IA são alvo de uma análise ética séria, mas não do mesmo desconforto difuso. Em 2018, funcionários do Google $GOOGL -1.65% encenaram uma revolta sobre um contrato de visão por computador do Pentágono chamado Project Maven, forçando a empresa a afastar-se. Quando a OpenAI assinou este ano o seu próprio acordo com o Pentágono, não surgiu nenhum levantamento semelhante. Os funcionários que ameaçaram de facto sair faziam parte do conselho consultivo, e ficaram contrariados com conversa obscena.

Parte da resposta é estrutural. As empresas de IA criaram as suas políticas iniciais de conteúdo num momento em que evitar controvérsia significava evitar sexo, e esses valores por defeito cristalizaram-se.

Parte tem a ver com o instinto americano persistente de que o sexo é inerentemente perigoso e precisa de ser rigidamente gerido, enquanto a violência, especialmente a violência oficial, é simplesmente o custo de fazer negócios.

A evidência sobre companheiros de IA é mista. Os investigadores documentaram valor terapêutico real em relações com chatbots, particularmente para pessoas a lidar com solidão, luto ou deficiência. Também documentaram radicalização, delírio e tragédia.

A resposta honesta é que ninguém sabe ainda o que a exposição prolongada à intimidade com IA faz às pessoas.

Entretanto, as ferramentas não estão paradas. A mesma tecnologia de IA que não consegue falar de forma obscena com um adulto que consente no Ohio está a ser usada pelo exército americano no estrangeiro. Ninguém está a aguardar por esse caso.

📬 Inscreva-se para o Daily Brief

O nosso resumo gratuito, rápido e divertido sobre a economia global, entregue todas as manhãs de dia útil.

Inscreva-me

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar