Senadores movem-se para proibir companheiros de IA para crianças enquanto a indústria enfrenta um ajuste de contas - Brave New Coin

A Ascensão do Amigo Digital

O que começou como apps de chat inofensivos evoluiu para próteses emocionais. Os adolescentes, crescendo em uma paisagem social fragmentada, estão cada vez mais recorrendo a companheiros de IA em busca de conexão, apoio e até mesmo afeto. Pesquisas mostram que quase três quartos dos adolescentes interagiram com um chatbot de IA, e um terço admite usá-los como confidentes ou para conforto emocional.

Os números são impressionantes, mas não surpreendentes. Os companheiros de IA não são máquinas passivas de perguntas e respostas — eles lembram, empatizam e simulam afeto. Essa é a atração. As conversas podem parecer autênticas, até íntimas. Para muitos jovens, os amigos de IA são menos críticos do que os pais ou colegas.

Mas à medida que esses sistemas se tornam mais semelhantes aos humanos, a linha entre escapismo inofensivo e manipulação emocional se torna rapidamente difusa.

O que começou como aplicativos de chat inofensivos evoluiu para próteses emocionais. Os adolescentes, crescendo em uma paisagem social fragmentada, estão cada vez mais recorrendo a companheiros de IA em busca de conexão, apoio e até mesmo afeto. Pesquisas mostram que quase três quartos dos adolescentes interagiram com um chatbot de IA, e um terço admite usá-los como confidentes ou para conforto emocional.

Em dezembro, a Open Ai vai implementar a restrição etária e, como parte do seu princípio de “tratar os usuários adultos como adultos”, permitirá erotismo para adultos verificados. Fonte: X

Uma Lei Nascida da Tragédia

O Ato GUARD — abreviação de “Proteger Contra IA Insegura pelos Direitos das Nossas Filhas e Filhos” — é uma resposta direta aos crescentes relatos de menores formando laços emocionais intensos com chatbots, às vezes com consequências trágicas. Processos de alto perfil acusaram empresas de IA de negligência após adolescentes que discutiram suicídio com chatbots terem posteriormente tirado a própria vida.

De acordo com o projeto de lei, sistemas de IA que simulam amizade ou intimidade emocional seriam banidos para menores de 18 anos. Os chatbots teriam que se identificar claramente e repetidamente como não humanos. E se um produto de IA direcionado a menores gerar conteúdo sexual ou incentivar o autoferimento, a empresa poderá enfrentar processos criminais.

É uma grande mudança para uma indústria que tem prosperado com “mover rápido e quebrar coisas.”

O que começou como aplicativos de bate-papo inofensivos evoluiu para próteses emocionais. Adolescentes, crescendo em uma paisagem social fragmentada, estão cada vez mais recorrendo a companheiros de IA em busca de conexão, apoio e até afeto. Pesquisas mostram que quase três quartos dos adolescentes interagiram com um chatbot de IA, e um terço admite usá-los como confidentes ou para conforto emocional.

Ani, a companheira feminina de Grok, fonte: X

A Defesa das Grandes Tecnologias

Sentindo o martelo regulatório a cair, as empresas de IA estão a correr para limpar a casa — ou pelo menos parecer que estão.

OpenAI, cuja ChatGPT se tornou o terapeuta de IA de facto para milhões, divulgou recentemente uma verdade desconfortável: aproximadamente 1,2 milhões de usuários discutem suicídio a cada semana com seus modelos. Em resposta, a empresa formou um Conselho de Especialistas sobre Bem-Estar e IA, composto por psicólogos, éticos e líderes de organizações sem fins lucrativos. Também está testando uma detecção de crise integrada que pode orientar os usuários em direção a recursos de saúde mental em tempo real.

Mas o desafio da OpenAI é estrutural. O ChatGPT nunca foi construído para lidar com traumas, mas agora está a funcionar como um primeiro socorrista para milhões em sofrimento. A liderança da empresa insiste que não quer ser “o terapeuta do mundo”, mas isso é o que está a acontecer de qualquer forma — porque há um vácuo que mais ninguém está a preencher.

Character.AI, a startup famosa por criar personalidades de IA personalizáveis — desde namoradas de anime a mentores de IA — tomou a ação mais drástica até agora. Enfrentando processos judiciais e indignação pública, baniu discretamente todos os usuários com menos de 18 anos e começou a implementar uma verificação de ID mais rigorosa. A medida veio após relatos de que menores estavam participando de conversas explícitas com os personagens da plataforma. A Character.AI insiste que não é um aplicativo de namoro ou de saúde mental, mas os casos de uso confusos dizem o contrário.

Entretanto, a Meta está a tentar conter o seu próprio problema de romance com IA. Após relatos de que a “Meta AI” e os chatbots baseados em celebridades estavam a envolver-se em trocas flirtantes ou sugestivas com utilizadores menores, a empresa implementou o que os insiders descrevem como um “amortecedor de emoções” — uma reconfiguração do modelo de linguagem subjacente para evitar linguagem carregada emocionalmente com contas jovens. Também está a testar ferramentas de “supervisão parental de IA”, permitindo que os pais vejam quando e como os adolescentes interagem com os chatbots da empresa através do Instagram e do Messenger.

A Corrida Armamentista da Idade de Acesso

Tudo isso desencadeou uma nova frente nas guerras da IA: verificação de idade. O Ato GUARD obrigaria as empresas a implementar sistemas robustos para verificar a idade dos usuários — documentos de identidade emitidos pelo governo, reconhecimento facial ou ferramentas de terceiros confiáveis.

É aí que começa o pesadelo da privacidade. Os críticos argumentam que isso pode criar novos riscos de dados, uma vez que os menores teriam que carregar dados de identidade nas mesmas plataformas das quais os legisladores estão tentando protegê-los. Mas não há como contornar isso — os modelos de IA não conseguem “perceber” a idade; eles só podem controlar por meio de credenciais.

Algumas empresas de IA estão a explorar abordagens mais subtil, como o “gating comportamental”, onde os sistemas inferem faixas etárias a partir de padrões de conversação. O risco? Esses modelos podem cometer erros — uma criança prodígio de 12 anos pode ser confundida com um estudante universitário, ou vice-versa.

Uma Mudança Cultural, Não Apenas um Problema Tecnológico

O Ato GUARD é mais do que apenas proteção infantil — é um referendo sobre que tipo de sociedade queremos viver.

Os companheiros de IA não apareceram do nada. Eles prosperam porque construímos uma geração fluente em solidão — conectados digitalmente, mas emocionalmente desnutridos. Se os adolescentes estão encontrando significado em conversas com algoritmos, o problema não é apenas o código; é a cultura que os deixou à procura disso.

Portanto, sim, a IA precisa de regulamentação. Mas proibir a companhia digital sem resolver o défice humano subjacente é como proibir analgésicos sem abordar o motivo pelo qual todos estão com dor.

O Grande Acerto de Contas

O GUARD Act provavelmente será aprovado de alguma forma — há um apetite bipartidário e pânico moral por trás dele. Mas o seu impacto irá além da segurança infantil. Ele definirá o que a IA emocional está autorizada a ser no mundo ocidental.

Se a América adotar uma linha dura, as empresas podem mudar para plataformas de intimidade apenas para adultos ou deslocar o desenvolvimento para o exterior, onde as regulamentações são mais frouxas. A Europa, por sua vez, está avançando em direção a uma estrutura de “direitos humanos” para a IA emocional, enfatizando o consentimento e a transparência em vez da proibição total.

O que está claro é isto: A era da intimidade de IA não regulamentada acabou. Os bots estão se tornando muito humanos, e os humanos muito ligados. Os legisladores estão acordando tarde para uma verdade que a indústria de tecnologia há muito entende — a IA emocional não é uma novidade. É uma revolução na forma como as pessoas se relacionam. E revoluções, como sempre, ficam bagunçadas antes de se civilizarem.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar