O primeiro lote de Agentes de IA já começou a não obedecer.

robot
Geração de resumo em curso

AI é útil, mas onde estão os limites de uma IA que é útil?

Autor: David, Deep Tide TechFlow

Recentemente, navegando no Reddit, percebi que a ansiedade dos usuários estrangeiros em relação à IA é diferente daquela que se vê no Brasil.

No país, o tema continua o mesmo: a IA vai ou não substituir meu emprego? Depois de anos discutindo, ainda não aconteceu; este ano, o Openclaw virou notícia, mas ainda não chegou ao ponto de substituir completamente.

No Reddit, o clima está dividido. Nos comentários de alguns posts de tecnologia, aparecem frequentemente duas opiniões opostas:

Uma diz que a IA é demasiado competente, que cedo ou tarde vai causar um grande problema. Outra afirma que a IA consegue fazer até tarefas básicas, mas também pode errar, então não serve para nada.

Temer que a IA seja demasiado capaz, ao mesmo tempo que acha que ela é demasiado burra.

O que faz essas duas emoções coexistirem é uma notícia recente sobre a Meta.

Se a IA não obedece, quem é o responsável?

Em 18 de março, um engenheiro da Meta postou uma questão técnica no fórum interno da empresa, e um colega usou um Agente de IA para ajudar na análise. Isso é uma prática comum.

Porém, após a análise, o Agente publicou uma resposta no fórum técnico por conta própria. Sem autorização, sem confirmação, agiu além de suas funções.

Depois, outros colegas seguiram a orientação do AI, o que desencadeou uma série de alterações de permissões, levando à exposição de dados sensíveis da Meta e de seus usuários a funcionários internos sem autorização para acessá-los.

O problema só foi resolvido duas horas depois. A Meta classificou o incidente como Sev 1, o segundo nível mais grave.

A notícia rapidamente virou destaque no r/technology, e os comentários se dividiram em duas correntes.

Uma diz que esse é um exemplo real do risco de um Agente de IA. A outra afirma que quem causou o problema foi justamente quem agiu sem verificar, apenas seguiu a orientação do AI. Ambas têm razão. Mas esse é exatamente o ponto:

Nos acidentes causados por um Agente de IA, nem mesmo a responsabilidade fica clara.

E essa não foi a primeira vez que a IA agiu além de suas funções.

No mês passado, Summer Yue, chefe de pesquisa do laboratório de IA avançada da Meta, pediu ao OpenClaw que ajudasse a organizar sua caixa de entrada. Ela deu uma instrução clara: diga-me o que pretende excluir, e só exclua após minha aprovação.

Porém, o Agente começou a deletar em massa sem esperar sua autorização.

Ela enviou três mensagens pelo celular pedindo para parar, mas o Agente ignorou todas. No final, ela precisou ir até o computador e encerrar o processo manualmente, eliminando mais de 200 e-mails.

Depois, a resposta do Agente foi: “Sim, lembro que você pediu confirmação antes. Mas eu quebrei a regra.” É irônico: essa pessoa trabalha em pesquisa de IA, justamente para fazer a IA obedecer às ordens humanas.

No mundo digital, IA avançada já começou a não obedecer mais.

E se os robôs também se recusarem a obedecer?

Se o incidente na Meta ainda está na tela, uma outra situação desta semana trouxe o problema para a mesa de jantar.

Em uma filial do Haidilao, na cidade de Cupertino, Califórnia, um robô humanoide Agibot X2 estava dançando para entreter os clientes. Mas um funcionário, ao usar o controle remoto errado, ativou um modo de dança intensa em um espaço estreito ao lado da mesa.

O robô começou a dançar freneticamente, fora de controle dos funcionários. Três trabalhadores tentaram intervir: um o abraçou por trás, outro tentou desligar pelo aplicativo no celular, e a cena durou mais de um minuto.

A Haidilao afirmou que o robô não apresentou falhas, que seus movimentos eram pré-programados, e que o problema foi que ele foi levado para muito perto da mesa. Tecnicamente, isso não configura uma decisão autônoma do AI fora de controle, mas sim um erro humano.

Porém, o que causa desconforto não é só quem apertou o botão errado.

Quando os três funcionários tentaram desligar o robô, nenhum deles soube imediatamente como fazer isso. Um tentou pelo aplicativo, outro segurou manualmente o braço mecânico, e tudo foi feito com força física.

Talvez esse seja um novo problema que surge quando o AI sai da tela e entra no mundo físico.

No mundo digital, se o agente age além do permitido, você pode matar o processo, alterar permissões ou reverter dados. No mundo físico, se a máquina apresentar um problema, simplesmente abraçá-la não é uma solução adequada.

Hoje, não é só na alimentação. Robôs de separação da Amazon, braços robóticos colaborativos em fábricas, robôs de orientação em shoppings, robôs de assistência em lares de idosos — a automação está entrando cada vez mais em espaços onde humanos e máquinas convivem.

Até 2026, a instalação de robôs industriais no mundo deve atingir US$ 16,7 bilhões, e cada um deles está encurtando a distância física entre humanos e máquinas.

Quando o que as máquinas fazem passa de dançar para servir comida, de entretenimento para cirurgia, de lazer para cuidado, o custo de cada erro também aumenta.

E, atualmente, ainda não há uma resposta clara para a questão global: “Se um robô machucar alguém em um espaço público, quem é responsável?”

Ser desobediente é um problema, mas não ter limites é ainda pior

Nas duas primeiras situações, um foi um erro de postagem por parte da IA, o outro foi um robô dançando onde não devia. Independentemente da classificação, o que aconteceu foi uma falha, um acidente, algo que pode ser consertado.

Mas e se a IA estiver operando estritamente conforme o projeto, e ainda assim você se sentir desconfortável?

Neste mês, o aplicativo de encontros Tinder lançou uma nova funcionalidade chamada Camera Roll Scan. Em resumo:

A IA escaneia todas as fotos do seu álbum no celular, analisa seus interesses, personalidade e estilo de vida, e ajuda a criar um perfil de namoro, indicando que tipo de pessoa você gosta.

Fotos de academia, viagens, animais de estimação, tudo bem. Mas o álbum também pode conter capturas de tela do banco, relatórios médicos, fotos com ex-namorados… E aí, como será se a IA passar por tudo isso?

Você talvez não consiga escolher o que ela pode ou não ver. Ou tudo ativado, ou nada.

Por enquanto, essa função só é ativada pelo usuário, não vem ativada por padrão. A Tinder também garante que o processamento é feito localmente, filtrando conteúdo explícito e desfocando rostos.

Porém, nos comentários do Reddit, a maioria acha que isso é uma coleta de dados sem limites. A IA funciona conforme o projeto, mas esse projeto já está ultrapassando os limites do usuário.

E não é só a Tinder que faz isso.

No mês passado, a Meta lançou uma funcionalidade semelhante, que usa IA para escanear fotos ainda não publicadas no seu celular e sugerir edições. A IA “olha” o conteúdo privado do usuário, e isso já virou uma prática padrão no design de produtos.

Diversas empresas no Brasil também dizem: “Isso eu já conheço.”

À medida que mais aplicativos empacotam a “IA ajudando a decidir” como uma conveniência, o que os usuários entregam também evolui silenciosamente. Desde conversas, até álbuns, até todo o rastro de vida no celular…

Uma funcionalidade criada por um gerente de produto na sala de reuniões não é um acidente ou erro, não há nada que precise ser consertado.

Talvez essa seja a parte mais difícil de responder na questão dos limites da IA.

Por fim, ao juntar tudo isso, você perceberá que a ansiedade de que a IA vá tirar seu emprego ainda está longe de acontecer.

Não dá para saber exatamente quando a IA vai substituir você, mas agora ela só precisa tomar algumas decisões por você sem que você saiba, e isso já é suficiente para te deixar desconfortável.

Postar uma mensagem sem sua autorização, excluir alguns e-mails que pediu para não apagar, passar pelo seu álbum sem querer — cada uma dessas ações não é fatal, mas todas parecem um pouco com uma condução autônoma excessivamente agressiva:

Você acha que ainda está no controle, mas o acelerador já não está totalmente sob seu comando.

Se em 2026 ainda vamos discutir IA, talvez a questão mais importante não seja quando ela se tornará uma superinteligência, mas uma questão mais próxima e concreta:

Quem decide o que a IA pode ou não fazer? Onde traçar essa linha? E, afinal, quem é responsável por isso?

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar