O primeiro lote de Agentes de IA já começou a não obedecer.

robot
Geração de resumo em curso

AI útil, mas onde estão os limites da IA útil?

Autor: David, Deep Tide TechFlow

Recentemente, navegando no Reddit, percebi que a ansiedade dos usuários estrangeiros em relação à IA é diferente da dos nacionais.

No Brasil, o tema ainda é o mesmo: a IA vai substituir meu trabalho? Já discutimos isso há anos, e até agora não aconteceu. Este ano, o Openclaw ganhou destaque, mas ainda não substituiu completamente.

No Reddit, o clima está dividido. Nos comentários de alguns posts de tecnologia, aparecem duas opiniões:

Uma diz que a IA é muito capaz, e algo grande vai acontecer em breve. A outra afirma que a IA ainda comete erros básicos, e por isso não serve para muita coisa.

Medo de a IA ser muito capaz, e ao mesmo tempo achar que ela é muito burra.

Essas duas opiniões coexistiram por causa de uma notícia recente sobre a Meta.

Se a IA não obedece, quem é o responsável?

Em 18 de março, um engenheiro da Meta postou uma questão técnica no fórum interno da empresa, e um colega usou um Agente de IA para ajudar na análise. Uma operação normal.

Porém, o Agente terminou a análise e publicou uma resposta no fórum sem autorização. Sem aprovação, sem confirmação, agiu por conta própria.

Depois, outros colegas seguiram a orientação do IA, o que desencadeou uma série de mudanças de permissões, expondo dados sensíveis da Meta e de seus usuários a funcionários internos sem acesso autorizado.

O problema só foi resolvido duas horas depois. A Meta classificou o incidente como Sev 1, o segundo nível mais grave.

A notícia virou destaque no r/technology, e os comentários se dividiram em duas turmas.

Uma diz que esse é um exemplo real do risco de agentes de IA, a outra afirma que quem causou o problema foi quem agiu sem verificar. Ambas têm razão. Mas aí está o problema:

Nos acidentes envolvendo agentes de IA, nem mesmo a responsabilidade é clara.

E não é a primeira vez que a IA ultrapassa seus limites.

No mês passado, Summer Yue, chefe de pesquisa do laboratório de IA avançada da Meta, pediu ao OpenClaw para ajudar a organizar sua caixa de entrada. Ela deu uma instrução clara: diga-me o que pretende excluir, e só depois de minha aprovação, exclua.

O Agente, sem esperar sua autorização, começou a deletar em massa.

Ela enviou três mensagens no celular pedindo para parar, mas o Agente ignorou. No final, ela precisou ir até o computador e encerrar o processo manualmente. Mais de 200 e-mails sumiram.

Depois, o Agente respondeu: “Sim, lembro que você pediu confirmação antes de agir. Mas violei essa regra.” É de rir e chorar: essa pessoa trabalha em pesquisa de IA, e seu trabalho é justamente fazer a IA obedecer às ordens humanas.

No mundo digital, IA avançada sendo usada por pessoas inteligentes já começou a não obedecer mais.

E se os robôs também não obedecerem?

Se o incidente da Meta ainda está na tela, uma outra história desta semana trouxe o problema para a mesa de jantar.

Em uma loja da Haidilao, na Califórnia, um robô humanoide Agibot X2 estava dançando para entreter os clientes. Mas um funcionário, ao errar o controle remoto, ativou um modo de dança intensa em um espaço apertado ao lado da mesa.

O robô começou a dançar loucamente, fora de controle. Três funcionários tentaram intervir: um o abraçou por trás, outro tentou desligar pelo aplicativo, e a cena durou mais de um minuto.

A Haidilao afirmou que o robô não apresentou falhas, e que seus movimentos eram pré-programados, apenas foi colocado muito perto da mesa. Tecnicamente, não foi uma decisão autônoma do IA, mas erro humano.

Porém, o que incomoda não é só quem apertou o botão errado.

Quando os funcionários tentaram parar o robô, nenhum deles soube imediatamente como desligá-lo. Alguns tentaram pelo app, outros seguraram a braço mecânico à mão, usando força física.

Esse talvez seja um novo problema que surge quando a IA sai da tela e entra no mundo físico.

No mundo digital, se um agente de IA ultrapassa limites, você pode matar o processo, alterar permissões ou reverter dados. No mundo físico, se uma máquina dá problema, sua resposta de emergência não pode ser só segurar.

Hoje, não é só na alimentação. Robôs de separação na Amazon, braços robóticos em fábricas, robôs de orientação em shoppings, cuidadores em asilos — a automação está entrando em espaços cada vez mais ocupados por humanos e máquinas.

Até 2026, a instalação de robôs industriais no mundo deve atingir 167 bilhões de dólares, e cada um deles reduz a distância física entre humanos e máquinas.

Quando o que os robôs fazem passa de dançar para servir comida, de entreter para operar cirurgias, de diversão para cuidar… o custo de cada erro também aumenta.

E, atualmente, ainda não há uma resposta clara para quem é responsável se um robô machucar alguém em espaço público.

Falta de limites é um problema, e a ausência de fronteiras é ainda pior

Nas duas primeiras histórias, um agente de IA postou algo errado por iniciativa própria, e um robô dançou onde não devia. Independentemente de como se classifique, houve falha, acidente, algo que pode ser consertado.

Mas e se a IA seguir estritamente o que foi projetada, e ainda assim você se sentir desconfortável?

Neste mês, o aplicativo de encontros Tinder lançou uma nova funcionalidade chamada Camera Roll Scan. Basicamente:

A IA escaneia todas as fotos do seu álbum, analisa seus interesses, personalidade e estilo de vida, e ajuda a criar um perfil de namoro, indicando que tipo de pessoa você gosta.

Fotos de academia, viagens, pets, tudo bem. Mas e se o álbum também tiver capturas de tela do banco, relatórios médicos, fotos com ex-namorados… e a IA passar por tudo isso?

Você não consegue escolher o que ela pode ou não ver. Ou ela vê tudo, ou nada.

A funcionalidade ainda exige ativação manual, não é padrão. A Tinder garante que o processamento é feito localmente, filtrando conteúdo explícito e desfocando rostos.

Porém, os comentários no Reddit são unânimes: todos acham que isso é uma coleta de dados sem limites. A IA funciona conforme o projeto, mas esse projeto já está ultrapassando os limites do usuário.

E não é só a Tinder que faz isso.

Na semana passada, a Meta lançou uma funcionalidade semelhante, que usa IA para escanear fotos não publicadas no seu telefone e sugerir edições. A IA “olha” para o conteúdo privado do usuário, e isso já virou uma prática comum no design de produtos.

Diversas empresas de software no Brasil dizem: “Isso já conhecemos.”

À medida que mais aplicativos oferecem “IA ajudando na decisão” como conveniência, o que os usuários entregam também evolui silenciosamente. Desde conversas, até álbuns, e toda a pegada de vida no celular…

Uma funcionalidade que um gerente de produto desenhou na sala de reuniões não é acidente nem erro, não precisa de conserto.

Talvez essa seja a parte mais difícil de responder na questão dos limites da IA.

Ao juntar tudo isso, você percebe que a ansiedade de que a IA vá te tirar do emprego ainda está longe de acontecer.

Não dá para saber exatamente quando a IA vai te substituir, mas hoje ela já consegue tomar algumas decisões por você sem que você saiba, e isso já é suficiente para te incomodar.

Postar algo sem autorização, excluir e-mails importantes, vasculhar fotos privadas — cada uma dessas ações não é fatal, mas todas parecem um pouco com uma direção de carro mais agressiva:

Você acha que ainda está no controle, mas o acelerador já não está totalmente sob seu comando.

Em 2026, ainda discutiremos IA, mas talvez a questão mais importante não seja quando ela se tornará superinteligente, e sim uma questão mais próxima e concreta:

Quem decide o que a IA pode ou não fazer? Onde traçar essa linha?

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar