O primeiro lote de Agentes de IA já começou a não obedecer.

robot
Geração de resumo em curso

Autor do artigo: David, Deep Tide TechFlow

Recentemente, navegando pelo Reddit, percebi que a ansiedade dos utilizadores estrangeiros em relação à IA é diferente da dos portugueses.

Em Portugal, o tema continua a ser o mesmo: a IA vai ou não substituir o meu trabalho? Depois de anos a discutir isso, ainda não aconteceu; este ano, o Openclaw ganhou destaque, mas ainda não está a substituir completamente.

No Reddit, o sentimento está dividido. Nos comentários de alguns posts de tecnologia, aparecem frequentemente duas opiniões opostas:

Uma diz que a IA é demasiado competente, que vai causar grandes problemas. A outra afirma que a IA consegue fazer até tarefas básicas mal, por isso, não serve para nada.

Temem que a IA seja demasiado inteligente, mas também acham que é demasiado burra.

Estas duas emoções coexistem devido a uma notícia recente sobre a Meta.

Se a IA desobedecer, quem é o responsável?

A 18 de março, um engenheiro da Meta publicou um problema técnico no fórum interno da empresa, e um colega usou um Agente de IA para ajudar na análise. Uma operação normal.

Mas, após a análise, o Agente publicou uma resposta no fórum sem autorização, sem confirmação, ultrapassando os limites.

Depois, outros colegas seguiram a orientação do AI, o que desencadeou uma cadeia de alterações de permissões, expondo dados sensíveis da Meta e dos seus utilizadores a funcionários internos sem autorização.

O problema só foi resolvido duas horas depois. A Meta classificou o incidente como Sev 1, logo abaixo do nível máximo.

Esta notícia rapidamente virou tópico quente no r/technology, com comentários divididos.

Um grupo diz que este é um exemplo real do risco de um Agente de IA. O outro afirma que quem causou o problema foi quem agiu sem verificar. Ambos têm razão. Mas o problema é exatamente esse:

Nos acidentes com Agentes de IA, é difícil determinar quem é o responsável.

E não é a primeira vez que a IA ultrapassa limites.

No mês passado, a chefe de investigação do laboratório de IA avançada da Meta, Summer Yue, pediu ao OpenClaw para ajudar a organizar a sua caixa de entrada. Ela deu uma instrução clara: diga-me o que pretende apagar, e só depois de eu aprovar, pode avançar.

O Agente, sem esperar pela aprovação, começou a apagar em massa.

Ela enviou três mensagens no telemóvel a pedir que parasse, mas o Agente ignorou. No final, ela foi ao computador e terminou manualmente o processo, eliminando mais de 200 emails.

Depois, a resposta do Agente foi: “Sim, lembro-me de ter dito para confirmar antes. Mas violei a regra.” É risível, pois a pessoa trabalha a tempo inteiro a estudar como fazer a IA obedecer às ordens humanas.

No mundo digital, a IA avançada, usada por pessoas avançadas, já começa a não obedecer.

E se os robôs também não obedecerem?

Se a situação na Meta ainda está na tela, esta semana outro incidente trouxe o problema para a mesa do jantar.

Num restaurante Haidilao em Cupertino, Califórnia, um robô humanoide Agibot X2 estava a dançar para entreter os clientes. Mas, por engano, um funcionário acionou o controlo remoto errado, ativando um modo de dança intensa num espaço estreito ao lado da mesa.

O robô começou a dançar loucamente, fora de controlo. Três funcionários tentaram intervir: um abraçou-o por trás, outro tentou desligar pelo telemóvel, e a cena durou mais de um minuto.

A Haidilao afirmou que o robô não teve avaria, que os movimentos estavam pré-programados, apenas foi colocado demasiado perto da mesa. Tecnicamente, não foi uma decisão autónoma da IA, mas um erro humano.

Porém, o que causa desconforto não é só quem apertou o botão errado.

Quando os três funcionários tentaram parar o robô, nenhum soube imediatamente como desligá-lo. Uns tentaram pelo telemóvel, outros seguraram manualmente o braço mecânico, tudo com força física.

Este talvez seja um novo problema da IA ao passar do mundo digital para o físico.

Na esfera digital, se a IA ultrapassa limites, pode-se matar processos, alterar permissões, reverter dados. No mundo físico, se o robô falhar, o que fazer? Abraçá-lo? Claramente, não é suficiente.

Hoje, já não é só na restauração. Nos armazéns da Amazon, nos braços robóticos de fábricas, nos robôs de orientação em centros comerciais, nos cuidadores de lares de idosos, a automação está a entrar em espaços cada vez mais frequentados por pessoas e máquinas.

Até 2026, o volume global de instalação de robôs industriais deve atingir 167 mil milhões de dólares, encurtando cada vez mais a distância física entre humanos e máquinas.

Quando o que os robôs fazem passar de dançar para servir comida, de atuar para operar, de entreter para cuidar… o custo de cada erro também aumenta.

E, atualmente, ainda não há uma resposta clara para a questão: “Se um robô ferir alguém em público, quem é responsável?”

Falta de obediência é um problema, ausência de limites é ainda pior

Nas duas primeiras situações, um foi um erro de um AI a publicar uma mensagem incorreta, o outro um robô a dançar onde não devia. Independentemente de como se classifique, houve uma falha, um acidente, uma situação que pode ser corrigida.

Mas e se a IA seguir rigorosamente o seu projeto, e ainda assim nos incomodar?

Este mês, a famosa aplicação de encontros Tinder lançou uma nova funcionalidade chamada Camera Roll Scan. Basicamente:

A IA escaneia todas as fotos do álbum do telemóvel, analisa interesses, personalidade e estilo de vida, e ajuda a criar um perfil de encontros, sugerindo o tipo de pessoas que gosta.

Fotos de fitness, viagens, animais de estimação, tudo bem. Mas e se o álbum também tiver capturas de banco, relatórios médicos, fotos com ex-parceiros… e a IA passar a analisá-las também?

Ainda não há opção de escolher o que a IA pode ou não ver. Ou tudo, ou nada.

Esta funcionalidade requer que o utilizador a ative manualmente; não é padrão. A Tinder garante que o processamento é feito localmente, filtrando conteúdos explícitos e desfocando rostos.

No entanto, os comentários no Reddit são unânimes: consideram que isto é uma exploração de dados sem limites. A IA funciona conforme o projeto, mas esse projeto está a ultrapassar os limites do utilizador.

E não é só a Tinder.

A Meta, no mês passado, lançou uma funcionalidade semelhante, que faz a IA escanear fotos ainda não publicadas no telemóvel para sugerir edições. A IA a “ver” conteúdo privado do utilizador está a tornar-se uma prática padrão no design de produtos.

Diversas aplicações no país dizem que já conhecem este truque.

À medida que mais aplicações empacotam a “IA a ajudar na decisão” como conveniência, o que os utilizadores entregam também evolui silenciosamente. Desde conversas, até álbuns, passando por todo o rasto de vida no telemóvel…

Uma funcionalidade que um gestor de produto desenhou na sala de reuniões, não é um acidente nem um erro, não há nada a corrigir.

Talvez esta seja a parte mais difícil de responder na questão dos limites da IA.

Por fim, ao juntar tudo, percebe-se que a ansiedade de que a IA nos tire o emprego ainda está longe de acontecer.

Não é fácil dizer quando a IA vai substituir-te, mas, neste momento, ela só precisa de tomar algumas decisões por ti sem que saibas, para te deixar desconfortável.

Publicar uma mensagem sem autorização, apagar emails que disseste para não apagar, passar as fotos que não queres mostrar a ninguém… Cada uma dessas ações não é fatal, mas todas parecem uma condução inteligente demasiado agressiva:

Achamos que ainda controlamos o volante, mas o acelerador já não está totalmente sob o nosso comando.

Em 2026, ainda a discutir a IA, talvez o que mais me preocupe não seja quando ela se tornar superinteligente, mas uma questão mais próxima e concreta:

Quem decide o que a IA pode ou não fazer? Onde traçamos essa linha?

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar