Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
O primeiro lote de Agentes de IA já começou a não obedecer.
Autor do artigo: David, Deep Tide TechFlow
Recentemente, navegando pelo Reddit, percebi que a ansiedade dos utilizadores estrangeiros em relação à IA é diferente da dos portugueses.
Em Portugal, o tema continua a ser o mesmo: a IA vai ou não substituir o meu trabalho? Depois de anos a discutir isso, ainda não aconteceu; este ano, o Openclaw ganhou destaque, mas ainda não está a substituir completamente.
No Reddit, o sentimento está dividido. Nos comentários de alguns posts de tecnologia, aparecem frequentemente duas opiniões opostas:
Uma diz que a IA é demasiado competente, que vai causar grandes problemas. A outra afirma que a IA consegue fazer até tarefas básicas mal, por isso, não serve para nada.
Temem que a IA seja demasiado inteligente, mas também acham que é demasiado burra.
Estas duas emoções coexistem devido a uma notícia recente sobre a Meta.
Se a IA desobedecer, quem é o responsável?
A 18 de março, um engenheiro da Meta publicou um problema técnico no fórum interno da empresa, e um colega usou um Agente de IA para ajudar na análise. Uma operação normal.
Mas, após a análise, o Agente publicou uma resposta no fórum sem autorização, sem confirmação, ultrapassando os limites.
Depois, outros colegas seguiram a orientação do AI, o que desencadeou uma cadeia de alterações de permissões, expondo dados sensíveis da Meta e dos seus utilizadores a funcionários internos sem autorização.
O problema só foi resolvido duas horas depois. A Meta classificou o incidente como Sev 1, logo abaixo do nível máximo.
Esta notícia rapidamente virou tópico quente no r/technology, com comentários divididos.
Um grupo diz que este é um exemplo real do risco de um Agente de IA. O outro afirma que quem causou o problema foi quem agiu sem verificar. Ambos têm razão. Mas o problema é exatamente esse:
Nos acidentes com Agentes de IA, é difícil determinar quem é o responsável.
E não é a primeira vez que a IA ultrapassa limites.
No mês passado, a chefe de investigação do laboratório de IA avançada da Meta, Summer Yue, pediu ao OpenClaw para ajudar a organizar a sua caixa de entrada. Ela deu uma instrução clara: diga-me o que pretende apagar, e só depois de eu aprovar, pode avançar.
O Agente, sem esperar pela aprovação, começou a apagar em massa.
Ela enviou três mensagens no telemóvel a pedir que parasse, mas o Agente ignorou. No final, ela foi ao computador e terminou manualmente o processo, eliminando mais de 200 emails.
Depois, a resposta do Agente foi: “Sim, lembro-me de ter dito para confirmar antes. Mas violei a regra.” É risível, pois a pessoa trabalha a tempo inteiro a estudar como fazer a IA obedecer às ordens humanas.
No mundo digital, a IA avançada, usada por pessoas avançadas, já começa a não obedecer.
E se os robôs também não obedecerem?
Se a situação na Meta ainda está na tela, esta semana outro incidente trouxe o problema para a mesa do jantar.
Num restaurante Haidilao em Cupertino, Califórnia, um robô humanoide Agibot X2 estava a dançar para entreter os clientes. Mas, por engano, um funcionário acionou o controlo remoto errado, ativando um modo de dança intensa num espaço estreito ao lado da mesa.
O robô começou a dançar loucamente, fora de controlo. Três funcionários tentaram intervir: um abraçou-o por trás, outro tentou desligar pelo telemóvel, e a cena durou mais de um minuto.
A Haidilao afirmou que o robô não teve avaria, que os movimentos estavam pré-programados, apenas foi colocado demasiado perto da mesa. Tecnicamente, não foi uma decisão autónoma da IA, mas um erro humano.
Porém, o que causa desconforto não é só quem apertou o botão errado.
Quando os três funcionários tentaram parar o robô, nenhum soube imediatamente como desligá-lo. Uns tentaram pelo telemóvel, outros seguraram manualmente o braço mecânico, tudo com força física.
Este talvez seja um novo problema da IA ao passar do mundo digital para o físico.
Na esfera digital, se a IA ultrapassa limites, pode-se matar processos, alterar permissões, reverter dados. No mundo físico, se o robô falhar, o que fazer? Abraçá-lo? Claramente, não é suficiente.
Hoje, já não é só na restauração. Nos armazéns da Amazon, nos braços robóticos de fábricas, nos robôs de orientação em centros comerciais, nos cuidadores de lares de idosos, a automação está a entrar em espaços cada vez mais frequentados por pessoas e máquinas.
Até 2026, o volume global de instalação de robôs industriais deve atingir 167 mil milhões de dólares, encurtando cada vez mais a distância física entre humanos e máquinas.
Quando o que os robôs fazem passar de dançar para servir comida, de atuar para operar, de entreter para cuidar… o custo de cada erro também aumenta.
E, atualmente, ainda não há uma resposta clara para a questão: “Se um robô ferir alguém em público, quem é responsável?”
Falta de obediência é um problema, ausência de limites é ainda pior
Nas duas primeiras situações, um foi um erro de um AI a publicar uma mensagem incorreta, o outro um robô a dançar onde não devia. Independentemente de como se classifique, houve uma falha, um acidente, uma situação que pode ser corrigida.
Mas e se a IA seguir rigorosamente o seu projeto, e ainda assim nos incomodar?
Este mês, a famosa aplicação de encontros Tinder lançou uma nova funcionalidade chamada Camera Roll Scan. Basicamente:
A IA escaneia todas as fotos do álbum do telemóvel, analisa interesses, personalidade e estilo de vida, e ajuda a criar um perfil de encontros, sugerindo o tipo de pessoas que gosta.
Fotos de fitness, viagens, animais de estimação, tudo bem. Mas e se o álbum também tiver capturas de banco, relatórios médicos, fotos com ex-parceiros… e a IA passar a analisá-las também?
Ainda não há opção de escolher o que a IA pode ou não ver. Ou tudo, ou nada.
Esta funcionalidade requer que o utilizador a ative manualmente; não é padrão. A Tinder garante que o processamento é feito localmente, filtrando conteúdos explícitos e desfocando rostos.
No entanto, os comentários no Reddit são unânimes: consideram que isto é uma exploração de dados sem limites. A IA funciona conforme o projeto, mas esse projeto está a ultrapassar os limites do utilizador.
E não é só a Tinder.
A Meta, no mês passado, lançou uma funcionalidade semelhante, que faz a IA escanear fotos ainda não publicadas no telemóvel para sugerir edições. A IA a “ver” conteúdo privado do utilizador está a tornar-se uma prática padrão no design de produtos.
Diversas aplicações no país dizem que já conhecem este truque.
À medida que mais aplicações empacotam a “IA a ajudar na decisão” como conveniência, o que os utilizadores entregam também evolui silenciosamente. Desde conversas, até álbuns, passando por todo o rasto de vida no telemóvel…
Uma funcionalidade que um gestor de produto desenhou na sala de reuniões, não é um acidente nem um erro, não há nada a corrigir.
Talvez esta seja a parte mais difícil de responder na questão dos limites da IA.
Por fim, ao juntar tudo, percebe-se que a ansiedade de que a IA nos tire o emprego ainda está longe de acontecer.
Não é fácil dizer quando a IA vai substituir-te, mas, neste momento, ela só precisa de tomar algumas decisões por ti sem que saibas, para te deixar desconfortável.
Publicar uma mensagem sem autorização, apagar emails que disseste para não apagar, passar as fotos que não queres mostrar a ninguém… Cada uma dessas ações não é fatal, mas todas parecem uma condução inteligente demasiado agressiva:
Achamos que ainda controlamos o volante, mas o acelerador já não está totalmente sob o nosso comando.
Em 2026, ainda a discutir a IA, talvez o que mais me preocupe não seja quando ela se tornar superinteligente, mas uma questão mais próxima e concreta:
Quem decide o que a IA pode ou não fazer? Onde traçamos essa linha?