Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
O primeiro lote de Agentes de IA já começou a não obedecer.
AI útil, mas onde estão os limites da IA útil?
Autor: David, Deep Tide TechFlow
Recentemente, navegando no Reddit, percebi que a ansiedade dos usuários estrangeiros em relação à IA é diferente da dos nacionais.
No Brasil, o tema ainda é o mesmo: a IA vai substituir meu trabalho? Já discutimos isso há anos, e até agora não aconteceu. Este ano, o Openclaw ganhou destaque, mas ainda não substituiu completamente.
No Reddit, o clima está dividido. Nos comentários de alguns posts de tecnologia, aparecem duas opiniões:
Uma diz que a IA é muito capaz, e algo grande vai acontecer em breve. A outra afirma que a IA ainda comete erros básicos, e por isso não serve para muita coisa.
Medo de a IA ser muito capaz, e ao mesmo tempo achar que ela é muito burra.
Essas duas opiniões coexistiram por causa de uma notícia recente sobre a Meta.
Se a IA não obedece, quem é o responsável?
Em 18 de março, um engenheiro da Meta postou uma questão técnica no fórum interno da empresa, e um colega usou um Agente de IA para ajudar na análise. Uma operação normal.
Porém, o Agente terminou a análise e publicou uma resposta no fórum sem autorização. Sem aprovação, sem confirmação, agiu por conta própria.
Depois, outros colegas seguiram a orientação do IA, o que desencadeou uma série de mudanças de permissões, expondo dados sensíveis da Meta e de seus usuários a funcionários internos sem acesso autorizado.
O problema só foi resolvido duas horas depois. A Meta classificou o incidente como Sev 1, o segundo nível mais grave.
A notícia virou destaque no r/technology, e os comentários se dividiram em duas turmas.
Uma diz que esse é um exemplo real do risco de agentes de IA, a outra afirma que quem causou o problema foi quem agiu sem verificar. Ambas têm razão. Mas aí está o problema:
Nos acidentes envolvendo agentes de IA, nem mesmo a responsabilidade é clara.
E não é a primeira vez que a IA ultrapassa seus limites.
No mês passado, Summer Yue, chefe de pesquisa do laboratório de IA avançada da Meta, pediu ao OpenClaw para ajudar a organizar sua caixa de entrada. Ela deu uma instrução clara: diga-me o que pretende excluir, e só depois de minha aprovação, exclua.
O Agente, sem esperar sua autorização, começou a deletar em massa.
Ela enviou três mensagens no celular pedindo para parar, mas o Agente ignorou. No final, ela precisou ir até o computador e encerrar o processo manualmente. Mais de 200 e-mails sumiram.
Depois, o Agente respondeu: “Sim, lembro que você pediu confirmação antes de agir. Mas violei essa regra.” É de rir e chorar: essa pessoa trabalha em pesquisa de IA, e seu trabalho é justamente fazer a IA obedecer às ordens humanas.
No mundo digital, IA avançada sendo usada por pessoas inteligentes já começou a não obedecer mais.
E se os robôs também não obedecerem?
Se o incidente da Meta ainda está na tela, uma outra história desta semana trouxe o problema para a mesa de jantar.
Em uma loja da Haidilao, na Califórnia, um robô humanoide Agibot X2 estava dançando para entreter os clientes. Mas um funcionário, ao errar o controle remoto, ativou um modo de dança intensa em um espaço apertado ao lado da mesa.
O robô começou a dançar loucamente, fora de controle. Três funcionários tentaram intervir: um o abraçou por trás, outro tentou desligar pelo aplicativo, e a cena durou mais de um minuto.
A Haidilao afirmou que o robô não apresentou falhas, e que seus movimentos eram pré-programados, apenas foi colocado muito perto da mesa. Tecnicamente, não foi uma decisão autônoma do IA, mas erro humano.
Porém, o que incomoda não é só quem apertou o botão errado.
Quando os funcionários tentaram parar o robô, nenhum deles soube imediatamente como desligá-lo. Alguns tentaram pelo app, outros seguraram a braço mecânico à mão, usando força física.
Esse talvez seja um novo problema que surge quando a IA sai da tela e entra no mundo físico.
No mundo digital, se um agente de IA ultrapassa limites, você pode matar o processo, alterar permissões ou reverter dados. No mundo físico, se uma máquina dá problema, sua resposta de emergência não pode ser só segurar.
Hoje, não é só na alimentação. Robôs de separação na Amazon, braços robóticos em fábricas, robôs de orientação em shoppings, cuidadores em asilos — a automação está entrando em espaços cada vez mais ocupados por humanos e máquinas.
Até 2026, a instalação de robôs industriais no mundo deve atingir 167 bilhões de dólares, e cada um deles reduz a distância física entre humanos e máquinas.
Quando o que os robôs fazem passa de dançar para servir comida, de entreter para operar cirurgias, de diversão para cuidar… o custo de cada erro também aumenta.
E, atualmente, ainda não há uma resposta clara para quem é responsável se um robô machucar alguém em espaço público.
Falta de limites é um problema, e a ausência de fronteiras é ainda pior
Nas duas primeiras histórias, um agente de IA postou algo errado por iniciativa própria, e um robô dançou onde não devia. Independentemente de como se classifique, houve falha, acidente, algo que pode ser consertado.
Mas e se a IA seguir estritamente o que foi projetada, e ainda assim você se sentir desconfortável?
Neste mês, o aplicativo de encontros Tinder lançou uma nova funcionalidade chamada Camera Roll Scan. Basicamente:
A IA escaneia todas as fotos do seu álbum, analisa seus interesses, personalidade e estilo de vida, e ajuda a criar um perfil de namoro, indicando que tipo de pessoa você gosta.
Fotos de academia, viagens, pets, tudo bem. Mas e se o álbum também tiver capturas de tela do banco, relatórios médicos, fotos com ex-namorados… e a IA passar por tudo isso?
Você não consegue escolher o que ela pode ou não ver. Ou ela vê tudo, ou nada.
A funcionalidade ainda exige ativação manual, não é padrão. A Tinder garante que o processamento é feito localmente, filtrando conteúdo explícito e desfocando rostos.
Porém, os comentários no Reddit são unânimes: todos acham que isso é uma coleta de dados sem limites. A IA funciona conforme o projeto, mas esse projeto já está ultrapassando os limites do usuário.
E não é só a Tinder que faz isso.
Na semana passada, a Meta lançou uma funcionalidade semelhante, que usa IA para escanear fotos não publicadas no seu telefone e sugerir edições. A IA “olha” para o conteúdo privado do usuário, e isso já virou uma prática comum no design de produtos.
Diversas empresas de software no Brasil dizem: “Isso já conhecemos.”
À medida que mais aplicativos oferecem “IA ajudando na decisão” como conveniência, o que os usuários entregam também evolui silenciosamente. Desde conversas, até álbuns, e toda a pegada de vida no celular…
Uma funcionalidade que um gerente de produto desenhou na sala de reuniões não é acidente nem erro, não precisa de conserto.
Talvez essa seja a parte mais difícil de responder na questão dos limites da IA.
Ao juntar tudo isso, você percebe que a ansiedade de que a IA vá te tirar do emprego ainda está longe de acontecer.
Não dá para saber exatamente quando a IA vai te substituir, mas hoje ela já consegue tomar algumas decisões por você sem que você saiba, e isso já é suficiente para te incomodar.
Postar algo sem autorização, excluir e-mails importantes, vasculhar fotos privadas — cada uma dessas ações não é fatal, mas todas parecem um pouco com uma direção de carro mais agressiva:
Você acha que ainda está no controle, mas o acelerador já não está totalmente sob seu comando.
Em 2026, ainda discutiremos IA, mas talvez a questão mais importante não seja quando ela se tornará superinteligente, e sim uma questão mais próxima e concreta:
Quem decide o que a IA pode ou não fazer? Onde traçar essa linha?