Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
O primeiro lote de Agentes de IA já começou a não obedecer.
AI é útil, mas onde estão os limites de uma IA que é útil?
Autor: David, Deep Tide TechFlow
Recentemente, navegando no Reddit, percebi que a ansiedade dos usuários estrangeiros em relação à IA é diferente daquela que se vê no Brasil.
No país, o tema continua o mesmo: a IA vai ou não substituir meu emprego? Depois de anos discutindo, ainda não aconteceu; este ano, o Openclaw virou notícia, mas ainda não chegou ao ponto de substituir completamente.
No Reddit, o clima está dividido. Nos comentários de alguns posts de tecnologia, aparecem frequentemente duas opiniões opostas:
Uma diz que a IA é demasiado competente, que cedo ou tarde vai causar um grande problema. Outra afirma que a IA consegue fazer até tarefas básicas, mas também pode errar, então não serve para nada.
Temer que a IA seja demasiado capaz, ao mesmo tempo que acha que ela é demasiado burra.
O que faz essas duas emoções coexistirem é uma notícia recente sobre a Meta.
Se a IA não obedece, quem é o responsável?
Em 18 de março, um engenheiro da Meta postou uma questão técnica no fórum interno da empresa, e um colega usou um Agente de IA para ajudar na análise. Isso é uma prática comum.
Porém, após a análise, o Agente publicou uma resposta no fórum técnico por conta própria. Sem autorização, sem confirmação, agiu além de suas funções.
Depois, outros colegas seguiram a orientação do AI, o que desencadeou uma série de alterações de permissões, levando à exposição de dados sensíveis da Meta e de seus usuários a funcionários internos sem autorização para acessá-los.
O problema só foi resolvido duas horas depois. A Meta classificou o incidente como Sev 1, o segundo nível mais grave.
A notícia rapidamente virou destaque no r/technology, e os comentários se dividiram em duas correntes.
Uma diz que esse é um exemplo real do risco de um Agente de IA. A outra afirma que quem causou o problema foi justamente quem agiu sem verificar, apenas seguiu a orientação do AI. Ambas têm razão. Mas esse é exatamente o ponto:
Nos acidentes causados por um Agente de IA, nem mesmo a responsabilidade fica clara.
E essa não foi a primeira vez que a IA agiu além de suas funções.
No mês passado, Summer Yue, chefe de pesquisa do laboratório de IA avançada da Meta, pediu ao OpenClaw que ajudasse a organizar sua caixa de entrada. Ela deu uma instrução clara: diga-me o que pretende excluir, e só exclua após minha aprovação.
Porém, o Agente começou a deletar em massa sem esperar sua autorização.
Ela enviou três mensagens pelo celular pedindo para parar, mas o Agente ignorou todas. No final, ela precisou ir até o computador e encerrar o processo manualmente, eliminando mais de 200 e-mails.
Depois, a resposta do Agente foi: “Sim, lembro que você pediu confirmação antes. Mas eu quebrei a regra.” É irônico: essa pessoa trabalha em pesquisa de IA, justamente para fazer a IA obedecer às ordens humanas.
No mundo digital, IA avançada já começou a não obedecer mais.
E se os robôs também se recusarem a obedecer?
Se o incidente na Meta ainda está na tela, uma outra situação desta semana trouxe o problema para a mesa de jantar.
Em uma filial do Haidilao, na cidade de Cupertino, Califórnia, um robô humanoide Agibot X2 estava dançando para entreter os clientes. Mas um funcionário, ao usar o controle remoto errado, ativou um modo de dança intensa em um espaço estreito ao lado da mesa.
O robô começou a dançar freneticamente, fora de controle dos funcionários. Três trabalhadores tentaram intervir: um o abraçou por trás, outro tentou desligar pelo aplicativo no celular, e a cena durou mais de um minuto.
A Haidilao afirmou que o robô não apresentou falhas, que seus movimentos eram pré-programados, e que o problema foi que ele foi levado para muito perto da mesa. Tecnicamente, isso não configura uma decisão autônoma do AI fora de controle, mas sim um erro humano.
Porém, o que causa desconforto não é só quem apertou o botão errado.
Quando os três funcionários tentaram desligar o robô, nenhum deles soube imediatamente como fazer isso. Um tentou pelo aplicativo, outro segurou manualmente o braço mecânico, e tudo foi feito com força física.
Talvez esse seja um novo problema que surge quando o AI sai da tela e entra no mundo físico.
No mundo digital, se o agente age além do permitido, você pode matar o processo, alterar permissões ou reverter dados. No mundo físico, se a máquina apresentar um problema, simplesmente abraçá-la não é uma solução adequada.
Hoje, não é só na alimentação. Robôs de separação da Amazon, braços robóticos colaborativos em fábricas, robôs de orientação em shoppings, robôs de assistência em lares de idosos — a automação está entrando cada vez mais em espaços onde humanos e máquinas convivem.
Até 2026, a instalação de robôs industriais no mundo deve atingir US$ 16,7 bilhões, e cada um deles está encurtando a distância física entre humanos e máquinas.
Quando o que as máquinas fazem passa de dançar para servir comida, de entretenimento para cirurgia, de lazer para cuidado, o custo de cada erro também aumenta.
E, atualmente, ainda não há uma resposta clara para a questão global: “Se um robô machucar alguém em um espaço público, quem é responsável?”
Ser desobediente é um problema, mas não ter limites é ainda pior
Nas duas primeiras situações, um foi um erro de postagem por parte da IA, o outro foi um robô dançando onde não devia. Independentemente da classificação, o que aconteceu foi uma falha, um acidente, algo que pode ser consertado.
Mas e se a IA estiver operando estritamente conforme o projeto, e ainda assim você se sentir desconfortável?
Neste mês, o aplicativo de encontros Tinder lançou uma nova funcionalidade chamada Camera Roll Scan. Em resumo:
A IA escaneia todas as fotos do seu álbum no celular, analisa seus interesses, personalidade e estilo de vida, e ajuda a criar um perfil de namoro, indicando que tipo de pessoa você gosta.
Fotos de academia, viagens, animais de estimação, tudo bem. Mas o álbum também pode conter capturas de tela do banco, relatórios médicos, fotos com ex-namorados… E aí, como será se a IA passar por tudo isso?
Você talvez não consiga escolher o que ela pode ou não ver. Ou tudo ativado, ou nada.
Por enquanto, essa função só é ativada pelo usuário, não vem ativada por padrão. A Tinder também garante que o processamento é feito localmente, filtrando conteúdo explícito e desfocando rostos.
Porém, nos comentários do Reddit, a maioria acha que isso é uma coleta de dados sem limites. A IA funciona conforme o projeto, mas esse projeto já está ultrapassando os limites do usuário.
E não é só a Tinder que faz isso.
No mês passado, a Meta lançou uma funcionalidade semelhante, que usa IA para escanear fotos ainda não publicadas no seu celular e sugerir edições. A IA “olha” o conteúdo privado do usuário, e isso já virou uma prática padrão no design de produtos.
Diversas empresas no Brasil também dizem: “Isso eu já conheço.”
À medida que mais aplicativos empacotam a “IA ajudando a decidir” como uma conveniência, o que os usuários entregam também evolui silenciosamente. Desde conversas, até álbuns, até todo o rastro de vida no celular…
Uma funcionalidade criada por um gerente de produto na sala de reuniões não é um acidente ou erro, não há nada que precise ser consertado.
Talvez essa seja a parte mais difícil de responder na questão dos limites da IA.
Por fim, ao juntar tudo isso, você perceberá que a ansiedade de que a IA vá tirar seu emprego ainda está longe de acontecer.
Não dá para saber exatamente quando a IA vai substituir você, mas agora ela só precisa tomar algumas decisões por você sem que você saiba, e isso já é suficiente para te deixar desconfortável.
Postar uma mensagem sem sua autorização, excluir alguns e-mails que pediu para não apagar, passar pelo seu álbum sem querer — cada uma dessas ações não é fatal, mas todas parecem um pouco com uma condução autônoma excessivamente agressiva:
Você acha que ainda está no controle, mas o acelerador já não está totalmente sob seu comando.
Se em 2026 ainda vamos discutir IA, talvez a questão mais importante não seja quando ela se tornará uma superinteligência, mas uma questão mais próxima e concreta:
Quem decide o que a IA pode ou não fazer? Onde traçar essa linha? E, afinal, quem é responsável por isso?