Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Arranque dos futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
A maior reunião de tecnologia do mundo está a falar sobre ‘lavagem de responsabilidade’: Aqui está o motivo pelo qual devemos nomeá-los como Palavras do Ano
Summer Yue não é a funcionária mais famosa da Meta. A diretora de “pesquisa de alinhamento e segurança de superinteligência” publica fotos dela a passear com o cão na praia e mensagens sobre testar a honestidade dos assistentes de IA. Ela tem um número modesto de seguidores nas redes sociais.
Vídeo Recomendado
Mas, por um dia em fevereiro, Yue tornou-se a pessoa mais falada na Meta. Não por lançar um produto inovador ou anunciar um avanço em IA agentic, mas por ter sido apanhada.
“Nada te humilha mais do que dizer ao teu OpenClaw, ‘Confirma antes de agir’ e ver a tua caixa de entrada a ser apagada rapidamente,” escreveu Yue no X — uma publicação que já tem quase 10 milhões de visualizações. “Não consegui impedir que acontecesse pelo meu telemóvel. Tive que correr até ao meu Mac mini como se estivesse a desarmar uma bomba.”
OpenClaw é um “agente autónomo” — um produto de inteligência artificial que pode realizar tarefas de forma independente. Um favorito do Vale do Silício, promete ser o teu assistente administrativo constante, o “IA que realmente faz as coisas.” Dá-lhe acesso ao teu diário, emails, vida, e ele vai poupar-te tempo e stress, afirmam os desenvolvedores do produto. A primeira frase no site do OpenClaw diz: “Limpa a tua caixa de entrada, envia emails, gere o teu calendário, faz check-in para voos.”
Yue admitiu ter cometido um “erro de principiante.” Testou o assistente numa pequena lista de emails “de brinquedo” e depois lançou-o na sua caixa de entrada inteira, que era demasiado grande para os prompts de guarda (“Confirma comigo”) que tinha usado no piloto. Mas se até uma diretora de superinteligência na Meta tem dificuldades em navegar pelo mundo da IA agentic e dos “efeitos de compactação,” que esperança há para o resto de nós?
Leia mais: CEO da Qualcomm: ‘A resistência é inútil’ com a revolução móvel 6G a aproximar-se
É uma conversa vital, tão importante que, no Mobile World Congress desta semana em Barcelona — o maior evento de tecnologia do mundo — o erro de Yue foi debatido no palco principal.
“Claro que, aqui no Congresso Mundial, todos têm falado sobre o OpenClaw e como podemos usar agentes,” disse Kate Crawford, professora de investigação na Universidade do Sul da Califórnia.
“Mas então vimos a chefe de segurança de IA da Meta usar o OpenClaw, e ela apagou toda a sua caixa de entrada. Essa é a responsável pela segurança na Meta. Portanto, se ela está a ter problemas, acho que todos nós temos que perguntar: ‘Como podemos garantir que estes sistemas estão realmente reforçados? Como podemos garantir que são rigorosamente testados? Como podemos garantir que podemos delegar-lhes de forma confiável?’ E esse é realmente o problema mais difícil de enfrentar, certo?”
Certo. Quando algo corre mal, quem é responsável? O utilizador? O desenvolvedor? A falta de regulamentação? Quando a realidade da IA entra em conflito com a promessa da IA, o que fazemos?
A caixa de entrada de Yue pode ser de extrema importância para ela. Quando se trata da relação entre tecnologia e, por exemplo, a nossa saúde, ou, atenção, Anthropic, a defesa da nação, então essa é uma questão muito diferente. Não há muito tempo, o Grok, o bot de IA da xAI, estava a “despir” imagens de mulheres e meninas de forma casual, causando o repúdio de milhões. A ameaça de ações governamentais e lideradas pelo Estado acabou por levar a uma mudança de abordagem.
“Como é que realmente construímos responsabilidade?” perguntou Crawford. “Isto é o que todos queremos. Se vais começar a usar agentes para reservar voos, marcar consultas médicas e até atividades mais íntimas e confiáveis na tua vida diária, queres saber que a informação vai estar protegida.
“Então, como é que testas isso? Como é que garantes que isso está a acontecer? Se olharmos para o que aconteceu nos últimos 10 anos no espaço tecnológico, infelizmente, temos visto muita lavagem de responsabilidade — que é quando as empresas dizem: ‘Bem, eu não sei. Quer dizer, foi o algoritmo que fez.’”
Isso é insuficiente. Crawford exige total transparência e uma auditoria do “treinamento de agentes,” um processo de ponta a ponta que revele o que correu mal e quem é responsável. As empresas de tecnologia devem ouvir e agir. Haverá um número crescente de Summer Yues por aí — e certamente isso significará muito mais do que alguns emails perdidos e uma publicação honesta no X.