A maior reunião de tecnologia do mundo está a falar sobre ‘lavagem de responsabilidade’: Aqui está o motivo pelo qual devemos nomeá-los como Palavras do Ano

Summer Yue não é a funcionária mais famosa da Meta. A diretora de “pesquisa de alinhamento e segurança de superinteligência” publica fotos dela a passear com o cão na praia e mensagens sobre testar a honestidade dos assistentes de IA. Ela tem um número modesto de seguidores nas redes sociais.

Vídeo Recomendado


Mas, por um dia em fevereiro, Yue tornou-se a pessoa mais falada na Meta. Não por lançar um produto inovador ou anunciar um avanço em IA agentic, mas por ter sido apanhada.

“Nada te humilha mais do que dizer ao teu OpenClaw, ‘Confirma antes de agir’ e ver a tua caixa de entrada a ser apagada rapidamente,” escreveu Yue no X — uma publicação que já tem quase 10 milhões de visualizações. “Não consegui impedir que acontecesse pelo meu telemóvel. Tive que correr até ao meu Mac mini como se estivesse a desarmar uma bomba.”

OpenClaw é um “agente autónomo” — um produto de inteligência artificial que pode realizar tarefas de forma independente. Um favorito do Vale do Silício, promete ser o teu assistente administrativo constante, o “IA que realmente faz as coisas.” Dá-lhe acesso ao teu diário, emails, vida, e ele vai poupar-te tempo e stress, afirmam os desenvolvedores do produto. A primeira frase no site do OpenClaw diz: “Limpa a tua caixa de entrada, envia emails, gere o teu calendário, faz check-in para voos.”

Yue admitiu ter cometido um “erro de principiante.” Testou o assistente numa pequena lista de emails “de brinquedo” e depois lançou-o na sua caixa de entrada inteira, que era demasiado grande para os prompts de guarda (“Confirma comigo”) que tinha usado no piloto. Mas se até uma diretora de superinteligência na Meta tem dificuldades em navegar pelo mundo da IA agentic e dos “efeitos de compactação,” que esperança há para o resto de nós?

Leia mais: CEO da Qualcomm: ‘A resistência é inútil’ com a revolução móvel 6G a aproximar-se

É uma conversa vital, tão importante que, no Mobile World Congress desta semana em Barcelona — o maior evento de tecnologia do mundo — o erro de Yue foi debatido no palco principal.

“Claro que, aqui no Congresso Mundial, todos têm falado sobre o OpenClaw e como podemos usar agentes,” disse Kate Crawford, professora de investigação na Universidade do Sul da Califórnia.

“Mas então vimos a chefe de segurança de IA da Meta usar o OpenClaw, e ela apagou toda a sua caixa de entrada. Essa é a responsável pela segurança na Meta. Portanto, se ela está a ter problemas, acho que todos nós temos que perguntar: ‘Como podemos garantir que estes sistemas estão realmente reforçados? Como podemos garantir que são rigorosamente testados? Como podemos garantir que podemos delegar-lhes de forma confiável?’ E esse é realmente o problema mais difícil de enfrentar, certo?”

Certo. Quando algo corre mal, quem é responsável? O utilizador? O desenvolvedor? A falta de regulamentação? Quando a realidade da IA entra em conflito com a promessa da IA, o que fazemos?

A caixa de entrada de Yue pode ser de extrema importância para ela. Quando se trata da relação entre tecnologia e, por exemplo, a nossa saúde, ou, atenção, Anthropic, a defesa da nação, então essa é uma questão muito diferente. Não há muito tempo, o Grok, o bot de IA da xAI, estava a “despir” imagens de mulheres e meninas de forma casual, causando o repúdio de milhões. A ameaça de ações governamentais e lideradas pelo Estado acabou por levar a uma mudança de abordagem.

“Como podemos garantir que estes sistemas estão realmente reforçados? Como podemos garantir que são rigorosamente testados?”

Kate Crawford, professora de investigação na Universidade do Sul da Califórnia

“Como é que realmente construímos responsabilidade?” perguntou Crawford. “Isto é o que todos queremos. Se vais começar a usar agentes para reservar voos, marcar consultas médicas e até atividades mais íntimas e confiáveis na tua vida diária, queres saber que a informação vai estar protegida.

“Então, como é que testas isso? Como é que garantes que isso está a acontecer? Se olharmos para o que aconteceu nos últimos 10 anos no espaço tecnológico, infelizmente, temos visto muita lavagem de responsabilidade — que é quando as empresas dizem: ‘Bem, eu não sei. Quer dizer, foi o algoritmo que fez.’”

Isso é insuficiente. Crawford exige total transparência e uma auditoria do “treinamento de agentes,” um processo de ponta a ponta que revele o que correu mal e quem é responsável. As empresas de tecnologia devem ouvir e agir. Haverá um número crescente de Summer Yues por aí — e certamente isso significará muito mais do que alguns emails perdidos e uma publicação honesta no X.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar