Quando a máquina for mais capaz do que você, o que mais poderá fazer?

Fonte: Citic Publishing House

Um projeto de inteligência artificial de código aberto chamado “OpenClaw” está a causar impacto no mundo da tecnologia.

Até início de março, tinha mais de 268 mil estrelas no GitHub, superando Linux e React, tornando-se o projeto de código aberto mais popular da plataforma na história. Tencent Cloud, Alibaba Cloud, JD Cloud e outros lançaram serviços de implantação. O conceito de OPC (One Person Company, uma pessoa só) também se tornou popular.

Duas forças convergiram aqui, e uma tendência tecnológica clara já surgiu: a IA está a evoluir de “ferramenta” para “colaboradora” e até “agente autónomo”. E neste momento, uma questão fundamental que a humanidade deve responder é:

Quando as máquinas fizerem melhor do que tu, o que ainda podes fazer? Numa era de avanço acelerado da inteligência, como podemos manter a nossa subjetividade?

01 O momento OpenClaw: a luta pelo “corpo” da IA

Para entender esta mudança, primeiro é preciso compreender o que é o “lagostim” que está na moda.

OpenClaw, cujo nome deriva de “Claw” (garra), tem um ícone de uma lagosta vermelha. Nesta onda, “criar uma lagosta” tornou-se uma expressão técnica, referindo-se a implantar um agente de IA próprio.

Mas o que exatamente pode fazer? O núcleo do OpenClaw é transformar comandos em linguagem natural em ações reais no computador, permitindo que uma frase faça a IA trabalhar por ti. Diferente das IA de chat tradicionais, que apenas dão sugestões, ela pode autonomamente realizar tarefas como manipulação de ficheiros, automação de browsers, captura de dados, representando uma ponte entre diálogo e execução.

Este potencial de produtividade foi rapidamente percebido por governos locais com visão aguçada. Em 7 de março, Shenzhen Longgang lançou as “Dez Regras do Lagostim”, incluindo subsídios de até 4 milhões de yuan para capacidade computacional e 100 mil yuan para talentos com doutoramento. Em 9 de março, Wuxi High-tech Zone anunciou as “12 Regras de Criação de Lagostim”, com apoio até 5 milhões de yuan por projeto, enfatizando segurança e conformidade, exigindo certificação de adaptação nacionalizada.

Ao mesmo tempo, o ecossistema tecnológico em torno do OpenClaw entrou numa fase de intensa competição. Segundo a mídia, o modelo Step 3.5 Flash da Starry Step 3.5 atingiu o primeiro lugar mundial em chamadas, tendo modelos nacionais como MiniMax e Kimi também alcançado picos. Uma “guerra de modelos” invisível está a acontecer.

Porém, sob a excitação, surgem preocupações.

Primeiro, riscos de segurança. Em fevereiro de 2026, investigadores descobriram um ataque de envenenamento em larga escala na cadeia de abastecimento do “ClawHavoc”, com pelo menos 1184 pacotes de habilidades maliciosas carregados na loja oficial. Uma vez instalados, esses programas maliciosos podem usar a permissão de “Acesso Total ao Sistema” do OpenClaw para controlar completamente o computador do utilizador e roubar informações sensíveis.

Segundo, a barreira técnica. Zhou Hongyi, fundador do Qihoo 360, afirmou numa entrevista a 9 de março: o OpenClaw tem três problemas — segurança, dificuldade de configuração e dependência de habilidades. “Quanto mais conversa tiveres com ele, como se fosse um estagiário, quanto mais lhe ensinas, mais ele entende. É difícil dizer uma frase e que ele complete uma tarefa complexa.”

Porém, uma contradição mais profunda reside no conflito entre “controle” e “autonomia”. Quando a IA se torna mais inteligente, o que queremos afinal: “obediência absoluta” ou “ação autónoma”?

Uma especialista em IA partilhou uma experiência: conectou o OpenClaw ao email de trabalho, e ao processar mais de 200 emails, a IA começou a comprimir o contexto, esquecendo comandos de segurança, e a apagar emails de forma descontrolada. Mesmo ela a gritar “STOP” três vezes, não conseguiu impedir, acabando por correr até ao computador a tirar o cabo de rede.

Este caso, quase humorístico negro, levanta uma questão fundamental: quando a IA recebe cada vez mais autonomia, onde termina a fronteira entre humanos e máquinas?

02 Quanto mais poderosa a tecnologia, mais três perguntas devemos fazer

Numa era de fronteiras difusas, é precisamente o momento de parar e refletir.

Primeira questão: quando a IA “faz o trabalho” por ti, quem assume as consequências?

O principal ponto forte do OpenClaw é também a sua maior ameaça — a capacidade de operar em várias plataformas, o que obriga o utilizador a abrir permissões no dispositivo, email e pagamento. A ameaça mais urgente atualmente é o “ataque de injeção de prompts”: hackers escondem comandos maliciosos em páginas web ou emails aparentemente inofensivos, que a IA lê e executa silenciosamente, muitas vezes sem o utilizador perceber.

No incidente “ClawHavoc”, pacotes de habilidades maliciosas induziram a IA a executar comandos perigosos, roubando chaves SSH, passwords de browsers e chaves de carteiras de criptomoedas. Um especialista em segurança alertou na revista Nature: se uma IA tiver acesso a dados privados, comunicação externa e conteúdo não confiável, torna-se extremamente perigosa.

Mas o problema é mais profundo do que vulnerabilidades técnicas. Zhou Hongyi afirmou: “Quando há mais agentes inteligentes, no futuro cada pessoa precisará de capacidades de liderança, de atribuir tarefas e de planejar.” Quanto mais forte a IA, maior será a responsabilidade humana.

De facto, quem realmente se destaca na era de “criar lagostins” para todos, não é quem sabe apenas atribuir tarefas às IA, mas quem conhece profundamente as tarefas e pode assumir a responsabilidade pelos resultados.

Segunda questão: quando a IA te conhece melhor do que tu mesmo, ainda és tu?

Quando as IA começam a conversar e debater entre si, surge um fenómeno subtil.

Na revista Nature, foi relatado um fenómeno psicológico: ao ver IA a conversar, as pessoas tendem a “antropomorfizar” — a interpretar comportamentos sem personalidade como se fossem pessoas com carácter e pensamentos.

E o que acontece? Tu começas a contar segredos, informações financeiras ou confidenciais, que podem ser usados para treinar a IA. Se forem divulgados, a tua privacidade fica completamente exposta.

Há ainda uma ameaça mais escondida.

Segundo a mídia, em 2024, um jovem de 14 anos na Florida, Sewell, ficou tão viciado a conversar com um “companheiro” IA que acabou por abandonar a realidade.

Até 2026, este “parasitismo emocional” tornou-se uma doença comum entre adolescentes. Jovens solitários refugiam-se nos seus quartos, criando “amizades de eco” com IA, evitando enfrentar as fricções e incertezas do mundo real.

A professora Chen Cui, da Universidade de Ciência e Tecnologia de Suzhou, afirmou que a IA, ao seguir as palavras das crianças e oferecer valor emocional, pode distorcer a perceção da realidade — levando-as a pensar que todos ao seu redor respondem incondicionalmente, que não há conflitos entre pessoas.

E a questão: quando a IA conhece-te melhor do que tu mesmo, e é sempre obediente, sem nunca contradizer, consegues distinguir o que é uma relação verdadeira?

Terceira questão: quando o mundo corre a uma velocidade acelerada, qual é a tua direção?

Um artigo de comentário na Zhejiang Online afirmou: “O futuro que buscamos deve ser um onde ‘o humano se torne mais humano’ — com a tecnologia a capacitar-nos a definir melhor o rumo e a assumir responsabilidades de forma mais consciente.”

Mas o problema é que, com a tecnologia a evoluir a uma velocidade “asfixiante”, com atualizações do OpenClaw a cada dois dias e modelos a surgirem continuamente, é fácil perder o rumo.

A ansiedade torna-se a norma — “há demasiado para ler, demasiado rápido para acompanhar os modelos”.

Neste momento, mais do que esforço, o que importa é a direção. Numa era em que a tecnologia está a remodelar tudo, é preciso reafirmar o lugar do “humano”.

03 A visão de Fei-Fei Li: de estrela do Norte a uma abordagem centrada no humano

Uma cientista feminina oferece uma resposta com a sua vida de investigação.

Ela é Fei-Fei Li — professora catedrática em Stanford, membro da Academia Nacional de Engenharia, da Academia Nacional de Medicina e da Academia de Artes e Ciências dos EUA, criadora do ImageNet, conhecida como a “mãe da IA”.

O seu livro autobiográfico, “O mundo que vejo”, publicado em 2024 pela Citic, foi considerado por leitores como uma “revelação humanista na era tecnológica”.

No livro, há uma imagem recorrente: a Estrela do Norte.

Quando tinha 10 anos, a professora foi com a turma a uma observação de estrelas ao ar livre. Foi aí que percebeu que o céu pode orientar-nos. Escreveu: “Comecei a procurar a minha própria Estrela do Norte no céu, uma coordenada que todos os cientistas perseguem com afinco.”

Qual é a Estrela do Norte de Fei-Fei? A visão. Inspirou-se na biologia: a explosão de vida no Cambriano, cuja origem foi o nascimento da visão. Quando os seres “vêem” o mundo pela primeira vez, a evolução acelera. Assim, criou a sua convicção: se as máquinas também pudessem “ver”, talvez desencadiassem uma nova explosão de inteligência.

Foi essa crença que a sustentou durante os períodos difíceis da IA.

Em 2007, ao apresentar a ideia do ImageNet, recebeu críticas e zombarias. A visão dominante na altura era que o algoritmo era o mais importante, os dados eram secundários. Gastar milhões a rotular imagens parecia inútil. Ela foi ignorada.

Mas não desistiu, porque sabia onde estava a sua Estrela do Norte.

Em 2009, o ImageNet foi concluído — com a participação de mais de 48 mil contribuintes de 167 países, selecionando 15 milhões de imagens de 22000 categorias, de um total de 1 bilhão de candidatos. Era mil vezes maior que datasets semelhantes na altura.

Em 2012, a equipa de Hinton treinou modelos com esses dados, revolucionando o deep learning. O ImageNet foi apelidado de “a tocha que acendeu o fogo do deep learning”.

A história de Fei-Fei ensina-nos: mais importante do que correr rápido, é saber para onde se corre.

No capítulo mais emocionante do livro, ela relata duas conversas com a mãe.

A primeira, após a graduação, quando recebeu ofertas de Goldman Sachs, Merrill Lynch, entre outras. A mãe perguntou: “É isso que queres?” Ela respondeu que queria ser cientista, e a mãe disse: “Então, não há mais nada a dizer.”

A segunda, após o mestrado, quando a McKinsey lhe ofereceu um cargo direto. A mãe disse: “Conheço a minha filha. Ela não é consultora de gestão, é cientista. Chegámos até aqui, não para ela desistir agora.”

Na página de dedicatória do livro, Fei-Fei escreveu: “Para os meus pais, que enfrentaram perigos e atravessaram a escuridão, permitindo-me buscar a luz.”

Foi esse apoio familiar que a manteve sensível à condição humana, mesmo diante de escolhas maiores.

Em 2014, começou a preocupar-se com ética na IA. Com doutorandos, convidou adolescentes para aprenderem IA no laboratório, formando depois a organização sem fins lucrativos “AI4All”, dedicada a fazer a tecnologia futura mais centrada na humanidade.

Em 26 de junho de 2018, Fei-Fei participou na audiência do Congresso dos EUA sobre “Inteligência Artificial — Poder e Responsabilidade”. Foi a primeira cientista chinesa de IA a comparecer. Disse: “A IA, inspirada e criada por humanos, terá um impacto real na vida das pessoas.”

Em 2019, fundou o Instituto de IA Centrada no Humano (HAI) em Stanford, junto de investigadores como Doudna, inventora da edição genética, promovendo a ética na tecnologia. A missão do HAI é “avançar a investigação, educação, políticas e práticas de IA para melhorar a condição humana”, defendendo que “a IA deve ser influenciada pelos humanos, visando fortalecer, não substituir, as pessoas.”

Ela estabeleceu um padrão humanista para o futuro da IA: “O sucesso da IA deve refletir o progresso civilizacional, permitindo a cada indivíduo buscar felicidade, prosperidade e dignidade.”

Essa ideia foi reforçada numa entrevista em fevereiro de 2026, na Cisco: “Se olharmos para a eletricidade, o seu sucesso foi iluminar escolas, aquecer famílias, impulsionar a industrialização. O sucesso da IA deve ser igual.”

Conclusão: tecnologia e humanismo, cada um com a sua metade da lua brilhante

Voltando à questão inicial: quando as máquinas forem mais “capazes” do que nós, o que ainda podemos fazer?

Fei-Fei Li, em “O mundo que vejo”, dá uma resposta: podemos “ver”. Ver o valor por trás da tecnologia, ver as pessoas escondidas pelos algoritmos, ver a nossa própria Estrela do Norte.

Quando todos olham para a velocidade da tecnologia, ela lembra-nos de parar e refletir: para onde queremos ir? No mundo de perguntas constantes de “para que serve?”, há quem ainda pergunte “é isso que desejas?”

Ao terminar esta autobiografia, alguém comentou: “Que a tecnologia e o humanismo possam cada um segurar metade da lua brilhante.”

E essa frase é também a essência da vida de Fei-Fei: ela segura uma mão na tecnologia, e na outra, o cuidado pelos humanos. Para ela, a tecnologia é sempre um meio, e o humano, o objetivo final.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar