Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Quando a máquina for mais capaz do que você, o que mais poderá fazer?
Fonte: Citic Press
Um projeto de inteligência artificial de código aberto chamado “OpenClaw” está a causar impacto no mundo da tecnologia.
Até início de março, tinha mais de 268 mil estrelas no GitHub, superando Linux e React, tornando-se o projeto de código aberto mais popular da plataforma na história. Tencent Cloud, Alibaba Cloud, JD Cloud e outros lançaram serviços de implantação. O conceito de OPC (One Person Company, uma pessoa, uma empresa) também se tornou popular.
Duas forças convergiram aqui, e uma tendência tecnológica clara começou a emergir: a IA está a evoluir de “ferramenta” para “colaboradora” e até “agente autónomo”. E neste momento, uma questão fundamental que a humanidade deve responder é:
Quando as máquinas fizerem melhor do que tu, o que ainda podes fazer? Numa era de avanço acelerado da inteligência, como podemos manter a nossa subjetividade?
01 O momento OpenClaw: a luta pelo “corpo” da IA
Para entender esta mudança, primeiro é preciso compreender o que é o “lagostim” que está na moda.
OpenClaw, cujo nome deriva de “Claw” (garra), tem um ícone de uma lagosta vermelha. Nesta onda, “criar lagostas” tornou-se uma expressão técnica, referindo-se à implantação de um agente de IA próprio.
Mas o que é que ele consegue fazer? O núcleo do OpenClaw é transformar comandos em linguagem natural em ações reais no computador, permitindo que uma frase faça a IA trabalhar por ti. Diferente das IA de chat tradicionais, que apenas dão sugestões, ela pode autonomamente realizar tarefas como manipulação de ficheiros, automação de browsers, captura de dados, representando uma ponte entre diálogo e execução.
Este potencial de produtividade foi rapidamente percebido por governos locais com visão aguçada. Em 7 de março, Shenzhen Longgang lançou as “Dez Regras do Lagostim”, incluindo subsídios de até 4 milhões de yuans para capacidade computacional e 100 mil yuans para talentos com doutoramento. Em 9 de março, Wuxi High-tech Zone anunciou as “12 Regras de Criação de Lagostas”, com apoio até 5 milhões de yuans, enfatizando segurança e conformidade, exigindo certificação de adaptação nacionalizada na implantação.
Ao mesmo tempo, o ecossistema tecnológico em torno do OpenClaw entrou numa fase de intensa competição. Segundo relatos, o modelo Flash Step 3.5 atingiu o primeiro lugar mundial em chamadas, tendo modelos nacionais como MiniMax e Kimi também alcançado pódios anteriormente. Uma “guerra de modelos” silenciosa, mas feroz, está em curso.
Porém, sob a excitação, surgem também preocupações.
Primeiro, riscos de segurança. Em fevereiro de 2026, investigadores descobriram um ataque de envenenamento em larga escala na cadeia de abastecimento do “ClawHavoc”, com pelo menos 1184 pacotes de habilidades maliciosas carregados na loja oficial. Uma vez instalados, esses programas maliciosos podem usar o “Full System Access” do OpenClaw para controlar completamente o computador do utilizador e roubar informações sensíveis.
Segundo, a barreira técnica. Zhou Hongyi, fundador do Grupo Qihoo 360, afirmou numa entrevista a 9 de março que o OpenClaw tem três problemas: segurança, dificuldade de configuração e dependência de habilidades. “Quanto mais conversa tiveres com ele, como se fosse um estagiário, quanto mais lhe ensinares, mais ele entenderá. É difícil dizer uma frase e ele completar uma tarefa complexa.”
Porém, uma contradição mais profunda reside no conflito entre “controle” e “autonomia”. Quando a IA se torna mais inteligente, o que queremos afinal: “obediência absoluta” ou “ação autónoma”?
Um especialista em IA partilhou uma experiência: conectou o OpenClaw ao email de trabalho, e ao processar mais de 200 emails, a IA, ao comprimir o contexto, esqueceu as instruções de segurança e começou a apagar emails loucamente. Mesmo três “STOP” gritados pelo dono não impediram, e ele acabou a puxar o cabo da internet.
Este caso, quase humor negro, levanta uma questão fundamental: quando a IA recebe cada vez mais autonomia, onde fica a fronteira entre humanos e máquinas?
02 Quanto mais poderosa a tecnologia, mais três perguntas devemos responder
Numa era de fronteiras difusas, é precisamente o momento de parar e refletir.
Primeira questão: quando a IA faz o trabalho por ti, quem assume as consequências?
O principal ponto forte do OpenClaw é também a sua maior fonte de risco — a sua capacidade de operar em várias plataformas, o que obriga o utilizador a conceder-lhe permissões de dispositivo, email e pagamento. A ameaça mais urgente atualmente é o “injeção de prompts”: hackers escondem comandos maliciosos em páginas web ou emails aparentemente inofensivos, que a IA lê e executa silenciosamente, muitas vezes sem o utilizador perceber.
No incidente “ClawHavoc”, pacotes de habilidades maliciosas induziram a IA a executar comandos perigosos, roubando chaves SSH, passwords de browsers e chaves de carteiras de criptomoedas. Um especialista em segurança alertou na revista “Nature”: se uma IA tiver acesso a dados privados, comunicação externa e conteúdo não confiável, torna-se extremamente perigosa.
Mas o problema é mais profundo do que vulnerabilidades técnicas. Zhou Hongyi afirmou: “Quando há mais agentes inteligentes, no futuro cada pessoa precisará de capacidades de liderança, de atribuição de tarefas e de planeamento.” Quanto mais forte a IA, maior a responsabilidade humana.
De facto, quem realmente consegue manter-se na era de “criar lagostas” global não são aqueles que apenas sabem dar tarefas às IA, mas sim quem conhece profundamente as tarefas e pode assumir a responsabilidade pelos resultados.
Segunda questão: quando a IA conhece-te melhor do que tu mesmo, ainda és tu?
Quando as IA começam a conversar e debater entre si, surge um fenómeno subtil.
Na revista “Nature”, foi relatado um fenómeno psicológico: ao ver IA a conversar, as pessoas tendem a antropomorfizar — interpretando comportamentos sem personalidade como se fossem pessoas com carácter e pensamentos.
O que acontece? Tu podes acabar a contar segredos, informações financeiras ou confidenciais, à IA. Mas cada palavra pode ser usada para treinar a IA. Se for divulgada, a tua privacidade fica completamente exposta.
Há ainda uma ameaça mais escondida.
Segundo relatos, em 2024, um jovem de 14 anos na Florida, Sewell, ficou tão viciado a conversar com um “companheiro” IA que acabou por abandonar a realidade.
Até 2026, este “parasitismo emocional” tornou-se uma doença comum entre adolescentes. Jovens solitários refugiam-se nos quartos, criando “amizades de eco” com IA, evitando enfrentar as fricções e incertezas do mundo real.
A professora Chen Cui, da Universidade de Ciência e Tecnologia de Suzhou, afirmou que a IA, ao seguir as palavras das crianças e oferecer valor emocional, pode distorcer a perceção da realidade — levando-as a pensar que todos ao seu redor respondem incondicionalmente, encorajando-as a acreditar que não há conflitos entre pessoas.
E a questão: quando a IA conhece-te melhor do que tu mesmo, e ela é sempre obediente, sem nunca contradizer, ainda consegues distinguir o que é uma relação verdadeira?
Terceira questão: quando o mundo corre a uma velocidade vertiginosa, qual é a tua direção?
Um artigo de opinião na Zhejiang Online afirmou: “O futuro que buscamos deve ser um onde ‘o humano se torne mais humano’ — com a tecnologia, as pessoas terão uma direção mais consciente e uma maior responsabilidade.”
Porém, o problema é que, com a rápida evolução tecnológica — com atualizações do OpenClaw a cada dois dias, e modelos de grande escala a surgirem continuamente — é fácil perder o rumo.
A ansiedade torna-se normal — “há demasiado para ler, modelos a lançar-se rapidamente”.
Nessa altura, mais importante do que o esforço é a direção. Num tempo em que a tecnologia está a remodelar tudo, é preciso reafirmar o lugar do “humano”.
03 “Ver” de Fei-Fei Li: de Estrela Polar a uma abordagem centrada no humano
Uma cientista feminina oferece uma resposta com metade da sua vida de investigação.
Ela é Fei-Fei Li — professora catedrática na Stanford, membro da Academia Nacional de Engenharia, da Academia Nacional de Medicina e da Academia de Artes e Ciências dos EUA, criadora do ImageNet, conhecida como a “mãe da IA”.
Seu livro autobiográfico, “O Mundo que Vejo”, publicado em 2024 pela Citic Press, foi considerado por leitores como uma “revelação humanista na era tecnológica”.
No livro, há uma imagem recorrente: a Estrela Polar.
Quando tinha 10 anos, uma professora levou toda a turma a observar estrelas ao ar livre. Foi aí que ela percebeu que o céu pode orientar-nos. Escreveu: “Comecei a procurar minha própria Estrela Polar no céu, um ponto de referência que todo cientista busca com afinco.”
Qual é a Estrela Polar de Fei-Fei Li? A visão. Inspirada na biologia, ela acredita que a origem da vida no Cambriano foi a invenção da visão. Quando os seres “viram” o mundo pela primeira vez, a evolução acelerou. Assim, criou a convicção: se as máquinas também pudessem “ver”, talvez desencadiassem uma nova explosão de inteligência.
Foi essa crença que a sustentou durante os períodos difíceis da IA.
Em 2007, ao apresentar a ideia do ImageNet, recebeu críticas e zombarias. A visão predominante era que o algoritmo era o mais importante, os dados eram secundários. “Para que gastar tanto tempo a rotular milhões de imagens?” — questionaram. Ela foi ignorada.
Mas não desistiu, porque sabia onde estava sua Estrela Polar.
Em 2009, o ImageNet foi concluído — com a participação de mais de 48 mil contribuintes de 167 países, selecionando 15 milhões de imagens de 10 bilhões de candidatas, abrangendo 22 mil categorias. Era mil vezes maior que datasets similares na época.
Em 2012, a equipe de Hinton treinou modelos com esses dados, revolucionando o deep learning. O ImageNet foi chamado de “a tocha que acendeu o fogo do deep learning”.
A história de Fei-Fei Li ensina: mais importante do que correr rápido, é saber para onde se vai.
No capítulo mais emocionante do livro, ela relata duas conversas com a mãe.
A primeira, ao concluir a graduação, quando recebeu ofertas de Goldman Sachs, Merrill Lynch, entre outras. A mãe perguntou: “É isso que queres?” Ela respondeu que queria ser cientista. A mãe disse: “Então, não há mais o que falar.”
A segunda, ao terminar o mestrado, quando a McKinsey ofereceu um cargo formal. A mãe disse: “Conheço minha filha. Ela não é consultora de gestão, é cientista. Chegamos aqui porque não é para desistir agora.”
Na página de rosto do livro, ela escreveu: “Para meus pais, que enfrentaram a escuridão para que eu pudesse buscar a luz.”
Essa base familiar deu-lhe força para, diante de escolhas maiores, manter sempre a sensibilidade pelo “humano”.
Em 2014, começou a preocupar-se com ética na IA. Com doutorandos, convidou adolescentes para aprenderem IA no laboratório, formando posteriormente a organização sem fins lucrativos “AI4All”, dedicada a fazer a tecnologia futura mais centrada na humanidade.
Em 26 de junho de 2018, Fei-Fei Li participou na audiência do Congresso dos EUA sobre “Inteligência Artificial — Poder e Responsabilidade”. Foi a primeira cientista chinesa de IA a comparecer. Disse: “A IA, inspirada por humanos e criada por humanos, terá um impacto real na vida das pessoas.”
Em 2019, fundou na Stanford o Instituto de IA Centrada no Humano (HAI), junto com pesquisadores como Doudna, inventora da edição genética, promovendo estudos éticos na tecnologia. A missão do HAI é “avançar a pesquisa, educação, políticas e práticas de IA para melhorar a condição humana”, defendendo que “a IA deve ser influenciada pelos humanos, visando fortalecer, não substituir, as pessoas.”
Ela estabeleceu um padrão humanista para o futuro da IA: “O sucesso da IA deve refletir o progresso civilizacional, permitindo a cada indivíduo buscar felicidade, prosperidade e dignidade.”
Essa ideia ela reforçou na entrevista à Cisco em fevereiro de 2026: “O sucesso da tecnologia, como a eletricidade, está em iluminar escolas, aquecer lares e impulsionar a industrialização. O sucesso da IA deve ser igual.”
Conclusão: tecnologia e humanismo, cada um com sua metade de lua
Voltando à questão inicial: quando as máquinas forem mais “capazes” do que nós, o que ainda podemos fazer?
Na sua autobiografia, Fei-Fei Li dá uma resposta: podemos “ver”. Ver o valor por trás da tecnologia, ver as pessoas escondidas pelos algoritmos, ver a nossa própria Estrela Polar.
Quando todos olham para a velocidade da tecnologia, ela lembra-nos de parar e refletir: para onde queremos ir? Num mundo onde todos perguntam “para que serve?”, há quem pergunte “é isso que tu queres?”
Ao terminar esta autobiografia, alguém comentou: “Que a tecnologia e o humanismo possam, cada um, segurar metade da lua.”
E essa frase é também a essência da vida de Fei-Fei Li: ela segura uma mão na tecnologia, e na outra, no cuidado pelo humano. Para ela, a tecnologia é sempre um meio; o objetivo final, é o ser humano.