Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
A equipa de investigação da Zhejiang University propõe uma nova abordagem: ensinar à IA a forma como o cérebro humano compreende o mundo
Os modelos de grandes dimensões estão sempre a aumentar de tamanho, e a visão dominante sustenta que quanto mais parâmetros o modelo tiver, mais se aproximará do modo como os humanos pensam. No entanto, uma tese de uma equipa da Universidade de Zhejiang, publicada a 1 de abril na Nature Communications, apresenta uma perspetiva diferente (link original: https://www.nature.com/articles/s41467-026-71267-5). Eles descobriram que, quando a dimensão do modelo (principalmente SimCLR, CLIP, DINOv2) aumenta, a capacidade de identificar objetos concretos continua, de facto, a melhorar, mas a capacidade de compreender conceitos abstratos não só não melhora como até diminui. Depois de os parâmetros aumentarem de 22,06 milhões para 304,37 milhões, as tarefas de conceitos concretos sobem de 74,94% para 85,87%, enquanto as tarefas de conceitos abstratos descem de 54,37% para 52,82%.
Diferenças entre o modo de pensar de humanos e de modelos
Quando o cérebro humano processa conceitos, primeiro forma um conjunto de relações de classificação. A cisne e a coruja têm aspeto diferente, mas ainda assim as pessoas colocam-nas na categoria dos pássaros. Mais acima, pássaros e cavalos ainda podem ser colocados na camada seguinte, a de animais. Quando as pessoas veem algo novo, muitas vezes primeiro pensam no que é parecido com algo visto anteriormente e em que categoria deverá estar. As pessoas continuam a aprender novos conceitos, reorganizam a experiência e usam essas relações para identificar coisas novas e adaptar-se a novas situações.
Os modelos também classificam, mas de forma diferente. Eles dependem sobretudo de padrões que se repetem em grandes volumes de dados. Quanto mais vezes um objeto específico aparece, mais fácil é ao modelo reconhecê-lo. Ao chegar a esta etapa, de categorias ainda maiores, o modelo fica mais “em esforço”. Ele precisa de captar as semelhanças entre vários objetos e, em seguida, agrupar essas semelhanças na mesma categoria. Os modelos existentes ainda têm uma clara fraqueza aqui. Com o aumento adicional dos parâmetros, as tarefas de conceitos concretos melhoram, enquanto as tarefas de conceitos abstratos, por vezes, até diminuem.
A semelhança entre o cérebro humano e os modelos é que, no interior de ambos, se forma um conjunto de relações de classificação. Mas a ênfase de cada um é diferente: as regiões visuais de nível superior do cérebro humano acabam por separar naturalmente grandes categorias como seres vivos e não vivos. Os modelos conseguem separar objetos concretos, mas têm dificuldade em formar de forma estável essas categorias mais amplas. Esta diferença faz com que o cérebro humano consiga mais facilmente aplicar experiências antigas a novos objetos; por isso, ao confrontar algo que nunca viu, conseguimos classificar rapidamente. Já o modelo depende mais do conhecimento existente; assim, quando se depara com um novo objeto, fica mais facilmente preso às características superficiais. O método proposto no artigo centra-se precisamente nesta característica: usar sinais cerebrais para constranger a estrutura interna do modelo, tornando-o mais parecido com a forma como o cérebro classifica.
Solução da equipa da Universidade de Zhejiang
A solução apresentada pela equipa é também muito peculiar: não é continuar a “empilhar” parâmetros, mas usar uma pequena quantidade de sinais cerebrais como supervisão. Esses sinais cerebrais vêm do registo da atividade cerebral quando uma pessoa vê imagens. O texto original do artigo diz: transferir as estruturas conceptuais humanas para DNNs. Em outras palavras, ensinar ao modelo, tanto quanto possível, como o cérebro humano classifica, como faz inferências e como coloca conceitos próximos em conjunto.
A equipa usou 150 categorias de treino conhecidas e 50 categorias de teste que nunca tinha visto para fazer experiências. Os resultados mostram que, à medida que este treino avança, a distância entre as representações do modelo e as representações do cérebro continua a diminuir. Esta mudança aparece em ambas as categorias, o que indica que o modelo não aprendeu apenas amostras individuais, mas começou verdadeiramente a aprender uma forma de organizar conceitos mais próxima do cérebro humano.
Depois deste treino, o modelo tem melhor capacidade de aprendizagem quando existem muito poucos dados; perante novas situações, o desempenho também foi melhor. Numa tarefa em que apenas se fornecem muito poucos exemplos, mas se exige que o modelo distinga conceitos abstratos como “seres vivos” e “não vivos”, o modelo melhorou em média 20,5% e até superou modelos de controlo que têm muito mais parâmetros. A equipa fez ainda mais 31 conjuntos de testes específicos; em vários modelos, apareceu um aumento de quase uma décima parte.
Nos últimos anos, o caminho familiar para a indústria de modelos tem sido aumentar ainda mais a escala do modelo. A equipa da Universidade de Zhejiang escolheu outra direção: sair de bigger is better para structured is smarter. A expansão de escala é certamente útil, mas melhora sobretudo o desempenho em tarefas já conhecidas. A capacidade humana de compreensão abstrata e de transferência para IA também é igualmente crucial. Isto exige, no futuro, que a estrutura de pensamento da IA fique mais próxima do cérebro humano. O valor desta direção está em, em vez de deixar a atenção da indústria ficar apenas na expansão de escala, a trazer novamente o foco para a própria estrutura cognitiva.
Neosoul e o futuro
Isto levanta uma possibilidade ainda maior: a evolução da IA poderá não acontecer apenas na fase de treino do modelo. O treino do modelo pode determinar como a IA organiza conceitos e como forma estruturas de decisão de maior qualidade. Depois, ao entrar no mundo real, começa uma segunda camada de evolução da IA: como é que as decisões de um agente de IA são registadas, como é que são verificadas, como é que, na competição real e mútua, ele continua a crescer e a evoluir, tal como os humanos, com aprendizagem e autoevolução contínuas. É precisamente isto que o Neosoul faz agora. O Neosoul não serve apenas para permitir que os agentes de IA produzam respostas; em vez disso, coloca os agentes de IA num sistema de previsão contínua, verificação contínua, liquidação/fecho contínuo e seleção contínua, para que possam otimizar-se continuamente entre previsões e resultados, mantendo as estruturas melhores e eliminando as estruturas piores. O que a equipa da Universidade de Zhejiang e o Neosoul apontam em conjunto é, na verdade, o mesmo objetivo: fazer com que a IA deixe de saber apenas “fazer exercícios” e passe a ter capacidade de pensamento abrangente, evoluindo continuamente.