Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Percebi como, ao longo do último ano, as declarações de que já atingimos a inteligência artificial geral se tornam cada vez mais frequentes. A última moda na Nature, claro, só aumentou o entusiasmo. Mas há um problema fundamental que muitos deixam passar.
Aqui está a questão: as pessoas confundem duas coisas completamente diferentes. Por um lado, temos modelos de linguagem que apresentam resultados impressionantes em testes e lidam com tarefas variadas. Por outro — isso não significa que criámos uma verdadeira inteligência geral. É exatamente como misturar reconhecimento de padrões cada vez mais complexo com a própria inteligência.
Se olharmos para as definições históricas de AGI, elas sempre enfatizaram outros aspetos: fiabilidade em diferentes contextos, capacidade de generalizar ao deparar-se com novidades, flexibilidade. Não apenas altas pontuações em testes em condições artificiais.
E aqui está o que é interessante. Pesquisas recentes mostram que sistemas que resolvem tarefas de teste de forma brilhante muitas vezes falham com as mais pequenas alterações nas condições. Modelos médicos, por exemplo, fornecem respostas corretas mesmo quando faltam dados-chave, mas tornam-se instáveis com pequenas mudanças na distribuição. Isso não é inteligência, é treino específico para cenários concretos.
Em nível económico, o quadro é ainda mais revelador. Mesmo os sistemas mais avançados conseguem realizar de forma fiável apenas uma pequena parte das tarefas reais de trabalho, apesar dos altos resultados em condições de teste. Dados recentes indicam que a maioria das empresas ainda não vê um retorno significativo na implementação de ИИ. Não parece uma inteligência geral.
Há ainda um outro ponto que muitas vezes é ignorado. Quando modelos de linguagem e humanos dão respostas iguais, isso não significa que raciocinem da mesma forma. Já vi exemplos em que o modelo emitia uma conclusão confiante numa situação de incerteza, enquanto um especialista humano abstinha-se de julgar exatamente por falta de informação. Uma coincidência superficial oculta diferenças profundas no processo.
Os sistemas atuais continuam frágeis. Dependem da formulação do pedido, não têm objetivos consistentes, não conseguem raciocinar de forma fiável a longo prazo. Até histórias de modelos que resolveram problemas matemáticos abertos — na sua maioria, é uma combinação e tentativa de métodos existentes, não a criação de novas estratégias.
O problema não é apenas terminológico. Quando estas sistemas começarem a ser integrados em processos reais de tomada de decisão na ciência e nas estruturas governamentais, uma superestimação das suas capacidades pode levar a erros graves na distribuição de confiança e responsabilidade. Portanto, misturar uma aproximação estatística avançada com inteligência geral não é só um erro conceitual, mas um risco prático.
Os modelos que temos são ferramentas poderosas, sim. Mas continuam a ser ferramentas, não agentes com verdadeira competência flexível. Essa distinção é importante.