Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
J'ai remarqué qu'au cours de la dernière année, les déclarations selon lesquelles nous avons déjà atteint l'ИИ, общий интеллект deviennent de plus en plus fréquentes. La dernière publication dans Nature, bien sûr, a enflammé encore plus le débat. Mais il y a un problème fondamental que beaucoup négligent.
Voici l’essentiel : les gens confondent deux choses complètement différentes. D’un côté, nous avons des modèles linguistiques qui montrent des résultats impressionnants aux tests et qui gèrent diverses tâches. De l’autre — cela ne signifie pas du tout que nous avons créé une véritable ИИ, общий интеллект. C’est comme si l’on mélangeait la reconnaissance de motifs de plus en plus complexe avec l’intelligence elle-même.
Si l’on regarde les définitions historiques de l’AGI, elles insistaient toujours sur d’autres aspects : la fiabilité dans différents contextes, la capacité à généraliser face à la nouveauté, la flexibilité. Pas simplement obtenir de bons résultats dans des tests en conditions artificielles.
Ce qui est intéressant, c’est que des recherches récentes montrent que les systèmes qui excellent dans la résolution de tâches testées échouent souvent au moindre changement de conditions. Par exemple, les modèles médicaux donnent des réponses correctes même lorsque des données clés manquent, mais deviennent instables avec de légers décalages dans la distribution. Ce n’est pas de l’intelligence, c’est un entraînement spécifique à certains scénarios.
Au niveau économique, la situation est encore plus révélatrice. Même les systèmes les plus avancés ne peuvent effectuer de manière fiable qu’une petite partie des tâches réelles, malgré leurs performances élevées en conditions de test. Des données récentes indiquent que la majorité des entreprises ne voient pas encore de gains significatifs grâce à l’ИИ. Cela ne ressemble pas à une ИИ, общий интеллект.
Il y a aussi un autre point souvent ignoré. Lorsque les modèles linguistiques et les humains donnent des réponses identiques, cela ne signifie pas qu’ils raisonnent de la même façon. J’ai vu des exemples où un modèle donnait une conclusion confiante dans une situation d’incertitude, alors qu’un expert humain s’abstenait de juger précisément à cause du manque d’informations. La simple correspondance superficielle masque des différences profondes dans le processus.
Les systèmes actuels restent fragiles. Ils dépendent de la formulation de la requête, n’ont pas d’objectifs stables, et ne peuvent pas raisonner de manière fiable sur le long terme. Même les histoires selon lesquelles des modèles ont résolu des problèmes mathématiques ouverts relèvent principalement de la combinaison et de l’essai d’approches existantes, et non de la création de nouvelles stratégies.
Le problème ne se limite pas à la terminologie. Lorsqu’on commence à intégrer ces systèmes dans des processus décisionnels réels en science et dans les institutions publiques, une surestimation de leurs capacités peut entraîner de graves erreurs dans la répartition de la confiance et de la responsabilité. Par conséquent, mélanger une approximation statistique avancée avec une ИИ, общий интеллект n’est pas seulement une erreur conceptuelle, mais aussi un risque pratique.
Les modèles que nous avons sont des outils puissants, oui. Mais ce sont des outils, pas des agents dotés d’une véritable compétence flexible. La différence est importante.