Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
OpenAI expose le projet « Polaris », le « grand chômage de 2028 » pourrait vraiment arriver
Il y a peu de temps, un article intitulé « Prédictions pour 2028 » a circulé massivement en ligne. Cet article indiquait qu’en raison des progrès de l’IA, une vague massive de chômage surviendrait en 2028, de nombreux emplois étant remplacés par l’IA.
Après la publication de cet article, combinée à la situation au Moyen-Orient, cela a fortement fait chuter le marché boursier américain ce jour-là. Ce phénomène peut sembler fantastique, car il est évident que l’article a été écrit par une IA, mais il semble aussi répondre à la peur collective d’un « grand chômage causé par l’IA », ce qui a amplifié son impact.
Récemment, une information révélée par OpenAI a permis de prendre conscience que le « grand chômage de 2028 » pourrait ne pas être une simple spéculation.
Lors d’une interview exclusive avec MIT Technology Review, Jakub Pachocki, scientifique en chef d’OpenAI, a déclaré une phrase glaçante : leur « étoile polaire » est de construire d’ici 2028 un système de recherche entièrement automatisé à multi-agents.
L’objectif de la première étape, prévu pour septembre cette année, est :
Un « stagiaire de recherche IA autonome » capable de traiter indépendamment des problématiques de recherche spécifiques.
Ce n’est pas un simple marqueur dans la feuille de route produit, ni une déclaration improvisée d’Altman sur X. C’est une stratégie que OpenAI mise entièrement sur une seule direction.
L’importance de « l’étoile polaire »
Quand une entreprise technologique parle de « l’étoile polaire », cela signifie généralement deux choses : d’une part, tout doit céder la place à cet objectif, et d’autre part, un consensus interne a été atteint.
D’après les actions d’OpenAI ces deux dernières semaines, cette analyse semble correcte.
Le 19 mars, OpenAI a annoncé l’acquisition de la société d’outils pour développeurs Astral, intégrant l’équipe dans le département Codex ; en même temps, l’entreprise a annoncé la fusion de ChatGPT, Codex et du navigateur dans une « super application » de bureau, dirigée par Fidji Simo, avec l’aide de Greg Brockman pour la réforme organisationnelle.
L’ère des produits fragmentés touche à sa fin, OpenAI concentre tous ses efforts dans une seule direction.
Et cette direction vise à « faire en sorte que l’IA fasse elle-même de la recherche ».
La logique de Pachocki est claire : modèles de raisonnement, agents intelligents, explicabilité — ces trois axes technologiques, qui étaient auparavant en compétition interne chez OpenAI, sont désormais intégrés dans un seul objectif : créer un chercheur IA capable de fonctionner de façon autonome dans un centre de données pendant longtemps. Il affirme qu’une fois cela réalisé, « ce sera notre véritable dépendance ».
L’avis de l’ancien chercheur d’OpenAI, Andrej Karpathy, est encore plus direct : « Tous les laboratoires de pointe en grands modèles de langage feront cela, c’est la bataille finale du BOSS. » Il ajoute une remarque à méditer : « La mise à l’échelle sera évidemment plus complexe, mais faire cela n’est qu’un problème d’ingénierie, et cela réussira. »
Il faut prêter attention à ses mots : ce n’est pas « si » cela sera possible, mais « quand ».
L’action d’Anthropic
Le même jour où OpenAI a annoncé « l’étoile polaire », Anthropic a discrètement lancé Claude Code Channels — une fonctionnalité permettant aux développeurs d’interagir directement avec une session Claude Code via Telegram et Discord.
Ce détail peut sembler mineur isolément, mais dans le contexte global, il est crucial.
La logique d’Anthropic est : plutôt que de dire aux développeurs ce que l’IA pourra faire à l’avenir, il vaut mieux l’intégrer dès maintenant dans leur flux de travail réel. Telegram et Discord ne sont pas des lieux de recherche académique, mais des espaces où les programmeurs travaillent quotidiennement. Faire vivre Claude Code ici, c’est le transformer d’un simple « outil » en un « collègue ».
Les réactions de la communauté confirment cette analyse.
Un utilisateur a déclaré : « Claude, avec cette mise à jour, a tué OpenClaw, tu n’as plus besoin d’acheter un Mac Mini. » Cela signifie que les améliorations infrastructurelles d’Anthropic ont déjà éliminé l’avantage coût des solutions open source.
Sur une échelle plus macro, la vitesse d’itération d’Anthropic sur Claude Code est impressionnante. En quelques semaines, il a intégré le traitement du texte, des milliers de compétences MCP, et des capacités d’auto-correction de bugs. Alors qu’OpenAI renforce Codex via Astral, Anthropic a déjà intégré Claude Code directement dans la fenêtre de chat des développeurs.
Les deux entreprises avancent vers le même objectif, mais avec des trajectoires radicalement différentes : OpenAI construit un « chercheur entièrement automatisé pour 2028 », tandis qu’Anthropic développe un « agent intelligent utilisable dès aujourd’hui ».
Les vrais défis
Il y a cependant un détail qu’il ne faut pas négliger.
Dans l’interview, Pachocki a fait une chose rare : il a abordé ouvertement les défis liés à la sécurité et à la contrôlabilité, en étant très honnête.
Il a expliqué qu’ils envisagent d’utiliser d’autres grands modèles de langage pour « surveiller les notes du chercheur IA », afin de détecter les comportements indésirables avant qu’ils ne se produisent. Mais il a rapidement reconnu : « Notre compréhension des grands modèles de langage est insuffisante pour les contrôler totalement. Dire que « ce problème est résolu » est encore loin. »
Le chef scientifique d’une entreprise déclarant « nous n’avons pas encore un contrôle total » tout en annonçant un système de recherche IA entièrement automatisé pour 2028, cela mérite une réflexion sérieuse.
Ce n’est pas une déclaration pessimiste, mais une reconnaissance de la difficulté réelle. La capacité de Pachocki à dire cela montre que chez OpenAI, ils ont une conscience claire des défis.
Sur le plan technique, un concept appelé « boucle de Pacci » a été résumé par des chercheurs : un cadre d’automatisation de la recherche IA réussi nécessite trois éléments : un agent capable de modifier un fichier, un seul indicateur objectif pour tester, une limite de temps fixe pour l’expérimentation.
Ce cadre commence déjà à produire des résultats concrets. Le PDG de Shopify, Tobias Lütke, a partagé un exemple : il a laissé un agent de recherche automatique fonctionner la nuit, et le lendemain, il avait effectué 37 expériences, améliorant la performance du modèle de 19 %.
De la théorie à la pratique, cette voie est plus courte qu’on ne le pensait.
Le futur à 20 000 dollars par abonnement
Le projet « étoile polaire » n’est pas seulement une avancée technologique, c’est aussi une stratégie commerciale clé.
Paul Roetzer cite des chiffres qui invitent à la réflexion : selon ses sources internes chez OpenAI, d’ici 2029, le marché des agents intelligents pourrait générer 29 milliards de dollars de revenus annuels, comprenant des abonnements mensuels à 2000 dollars pour des « agents de connaissance » et 20 000 dollars pour des « agents de recherche ».
Ces chiffres montrent que « chercheur IA » n’est pas qu’un objectif technique, mais une véritable voie de revenus.
L’abonnement à 20 000 dollars par mois pour un « agent de recherche » équivaut à une fraction du salaire annuel d’un chercheur expérimenté, mais il peut travailler 24h/24, effectuer 37 expériences simultanément. Il ne s’agit pas de remplacer une personne spécifique, mais de redéfinir la « productivité en recherche » elle-même.
Cela me fait penser à la phrase de Karpathy : « C’est la bataille finale du BOSS. » Le BOSS dont il parle, ce n’est pas un concurrent, mais le plafond des capacités de l’IA elle-même.
Une fois que l’IA pourra autonomiser la recherche scientifique, la vitesse de progrès de l’IA ne sera plus limitée par le nombre ou le temps de travail des chercheurs humains.
Pachocki a exprimé la même idée, mais avec plus de réserve : « Une fois que le système pourra fonctionner de façon autonome dans un centre de données pendant longtemps, ce sera notre véritable dépendance. »
Le stagiaire de recherche IA de septembre 2026 n’est pas une fin en soi, mais un point de départ crucial.