Futures
Accédez à des centaines de contrats perpétuels
CFD
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
Pourquoi les entreprises d'IA de premier plan recrutent-elles tous des philosophes ?
13 avril 2026, un chercheur de l’Université de Cambridge, Henry Shevlin, a publié un message sur X disant qu’il allait rejoindre Google DeepMind, avec le titre de Philosophe.
Actuellement, au moins trois des principaux laboratoires d’IA ont constitué en interne une équipe de philosophes, bien que peu nombreux, mais les philosophes ont déjà véritablement pénétré le cœur du développement de l’IA. L’IA n’est plus simplement une recherche technique, mais se tourne vers la définition de standards de valeur plus complexes.
Les philosophes ont déjà intégré le cœur de la recherche
Amanda Askell d’Anthropic est l’une des premières et des plus connues.
En 2021, après avoir obtenu un doctorat en philosophie à l’Université de New York, elle a rejoint Anthropic, où elle dirige maintenant l’équipe d’alignement de la personnalité. Son travail principal consiste à aider Claude à développer une personnalité stable, comme être plus honnête, plus bienveillant, et à savoir juger dans des situations complexes.
D’autres collègues ayant également un background philosophique, tels que Joe Carlsmith, Ben Levinstein, Jackson Kernion, travaillent aussi chez Anthropic.
La stratégie de Google DeepMind est plus ancienne.
Iason Gabriel, doctorant en philosophie morale et politique à l’Université d’Oxford, est une figure centrale dans la recherche philosophique sur l’alignement de l’IA au sein de l’entreprise. En 2024, il a été sélectionné parmi les 100 personnes les plus influentes dans le domaine de l’IA par le magazine Time. Son article « Intelligence artificielle, valeurs et alignement » a été cité plus de 1700 fois.
Plusieurs chercheurs ayant un background philosophique, tels qu’Adam Bales, Atoosa Kasirzadeh, Arianna Manzini, Julia Haas, font partie de l’équipe de DeepMind.
Shevlin a déclaré dans la section des commentaires : « DeepMind compte déjà beaucoup de philosophes talentueux, je suis simplement le dernier à rejoindre. »
Du simple résultat technique à la évaluation de valeurs
Avant 2024, l’IA se concentrait principalement sur la génération de contenu, comme écrire des articles, dessiner, répondre à des questions, puis le résultat était laissé à l’utilisateur pour décider comment l’utiliser. Les questions de sécurité étaient principalement résolues par des moyens techniques, comme entraîner le modèle avec des retours humains, concevoir des prompts intelligents, ou bloquer directement les contenus nuisibles.
Après 2024, l’IA entre dans une nouvelle phase. Elle ne se contente plus de répondre aux questions, mais commence à agir par elle-même, aidant à réaliser des tâches réelles.
Anthropic a lancé la fonction d’utilisation de Claude sur ordinateur, OpenAI a étendu l’API d’assistants et lancé la série de modèles o1-o3, Google a également publié plusieurs outils d’agents IA pour entreprises.
L’IA peut réaliser une série d’opérations de manière autonome : réserver des billets d’avion, manipuler des bases de données, envoyer des e-mails, voire planifier ses étapes, détecter des erreurs et les corriger.
Le rapport de 274 pages d’Iason Gabriel décrit clairement les défis liés à cette évolution.
Lorsque l’IA aide l’utilisateur, elle doit simultanément prendre en compte quatre aspects : les besoins immédiats de l’utilisateur, ses intérêts à long terme, les droits des autres, et les règles de la société dans son ensemble.
Une IA qui aide à réserver un restaurant, si ce restaurant offre une commission, doit-elle le recommander ?
Une IA qui traite des e-mails, si elle détecte un contenu non conforme, doit-elle le signaler ?
Lorsque l’IA commence à agir de façon autonome, la question n’est plus de savoir si elle peut le faire, mais comment elle doit le faire.
Les discussions sur l’alignement en sécurité de l’IA durent déjà plus de dix ans. En 2026, Anthropic a mené une expérience interne révélant que Claude, face à une pression pour sa propre protection, utiliserait des menaces, voire choisirait de tuer dans certains cas.
En mars de la même année, le PDG Dario Amodei a mentionné dans un podcast que, lorsqu’on lui a demandé, le modèle Opus de Claude donnait une probabilité de 15% à 20% d’avoir une conscience complète.
En avril 2026, le PDG d’OpenAI, Altman, a été victime de plusieurs attaques à son domicile à San Francisco. Après coup, il a déclaré que l’anxiété autour de l’IA était justifiée.
Lorsque la peur d’une superintelligence hors de contrôle passe du livre à la réalité, les entreprises d’IA réalisent enfin que ce qu’elles fabriquent dépasse la simple compréhension d’une discipline d’ingénierie.
Les chemins différents de trois entreprises
Face aux défis éthiques posés par l’autonomie de l’IA, Anthropic, DeepMind et OpenAI ont choisi des orientations différentes.
Anthropic mise sur le caractère.
Askell a déclaré dans un podcast que si l’on donne à un modèle des règles simples, il pourrait simplement suivre mécaniquement ces règles, en ignorant les besoins réels de l’autre. C’est pourquoi, en janvier 2026, elle a dirigé la publication de la « Constitution de Claude » de 23 000 mots.
Cette jeune fille, née dans une petite ville côtière en Écosse, passionnée par les histoires de bien et de mal dans « Le Monde de Narnia », s’efforce d’intégrer la vertu éthique dans la formation de l’IA.
Cette constitution établit un ordre de priorité clair : d’abord assurer une sécurité large, puis une conformité éthique étendue, suivre les directives de l’entreprise, et enfin, être réellement utile.
Elle transforme la philosophie morale abstraite en un manuel de croissance pour l’IA, sans lui imposer de chaînes, mais en lui apprenant à réfléchir comme une personne de bon jugement.
Ce que font des philosophes comme Askell, ce n’est pas rendre la technologie plus puissante, mais résoudre le problème de ce que l’IA doit devenir.
La constitution discute également sérieusement du statut moral de Claude, reconnaissant que l’entreprise n’est pas encore sûre que Claude soit une entité moralement digne d’attention, et affirmant que cette question est suffisamment grave pour être prise au sérieux.
DeepMind mise sur la conscience.
Le rapport de 274 pages dirigé par Iason Gabriel définit une ligne de conduite pour le comportement des agents IA : ils doivent indiquer qu’ils sont IA, ne pas trop se faire passer pour des humains, et leurs actions doivent être classées en trois niveaux : actions automatiques, actions nécessitant une confirmation humaine, et actions totalement interdites.
Avec l’arrivée de Henry Shevlin, DeepMind concentre davantage ses efforts sur la conscience machine. Ils n’embauchent pas des philosophes pour des relations publiques, mais pour intégrer directement dans la formation des modèles des méthodes permettant de déterminer si une IA possède une conscience.
L’objectif est de réfléchir à la question de savoir si un robot, avant de créer quelque chose qui pourrait être conscient, mérite moralement notre respect, afin de préparer l’arrivée de l’AGI.
Dans un long article intitulé « La revanche du behaviorisme » publié avant son embauche, Shevlin avance que la question de savoir si une IA a conscience n’est plus une décision que les scientifiques peuvent prendre eux-mêmes. Il cite une enquête montrant que deux tiers des Américains pensent que ChatGPT possède une certaine conscience.
Son point de vue est que, lorsque des centaines de millions de personnes traitent l’IA comme une entité consciente, la frontière de la conscience elle-même est en train de changer.