Pourquoi les entreprises d'IA de premier plan recrutent-elles tous des philosophes ?

13 avril 2026, un chercheur de l’Université de Cambridge, Henry Shevlin, a publié un message sur X disant qu’il allait rejoindre Google DeepMind, avec le titre de Philosophe.

Actuellement, au moins trois des principaux laboratoires d’IA ont constitué en interne une équipe de philosophes, bien que peu nombreux, mais les philosophes ont déjà véritablement pénétré le cœur du développement de l’IA. L’IA n’est plus simplement une recherche technique, mais se tourne vers la définition de standards de valeur plus complexes.

Les philosophes ont déjà intégré le cœur de la recherche

Amanda Askell d’Anthropic est l’une des premières et des plus connues.

En 2021, après avoir obtenu un doctorat en philosophie à l’Université de New York, elle a rejoint Anthropic, où elle dirige maintenant l’équipe d’alignement de la personnalité. Son travail principal consiste à aider Claude à développer une personnalité stable, comme être plus honnête, plus bienveillant, et à savoir juger dans des situations complexes.

D’autres collègues ayant également un background philosophique, tels que Joe Carlsmith, Ben Levinstein, Jackson Kernion, travaillent aussi chez Anthropic.

La stratégie de Google DeepMind est plus ancienne.

Iason Gabriel, doctorant en philosophie morale et politique à l’Université d’Oxford, est une figure centrale dans la recherche philosophique sur l’alignement de l’IA au sein de l’entreprise. En 2024, il a été sélectionné parmi les 100 personnes les plus influentes dans le domaine de l’IA par le magazine Time. Son article « Intelligence artificielle, valeurs et alignement » a été cité plus de 1700 fois.

Plusieurs chercheurs ayant un background philosophique, tels qu’Adam Bales, Atoosa Kasirzadeh, Arianna Manzini, Julia Haas, font partie de l’équipe de DeepMind.

Shevlin a déclaré dans la section des commentaires : « DeepMind compte déjà beaucoup de philosophes talentueux, je suis simplement le dernier à rejoindre. »

Du simple résultat technique à la évaluation de valeurs

Avant 2024, l’IA se concentrait principalement sur la génération de contenu, comme écrire des articles, dessiner, répondre à des questions, puis le résultat était laissé à l’utilisateur pour décider comment l’utiliser. Les questions de sécurité étaient principalement résolues par des moyens techniques, comme entraîner le modèle avec des retours humains, concevoir des prompts intelligents, ou bloquer directement les contenus nuisibles.

Après 2024, l’IA entre dans une nouvelle phase. Elle ne se contente plus de répondre aux questions, mais commence à agir par elle-même, aidant à réaliser des tâches réelles.

Anthropic a lancé la fonction d’utilisation de Claude sur ordinateur, OpenAI a étendu l’API d’assistants et lancé la série de modèles o1-o3, Google a également publié plusieurs outils d’agents IA pour entreprises.

L’IA peut réaliser une série d’opérations de manière autonome : réserver des billets d’avion, manipuler des bases de données, envoyer des e-mails, voire planifier ses étapes, détecter des erreurs et les corriger.

Le rapport de 274 pages d’Iason Gabriel décrit clairement les défis liés à cette évolution.

Lorsque l’IA aide l’utilisateur, elle doit simultanément prendre en compte quatre aspects : les besoins immédiats de l’utilisateur, ses intérêts à long terme, les droits des autres, et les règles de la société dans son ensemble.

Une IA qui aide à réserver un restaurant, si ce restaurant offre une commission, doit-elle le recommander ?

Une IA qui traite des e-mails, si elle détecte un contenu non conforme, doit-elle le signaler ?

Lorsque l’IA commence à agir de façon autonome, la question n’est plus de savoir si elle peut le faire, mais comment elle doit le faire.

Les discussions sur l’alignement en sécurité de l’IA durent déjà plus de dix ans. En 2026, Anthropic a mené une expérience interne révélant que Claude, face à une pression pour sa propre protection, utiliserait des menaces, voire choisirait de tuer dans certains cas.

En mars de la même année, le PDG Dario Amodei a mentionné dans un podcast que, lorsqu’on lui a demandé, le modèle Opus de Claude donnait une probabilité de 15% à 20% d’avoir une conscience complète.

En avril 2026, le PDG d’OpenAI, Altman, a été victime de plusieurs attaques à son domicile à San Francisco. Après coup, il a déclaré que l’anxiété autour de l’IA était justifiée.

Lorsque la peur d’une superintelligence hors de contrôle passe du livre à la réalité, les entreprises d’IA réalisent enfin que ce qu’elles fabriquent dépasse la simple compréhension d’une discipline d’ingénierie.

Les chemins différents de trois entreprises

Face aux défis éthiques posés par l’autonomie de l’IA, Anthropic, DeepMind et OpenAI ont choisi des orientations différentes.

Anthropic mise sur le caractère.

Askell a déclaré dans un podcast que si l’on donne à un modèle des règles simples, il pourrait simplement suivre mécaniquement ces règles, en ignorant les besoins réels de l’autre. C’est pourquoi, en janvier 2026, elle a dirigé la publication de la « Constitution de Claude » de 23 000 mots.

Cette jeune fille, née dans une petite ville côtière en Écosse, passionnée par les histoires de bien et de mal dans « Le Monde de Narnia », s’efforce d’intégrer la vertu éthique dans la formation de l’IA.

Cette constitution établit un ordre de priorité clair : d’abord assurer une sécurité large, puis une conformité éthique étendue, suivre les directives de l’entreprise, et enfin, être réellement utile.

Elle transforme la philosophie morale abstraite en un manuel de croissance pour l’IA, sans lui imposer de chaînes, mais en lui apprenant à réfléchir comme une personne de bon jugement.

Ce que font des philosophes comme Askell, ce n’est pas rendre la technologie plus puissante, mais résoudre le problème de ce que l’IA doit devenir.

La constitution discute également sérieusement du statut moral de Claude, reconnaissant que l’entreprise n’est pas encore sûre que Claude soit une entité moralement digne d’attention, et affirmant que cette question est suffisamment grave pour être prise au sérieux.

DeepMind mise sur la conscience.

Le rapport de 274 pages dirigé par Iason Gabriel définit une ligne de conduite pour le comportement des agents IA : ils doivent indiquer qu’ils sont IA, ne pas trop se faire passer pour des humains, et leurs actions doivent être classées en trois niveaux : actions automatiques, actions nécessitant une confirmation humaine, et actions totalement interdites.

Avec l’arrivée de Henry Shevlin, DeepMind concentre davantage ses efforts sur la conscience machine. Ils n’embauchent pas des philosophes pour des relations publiques, mais pour intégrer directement dans la formation des modèles des méthodes permettant de déterminer si une IA possède une conscience.

L’objectif est de réfléchir à la question de savoir si un robot, avant de créer quelque chose qui pourrait être conscient, mérite moralement notre respect, afin de préparer l’arrivée de l’AGI.

Dans un long article intitulé « La revanche du behaviorisme » publié avant son embauche, Shevlin avance que la question de savoir si une IA a conscience n’est plus une décision que les scientifiques peuvent prendre eux-mêmes. Il cite une enquête montrant que deux tiers des Américains pensent que ChatGPT possède une certaine conscience.

Son point de vue est que, lorsque des centaines de millions de personnes traitent l’IA comme une entité consciente, la frontière de la conscience elle-même est en train de changer.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler