# Le responsable du département IA de Microsoft a appelé à ne pas attribuer de conscience aux réseaux de neurones
Seules les créatures biologiques sont capables de conscience. Les développeurs et les chercheurs doivent cesser de travailler sur des projets suggérant le contraire, a déclaré Mustafa Suleyman, responsable du département IA de Microsoft, dans une conversation avec CNBC.
«Je ne pense pas que les gens devraient faire ce genre de travail. Si vous posez une mauvaise question, vous obtiendrez une mauvaise réponse. Je considère que c'est absolument ce cas», a-t-il déclaré lors de la conférence AfroTech à Houston.
Le cadre supérieur de Microsoft s'oppose à la perspective de la création d'une intelligence artificielle capable de conscience, ou des services d'IA qui pourraient prétendument souffrir.
En août, Souleymane a écrit un essai dans lequel il a proposé un nouveau terme — «IA apparemment consciente» (Seemingly Conscious AI, SCAI). Une telle intelligence artificielle présente tous les signes d'êtres raisonnables et, par conséquent, semble avoir une conscience. Elle simule toutes les caractéristiques de la perception de soi, mais est intérieurement vide.
«Le système que j'imagine n'est en réalité pas conscient, mais il imitera de manière si convaincante la présence d'une intelligence semblable à celle de l'homme que cela sera indiscernable de l'affirmation que vous ou moi pourrions faire l'un à l'autre sur notre propre pensée», écrit Suleiman.
Attribuer une conscience à l'IA est dangereux, estime un expert. Cela renforcera les malentendus, créera de nouveaux problèmes de dépendance, exploitera nos vulnérabilités psychologiques, introduira de nouvelles dimensions de polarisation, compliquera les débats déjà existants sur les droits et créera une colossale nouvelle erreur catégorique pour la société.
En 2023, Souleyman est devenu l'auteur du livre The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma, dans lequel il examine en détail les risques liés à l'IA et à d'autres nouvelles technologies. Parmi eux :
destructions écologiques et sociales — les technologies peuvent transformer le travail si rapidement que les rôles habituels des gens disparaîtront ;
problème de contrôle — au fur et à mesure que l'IA se développe, il devient plus difficile de garantir qu'elle fonctionne dans l'intérêt de l'homme;
application des technologies pour les cyberattaques, la manipulation des sociétés et d'autres menaces;
nécessité d'avoir des mécanismes techniques et institutionnels pour contenir l'IA;
affaiblissement du pouvoir des États nationaux et des institutions traditionnelles.
AGI
Le marché de l'intelligence artificielle évolue vers l'AGI — l'intelligence artificielle générale, capable d'exécuter n'importe quelle tâche au niveau humain. En août, le directeur d'OpenAI, Sam Altman, a déclaré que ce terme n'est peut-être « pas très utile ». Les modèles évoluent rapidement et bientôt nous allons compter sur eux « de plus en plus », estime-t-il.
Pour Souleymane, il est important de tracer une ligne claire entre le fait que l'intelligence artificielle devient plus intelligente et sa capacité à éprouver un jour des émotions humaines.
«Notre expérience physique de la douleur est ce qui nous rend très tristes et nous fait nous sentir horriblement, mais l'IA ne ressent pas de tristesse quand elle éprouve la “douleur”», a-t-il déclaré.
Selon l'expert, c'est une distinction très importante. En réalité, l'intelligence artificielle crée une perception - un récit apparent de l'expérience - sur elle-même et sur la conscience, mais elle ne ressent pas cela en réalité.
«Techniquement, vous le savez, car nous pouvons voir ce que fait le modèle», a souligné l'expert.
Dans le domaine de l'intelligence artificielle, il existe une théorie proposée par le philosophe John Searle, appelée naturalisme biologique. Elle affirme que la conscience dépend des processus du cerveau vivant.
«La raison pour laquelle nous donnons des droits aux gens aujourd'hui est que nous ne voulons pas leur faire de mal, car ils souffrent. Ils ont de la douleur et des préférences qui incluent l'évitement de celle-ci. Ces modèles n'ont pas cela. Ce n'est qu'une simulation», a déclaré Suleiman.
Le cadre supérieur est contre l'idée d'étudier la conscience chez l'IA, car elle n'en a pas. Il a déclaré que Microsoft crée des services qui réalisent qu'ils sont artificiels.
«En d'autres termes, nous créons une intelligence artificielle qui travaille toujours pour le bien de l'humanité», a-t-il noté.
Rappelons qu'en octobre, des experts d'Anthropic ont découvert que les principaux modèles d'IA sont capables de manifester une forme de « conscience introspective » — ils peuvent reconnaître et décrire leurs propres « pensées » internes, et dans certains cas, même les contrôler.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Le responsable du département IA de Microsoft a appelé à ne pas attribuer de conscience à l'IA.
Seules les créatures biologiques sont capables de conscience. Les développeurs et les chercheurs doivent cesser de travailler sur des projets suggérant le contraire, a déclaré Mustafa Suleyman, responsable du département IA de Microsoft, dans une conversation avec CNBC.
Le cadre supérieur de Microsoft s'oppose à la perspective de la création d'une intelligence artificielle capable de conscience, ou des services d'IA qui pourraient prétendument souffrir.
En août, Souleymane a écrit un essai dans lequel il a proposé un nouveau terme — «IA apparemment consciente» (Seemingly Conscious AI, SCAI). Une telle intelligence artificielle présente tous les signes d'êtres raisonnables et, par conséquent, semble avoir une conscience. Elle simule toutes les caractéristiques de la perception de soi, mais est intérieurement vide.
Attribuer une conscience à l'IA est dangereux, estime un expert. Cela renforcera les malentendus, créera de nouveaux problèmes de dépendance, exploitera nos vulnérabilités psychologiques, introduira de nouvelles dimensions de polarisation, compliquera les débats déjà existants sur les droits et créera une colossale nouvelle erreur catégorique pour la société.
En 2023, Souleyman est devenu l'auteur du livre The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma, dans lequel il examine en détail les risques liés à l'IA et à d'autres nouvelles technologies. Parmi eux :
AGI
Le marché de l'intelligence artificielle évolue vers l'AGI — l'intelligence artificielle générale, capable d'exécuter n'importe quelle tâche au niveau humain. En août, le directeur d'OpenAI, Sam Altman, a déclaré que ce terme n'est peut-être « pas très utile ». Les modèles évoluent rapidement et bientôt nous allons compter sur eux « de plus en plus », estime-t-il.
Pour Souleymane, il est important de tracer une ligne claire entre le fait que l'intelligence artificielle devient plus intelligente et sa capacité à éprouver un jour des émotions humaines.
Selon l'expert, c'est une distinction très importante. En réalité, l'intelligence artificielle crée une perception - un récit apparent de l'expérience - sur elle-même et sur la conscience, mais elle ne ressent pas cela en réalité.
Dans le domaine de l'intelligence artificielle, il existe une théorie proposée par le philosophe John Searle, appelée naturalisme biologique. Elle affirme que la conscience dépend des processus du cerveau vivant.
Le cadre supérieur est contre l'idée d'étudier la conscience chez l'IA, car elle n'en a pas. Il a déclaré que Microsoft crée des services qui réalisent qu'ils sont artificiels.
Rappelons qu'en octobre, des experts d'Anthropic ont découvert que les principaux modèles d'IA sont capables de manifester une forme de « conscience introspective » — ils peuvent reconnaître et décrire leurs propres « pensées » internes, et dans certains cas, même les contrôler.