Bruxelles ouvre des discussions distinctes sur la sécurité de l'IA avec OpenAI et Anthropic

robot
Création du résumé en cours

Lundi, la Commission européenne a déclaré qu’elle discutait avec OpenAI et Anthropic de leurs modèles d’IA, mais les deux conversations ne se ressemblent en rien.

Thomas Regnier, porte-parole de la Commission à Bruxelles, a déclaré aux journalistes qu’OpenAI était le premier à offrir l’accès à son modèle le plus récent. La Commission a qualifié cette démarche de proactive.

Anthropic, en revanche, a rencontré des responsables quatre ou cinq fois, mais l’accès aux modèles n’a pas encore été évoqué.

« Avec l’un (OpenAI), vous avez une entreprise qui propose de manière proactive de donner l’accès à l’entreprise. Avec l’autre (Anthropic), nous avons de bons échanges, mais nous ne sommes pas encore à un stade où nous pouvons spéculer sur un accès potentiel ou non », a déclaré Regnier lors du briefing.

Les gouvernements resserrent l’étau autour de l’IA de pointe

Le timing n’est pas aléatoire. Les gouvernements du monde entier prêtent attention aux systèmes d’IA avancés.

Cette année, la loi sur l’IA de l’UE a commencé à entrer en vigueur. Elle se déploie par étapes. La réglementation prévoit des règles basées sur le risque pour les fournisseurs d’IA opérant en Europe.

Les entreprises ne sont pas tenues de fournir au gouvernement des modèles à examiner avant de les mettre sur le marché, mais il est clair que la Commission souhaite en savoir plus sur ce qui arrive.

OpenAI et Anthropic sont les deux plus grandes entreprises américaines travaillant sur une IA de pointe.

Leurs systèmes d’IA deviennent de plus en plus performants, et les régulateurs s’efforcent de comprendre ce que cela signifie réellement.

Le service audiovisuel de la Commission a inscrit la discussion avec OpenAI et Anthropic sous la rubrique « Cybersécurité » à l’agenda du briefing de midi du 11 mai. Il est listé aux côtés de la politique de défense et de la migration.

Washington se dirige vers des contrôles obligatoires avant la sortie

Pendant que Bruxelles discute, Washington pourrait imposer.

La Maison Blanche envisage un plan pour examiner les modèles d’IA les plus puissants avant leur mise en ligne.

Cette idée a pris de l’ampleur après qu’Anthropic a retenu un accès plus large à son dernier modèle, Mythos, lorsque des tests internes ont montré qu’il pouvait repérer des bugs logiciels exploitables à grande échelle.

L’Institut de sécurité de l’IA du Royaume-Uni a rencontré des problèmes similaires en avril lorsqu’il a évalué GPT-5.5 d’OpenAI.

Le modèle a rétro-construit une machine virtuelle personnalisée et a résolu un défi complexe plus rapidement qu’un expert humain, selon des résultats que Cryptopolitan a précédemment rapportés.

Les esprits les plus brillants en crypto ont déjà lu notre newsletter. Vous voulez en faire partie ? Rejoignez-les.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler