L'administration Trump va examiner les modèles d'IA de Google, Microsoft, xAI avant leur sortie publique

fermer

vidéo

Les marchés commencent tout juste à diverger un peu avec le conflit en Iran, dit Josh Schafer

Le rédacteur en chef de la newsletter Barrons Roundtable, Josh Schafer, analyse le marché boursier et les prix du pétrole face au conflit au Moyen-Orient sur Varney & Co.

L’administration Trump a annoncé mardi avoir conclu de nouveaux accords avec Microsoft, Google DeepMind et xAI d’Elon Musk pour renforcer la collaboration avec les grandes entreprises technologiques dans la recherche sur l’intelligence artificielle (IA) et la sécurité.

Le Centre pour les Normes et l’Innovation en IA (CAISI), qui fait partie de l’Institut National des Normes et de la Technologie du Département du Commerce, travaillera avec les entreprises d’IA sur des évaluations avant déploiement ainsi que sur des recherches ciblées sur les capacités de l’IA de pointe et la sécurité de l’IA.

Les nouveaux accords s’appuient sur des partenariats précédemment annoncés entre le CAISI et ces entreprises, soutenant le partage d’informations, favorisant des améliorations volontaires des produits et assurant une compréhension claire par le gouvernement des capacités de l’IA et de l’état de la compétition internationale en matière d’IA.

« La science de la mesure indépendante et rigoureuse est essentielle pour comprendre l’IA de pointe et ses implications pour la sécurité nationale », a déclaré le directeur du CAISI, Chris Fall. « Ces collaborations accrues avec l’industrie nous aident à développer notre travail dans l’intérêt public à un moment critique. »

COMMENT L’EXPOSITION À L’IA REFAÇONNE LES EMPLOIS DANS LES DOMAINES CRÉATIFS

L’administration Trump a annoncé ces accords sur l’IA via le CAISI avec plusieurs grandes entreprises technologiques. (Win McNamee/Getty Images)

Les développeurs fournissent fréquemment au CAISI des modèles ayant réduit ou supprimé des garde-fous pour évaluer les capacités et risques liés à la sécurité nationale.

Les évaluateurs de diverses agences gouvernementales peuvent participer aux évaluations et fournir régulièrement des retours via le groupe de travail TRAINS, qui rassemble des experts interagences concentrés sur les préoccupations de sécurité nationale liées à l’IA.

Les accords du CAISI soutiennent les tests en environnements classifiés et ont été conçus avec une flexibilité pour répondre aux avancées continues de l’IA.

ZUCKERBERG DIT QUE LES LICENCIEMENTS DE META SONT LIÉS AUX DÉPENSES EN IA, ET NE EXCLUT PAS DE FUTURS LICENCIEMENTS

Microsoft a déclaré que le partenariat avec le CAISI est nécessaire pour instaurer la confiance et la crédibilité dans les systèmes d’IA avancés. (Cesc Maymo / Getty Images)

Natasha Crampton, responsable de l’IA chez Microsoft, a déclaré dans un communiqué que ces accords « feront progresser la science des tests et de l’évaluation de l’IA, notamment par des travaux collaboratifs pour tester les modèles de pointe de Microsoft, évaluer les garde-fous, et aider à atténuer les risques pour la sécurité nationale et la sécurité publique à grande échelle. »

Crampton a ajouté que « des tests rigoureux et continus sont essentiels pour instaurer la confiance dans les systèmes d’IA avancés. »

ELON MUSK DIT AVOIR ÉTÉ UN ‘FOU’ POUR AVOIR FINANCÉ OPENAI : RAPPORT

Google DeepMind, une filiale de Google, a également signé les nouveaux accords avec le CAISI. (Marlena Sloss/Bloomberg via Getty Images)

« Des tests bien conçus nous aident à comprendre si nos systèmes fonctionnent comme prévu et à fournir les bénéfices qu’ils sont censés offrir. Les tests nous aident aussi à anticiper les risques, tels que les cyberattaques pilotées par l’IA et autres usages criminels des systèmes d’IA, qui peuvent émerger une fois que des systèmes avancés sont déployés dans le monde », a expliqué Crampton.

Microsoft a également annoncé un accord similaire avec l’Institut de Sécurité de l’IA du Royaume-Uni (AISI) pour réguler les tests et l’évaluation de l’IA.

OBTENEZ FOX BUSINESS EN CLIQUANT ICI

XAI3,51%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler