Le gouvernement de Trump pressé de procéder à une évaluation de sécurité avant le lancement des modèles d'IA

robot
Création du résumé en cours

Investing.com – Une organisation de défense a appelé lundi le gouvernement Trump à effectuer une évaluation de sécurité des menaces avant la publication publique de modèles d’intelligence artificielle avancés, et à refuser d’accorder des contrats gouvernementaux aux modèles qui ne passent pas cette évaluation.

La Maison Blanche répond actuellement aux risques de sécurité posés par le modèle Mythos de la société Anthropic, qui pourrait rendre l’exécution d’attaques réseau complexes plus rapide et plus facile, entraînant des risques pour la sécurité nationale.

L’organisation “Americans for Responsible Innovation” a écrit aux responsables gouvernementaux, appelant le gouvernement Trump à établir un mécanisme pour examiner la capacité de ces modèles de pointe à effectuer des attaques cybernétiques et à développer des armes.

Dans sa lettre, l’organisation indique que les entreprises doivent passer cette évaluation pour être éligibles à des contrats gouvernementaux.

Le Centre américain pour la normalisation et l’innovation en intelligence artificielle (CAISI) examine actuellement certains modèles d’IA par le biais d’accords volontaires avec OpenAI, Anthropic, Google, Microsoft et xAI.

L’organisation recommande que le CAISI prenne l’initiative de définir des exigences obligatoires, et que le Congrès crée une agence de enforcement permanente au sein du Département du commerce des États-Unis pour faire respecter ces exigences.

MSFT-1,34% GOOGL+0,71%

Microsoft

Suivi

Analyse MSFT

Inclus dans notre stratégie de sélection d’intelligence artificielle

·

Voir les détails de la stratégie

415,12

▼-5,65(-1,34%)

Clôture·05/09·USD

412,75

▼-2,37(-0,57%)

Avant marché·10:51:55

1 jour

1 semaine

1 mois

6 mois

1 an

5 ans

Valeur maximale

Créé avec Highcharts 11.4.814:0015:0016:0017:0018:0019:00414416418

Sommaire

MSFT-1,34% GOOGL+0,71%

Analyse MSFT

Les exigences proposées ci-dessus s’appliqueront aux entreprises investissant 100 millions de dollars ou plus par an dans la formation de modèles de pointe, ou dont le revenu annuel provenant de produits et services d’IA atteint 500 millions de dollars ou plus.

La Californie a déjà établi l’année dernière des seuils similaires pour les exigences en matière de rapports de sécurité.

Cet article a été traduit avec l’aide de l’intelligence artificielle. Pour plus d’informations, veuillez consulter nos conditions d’utilisation.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler