Anthropic n'a pas réussi à empêcher temporairement le Pentagone de le mettre sur liste noire

robot
Création du résumé en cours

Nouvelles ME, le 9 avril (UTC+8), mercredi, une cour d’appel fédérale à Washington D.C. a rejeté la demande d’Anthropic visant à obtenir une injonction temporaire afin d’empêcher le ministère de la Défense d’inscrire la société sur une liste noire, alors que celle-ci conteste actuellement ces mesures en justice. Auparavant, à la fin du mois dernier, un juge du tribunal fédéral de San Francisco avait accordé une ordonnance d’injonction préliminaire dans une autre affaire connexe, interdisant au gouvernement de Trump d’appliquer de force l’interdiction d’utilisation du modèle d’intelligence artificielle Claude par la société Anthropic. Dans sa décision, la cour d’appel a déclaré : « Nous estimons que la balance de la justice dans cette affaire penche en faveur du gouvernement. » « D’une part, le risque de pertes économiques pour une entreprise privée est relativement faible ; d’autre part, en période de conflit militaire, la manière dont le ministère de la Défense, et par l’intermédiaire de qui, doit accéder à des technologies d’intelligence artificielle est cruciale et nécessite une surveillance par les autorités judiciaires. Par conséquent, nous rejetons la demande d’Anthropic visant à surseoir à l’exécution, dans l’attente de l’examen du fond de l’affaire. » (Source : BlockBeats)

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler