La plainte déposée par Anthropic contre le gouvernement met en évidence une situation assez intéressante. La société affirme avoir été mise sur liste noire par le Département de la Défense et avoir perdu ses contrats fédéraux. Alors, pourquoi ? La raison officielle est « le risque de chaîne d’approvisionnement », mais Anthropic soutient que ce n’est pas la véritable raison.



La défense de la société est la suivante : ils sont punis parce qu’ils refusent d’imposer des limites éthiques à leurs technologies. Autrement dit, ils perdent leur crédibilité sur la liste noire parce qu’ils n’ont pas levé les restrictions de sécurité. Anthropic considère cela comme un droit protégé par le Premier Amendement — c’est-à-dire qu’ils pensent qu’ils doivent pouvoir décider eux-mêmes comment développer leurs technologies.

Ce qui est intéressant dans cette affaire : une entreprise technologique soutient que le fait d’imposer des limites éthiques ne devrait pas entraîner la perte de contrats fédéraux. En d’autres termes, ils sont punis par le gouvernement à cause des standards de sécurité qu’ils ont eux-mêmes fixés.

Cette situation pourrait servir de précédent important pour l’industrie de l’IA. Si Anthropic gagne, d’autres entreprises d’IA pourraient plus facilement éviter d’être mises sur liste noire dans des cas similaires. En revanche, s’ils perdent, cela établirait un nouveau point de départ quant à la capacité du gouvernement à contrôler les entreprises technologiques.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler