Selon un rapport, Goldman Sachs interdit aux employés de Hong Kong d'utiliser le modèle Anthropic Claude

Le 29 avril, le Financial Times a rapporté, citant des sources informées, que Goldman Sachs a interdit à ses banquiers à Hong Kong d’utiliser le modèle d’IA d’Anthropic, Claude. Les employés de Goldman Sachs à Hong Kong n’ont pas pu accéder au modèle via la plateforme d’IA interne pendant plusieurs semaines. Un porte-parole d’Anthropic a déclaré que son modèle Claude n’a jamais reçu de « support » officiel à Hong Kong, mais n’a pas fourni de commentaires supplémentaires. Il est entendu qu’après avoir négocié avec Anthropic, Goldman Sachs a conclu, sur la base d’une interprétation stricte de son contrat, que les employés à Hong Kong ne sont pas autorisés à utiliser aucun produit d’Anthropic. Cependant, cela n’inclut pas les contrats avec d’autres fournisseurs d’IA tels qu’OpenAI.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler