Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Lancement Futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Trading démo
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Musk s'en prend à Anthropic alors que le Pentagone convoque le PDG de l'entreprise d'IA Dario Amodei
(MENAFN- IANS) Mumbai, 24 février (IANS) Le secrétaire à la Défense américain Pete Hegseth aurait convoqué le PDG de la société d’IA Anthropic, Dario Amodei, au Pentagone pour une réunion « à enjeux élevés » et « tendue » concernant l’utilisation par l’armée du modèle d’IA Claude de l’entreprise, selon des rapports, alors qu’Elon Musk a critiqué la société d’IA pour avoir prétendument volé des données d’entraînement.
Le rapport d’Axios, citant un haut responsable de la défense anonyme, indique que la réunion n’était « pas amicale » car Anthropic n’a pas levé les restrictions sur leur technologie, même si Hegseth a exhorté les entreprises d’IA à le faire.
Claude est actuellement le seul système d’IA déployé dans des réseaux de défense classifiés, dans le cadre d’un contrat pilote de 200 millions de dollars signé l’année dernière, mais Hegseth a demandé dans une note du 9 janvier aux entreprises d’IA de renégocier les termes pour supprimer les restrictions sur leur technologie.
Cependant, Anthropic a refusé de lever complètement les mesures de sécurité, notamment celles concernant la surveillance de masse des Américains et le développement d’armes entièrement autonomes, selon le rapport.
Les responsables de la défense ont averti qu’Anthropic pourrait être désignée comme « risque de chaîne d’approvisionnement », annulant des contrats et limitant l’utilisation de Claude par d’autres partenaires du Pentagone, même si le porte-parole de l’entreprise a qualifié les discussions de « productives ». Le remplacement d’Anthropic est considéré comme complexe en raison de son intégration profonde dans les systèmes de défense, ajoute le rapport.
Par ailleurs, le Pentagone a signé des accords avec xAI d’Elon Musk et se rapproche d’un accord avec Google pour la construction du modèle Gemini, exerçant une pression sur Anthropic, rapporte The New York Times.
Avant la réunion, Anthropic a allégué que trois entreprises chinoises d’IA avaient utilisé des chatbots pour siphonner des millions de sorties de Claude afin de former leurs propres modèles.
En réponse, Musk a critiqué Anthropic sur X en déclarant : « Anthropic est coupable de vol massif de données d’entraînement et a dû payer des règlements de plusieurs milliards de dollars pour leur vol. »
Le PDG de Tesla et SpaceX a qualifié la société d’IA de « MisAnthropic ».
Claude est un assistant d’IA de nouvelle génération développé par Anthropic, conçu pour être sûr, précis et sécurisé. Le nouvel assistant d’IA pourrait automatiser la révision de documents juridiques, les vérifications de conformité, la planification commerciale, l’analyse de campagnes marketing, la réconciliation financière, la visualisation de données, la génération de rapports SQL et la recherche de documents à l’échelle de l’entreprise.
-IANS
aar/na