Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Lancement Futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Trading démo
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Le département de la guerre américain qualifie le PDG d'Anthropic de « menteur » avec un « complexe de Dieu » concernant l'IA
(MENAFN- AsiaNet News) Le Département de la Guerre des États-Unis (DOW) a vivement critiqué le PDG d’Anthropic, Dario Amodei, après que la société américaine d’intelligence artificielle a refusé de supprimer certaines mesures de sécurité sur ses systèmes d’IA destinés à un usage militaire. Le sous-secrétaire d’État américain à la Guerre, Emil Michael, a accusé Amodei de tenter de contrôler la prise de décision militaire tout en le qualifiant de « menteur » ayant un « complexe de Dieu ». « C’est dommage que Dario Amodei soit un menteur et ait un complexe de Dieu. Il ne souhaite rien d’autre que contrôler personnellement l’armée américaine et est prêt à mettre en danger la sécurité de notre nation. Le @DeptofWar respectera TOUJOURS la loi, mais ne cédera pas aux caprices d’une entreprise technologique à but lucratif », a déclaré Michael dans un message sur X.
Pentagone rejette les accusations d’utilisation illégale et lance un ultimatum
Par ailleurs, le porte-parole en chef du Pentagone, Sean Parnell, a rejeté les affirmations selon lesquelles le Département chercherait à utiliser l’IA à des fins illégales. « Le Département de la Guerre n’a aucun intérêt à utiliser l’IA pour effectuer une surveillance de masse des Américains (ce qui est illégal) ni à développer des armes autonomes sans intervention humaine. Ce récit est faux et diffusé par des médias de gauche », a déclaré Parnell dans un autre message sur X.
Il a précisé que la demande du Pentagone se limitait à lui permettre d’utiliser le modèle d’IA d’Anthropic pour « toutes les fins légales », qualifiant cela de « demande simple et de bon sens » visant à éviter toute perturbation des opérations militaires. « Nous ne laisserons AUCUNE entreprise dicter les conditions de nos décisions opérationnelles. Elles ont jusqu’à 17h01 (heure de l’Est) vendredi pour se décider. Sinon, nous mettrons fin à notre partenariat avec Anthropic et les considérerons comme un risque pour la chaîne d’approvisionnement du DOW », a-t-il ajouté.
Anthropic défend sa position sur les garde-fous de l’IA
Les remarques du DOW interviennent après qu’Amodei, dans une déclaration jeudi, a indiqué que la société ne soutiendrait pas certaines utilisations de l’IA, notamment la surveillance de masse domestique et les armes entièrement autonomes, invoquant des préoccupations concernant les valeurs démocratiques et la fiabilité actuelle des systèmes d’IA de pointe.
Amodei a déclaré que, malgré la pression du DOW pour accepter « toute utilisation légale » de sa technologie et supprimer certaines mesures de sécurité, l’entreprise ne changerait pas de position. « Le Département de la Guerre a déclaré qu’il ne contracterait qu’avec des entreprises d’IA qui acceptent ‘toute utilisation légale’ et suppriment les mesures de sécurité dans les cas mentionnés ci-dessus. Ils ont menacé de nous retirer de leurs systèmes si nous maintenons ces mesures ; ils ont également menacé de nous désigner comme un ‘risque pour la chaîne d’approvisionnement’ — une étiquette réservée aux adversaires américains, jamais appliquée à une entreprise américaine — et d’invoquer la loi sur la production de défense pour forcer la suppression des mesures de sécurité. Ces deux menaces sont intrinsèquement contradictoires : l’une nous qualifie de risque pour la sécurité ; l’autre considère Claude comme essentiel à la sécurité nationale », indique le communiqué. « Quoi qu’il en soit, ces menaces ne changent pas notre position : nous ne pouvons pas, en conscience, répondre favorablement à leur demande », a-t-il ajouté.
Anthropic a également précisé qu’il reste prêt à continuer de soutenir les efforts de sécurité nationale des États-Unis tout en maintenant ce qu’il décrit comme des garde-fous nécessaires pour le déploiement de ses systèmes d’IA.
(Sauf pour le titre, cette histoire n’a pas été modifiée par l’équipe d’Asianet Newsable English et est publiée à partir d’une source syndiquée.)