Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Newsom ordonne au gouvernement de prendre en compte les risques liés à l'IA dans les règles contractuelles
La prochaine fois que le gouvernement fédéral qualifiera une entreprise de « risque pour la chaîne d’approvisionnement », comme l’a fait le ministère de la Défense le mois dernier pour le fabricant d’outils d’IA basé à San Francisco Anthropic, l’État de Californie examinera cette désignation et prendra sa propre décision quant à savoir s’il doit continuer à faire affaire avec eux.
C’est ce qu’indique un décret exécutif signé lundi par le gouverneur Gavin Newsom. L’ordre faisait suite à un différend entre Anthropic et le ministère de la Défense au sujet de clauses contractuelles interdisant à l’armée d’utiliser les systèmes d’Anthropic pour la surveillance de masse nationale et l’armement entièrement autonome.
En désignant Anthropic comme un risque pour sa chaîne d’approvisionnement, le ministère de la Défense a, de fait, empêché la startup de concourir à certains contrats et sous-contrats militaires. Un juge a récemment prononcé une injonction temporaire afin de bloquer la désignation.
L’objectif plus large du décret de Newsom était de mettre des garde-fous à l’usage de l’IA par les employés de l’État, tout en les encourageant à accélérer son adoption.
Une grande partie des plus grandes entreprises d’IA au monde sont basées en Californie, et l’État est aussi à la tête du pays pour le volume de réglementations sur l’IA.
L’ordonnance impose aux organismes de l’État de :
Élaborer des recommandations pour les normes de contrats de l’État concernant l’IA et sa capacité à générer du matériel d’abus sexuel sur des enfants, à violer les lois relatives aux libertés civiles et aux droits civils ou à porter atteinte aux « protections contre la discrimination, la détention et la surveillance illégales ». Aider les employés à accéder à des « outils GenAI dûment vérifiés ».
Mettre à jour la stratégie numérique de l’État pour identifier des moyens par lesquels l’IA générative peut « renforcer la transparence et la responsabilité du gouvernement, améliorer les performances et rendre les services gouvernementaux facilement accessibles à chaque Californien ».
Développer une IA générative pour que les Californiens aient accès aux services gouvernementaux.
Publier des directives sur la manière dont les employés de l’État doivent apposer des filigranes sur les images et vidéos générées par l’IA.
Ces exigences interviennent alors que plus de 20 départements et agences de Californie travaillent à développer ou à utiliser Poppy, un assistant d’IA générative pour les employés de l’État, et qu’une demi-douzaine d’agences teste l’IA pour des tâches telles qu’aider les employés de l’État et aider les personnes sans abri ainsi que les entreprises. Elles arrivent aussi au moment où des tribunaux de l’État et des gouvernements municipaux intensifient leur usage de cette technologie.
Newsom a indiqué que le président Donald Trump et les Républicains à Washington D.C. avaient supprimé des protections ou ignoré les façons dont l’IA peut nuire aux personnes.
« Contrairement à l’administration Trump, la Californie reste attachée à garantir que les solutions d’IA adoptées et déployées par (la Californie)… ne puissent pas être détournées par des acteurs malveillants », a déclaré le bureau du gouverneur dans un communiqué de presse annonçant le décret.
Au niveau fédéral, Trump a signé des décrets exécutifs pour décourager les États de réglementer l’IA et a exhorté les agences fédérales à adopter l’IA afin de faire des choses comme réduire la réglementation fédérale et accélérer les décisions prises concernant Medicare. La Maison-Blanche a présenté le mois dernier un cadre de politique sur l’IA que le président veut voir examiné par le Congrès. Cette proposition adopte une approche légère de la réglementation et ne traite pas des questions liées aux biais, à la discrimination ou aux droits civils.
Il s’agit du second décret exécutif signé par Newsom pour traiter de l’intelligence artificielle. Un décret de 2023, visant exclusivement l’IA générative, le type qui alimente des systèmes comme ChatGPT et Midjourney, demandait également davantage d’usage de l’IA par les agences de l’État et leur ordonnait de mettre en place des garde-fous.
La manière dont Newsom gère les questions liées à l’IA est étroitement suivie à la fois par les dirigeants syndicaux, qui en février ont promis qu’ils ne soutiendraient pas sa candidature à la présidence sans davantage de protections pour les travailleurs contre la technologie, et par les grands donateurs de la tech, qui déversent de l’argent pour influencer la politique californienne avant les élections de mi-mandat cet automne.
Cette histoire a été publiée à l’origine par CalMatters et diffusée dans le cadre d’un partenariat avec The Associated Press.