Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Plus de la moitié des juges fédéraux américains utilisent l'IA
(MENAFN) Selon une nouvelle étude de l’Université Northwestern, la majorité des juges fédéraux américains ont intégré discrètement l’intelligence artificielle à leur travail judiciaire quotidien — une constatation qui suscite une vigilance urgente de la part d’experts en droit concernant les risques que ces outils font peser sur l’intégrité des tribunaux.
L’étude, fondée sur des réponses à un sondage de 112 juges fédéraux issus d’un échantillon aléatoire de 502 responsables couvrant les juridictions de faillite, les magistrats, les tribunaux de district et les cours d’appel, a révélé que 60% des juges fédéraux emploient désormais au moins un outil d’IA dans une certaine mesure. Environ 22% ont déclaré utiliser de tels outils de manière quotidienne ou hebdomadaire.
La recherche juridique est apparue comme l’application la plus répandue, citée par 30% des répondants, suivie de l’examen de documents à 16%. La rédaction et la correction ont également été mentionnées parmi les usages courants. Les résultats interviennent à un moment particulièrement délicat : des erreurs produites par l’IA — notamment des citations juridiques fabriquées — ont déjà ébranlé la confiance dans les dépôts des avocats dans plusieurs juridictions.
Le sondage a mis en évidence un net clivage quant à la manière dont les tribunaux gèrent la technologie en interne. Environ un juge sur trois a déclaré autoriser ou encourager activement l’usage de l’IA dans leurs chambres, tandis que 20% ont instauré des interdictions formelles. Fait plus marquant encore : plus de 45% des juges interrogés ont indiqué n’avoir jamais reçu de formation liée à l’IA de la part de l’administration du tribunal — un manque que les critiques jugent intenable au regard des enjeux.
Des universitaires du droit lancent l’alerte. Eric Posner, professeur de droit à l’Université de Chicago, a formulé un avertissement sans détour : « Les juges rendent des décisions très importantes pour des personnes et tranchent des différends majeurs. Ils ne peuvent pas miser sur une technologie qui n’est pas entièrement comprise et dont on sait qu’elle “hallucine”. »
Toutefois, toutes les voix ne sont pas empreintes de prudence. Les défenseurs de l’adoption de l’IA judiciaire soutiennent que la technologie offre une promesse réelle pour alléger des charges d’affaires écrasantes et rationaliser les opérations des tribunaux. Christopher Patterson, juge en chef en Floride, a proposé une approbation mesurée : « Nous sommes prudents mais les résultats initiaux sont très positifs. Nous évaluons la précision, l’adéquation et les gains de temps. »
Le débat se déroule dans un contexte d’escalade des mesures disciplinaires. En mars, des juges de New York ont appelé publiquement les avocats à vérifier toutes les citations générées par l’IA après que plusieurs mémoires se sont révélés contenir des références d’affaires entièrement inventées. media a rapporté en décembre que les citations “hallucinées” étaient devenues un problème systémique dans l’ensemble de la profession juridique, et le mois précédent, plusieurs avocats ont fait l’objet de sanctions financières après avoir soumis des dépôts truffés de centaines de références fausses générées par l’IA.
Les inquiétudes vont bien au-delà des murs de la salle d’audience. À l’échelle mondiale, des experts alertent sur l’empreinte croissante de l’IA dans la prise de décision à fort enjeu, en avertissant que sa tendance documentée à produire des sorties fausses ou trompeuses rend son usage dans des affaires ayant des conséquences juridiques — où les décisions peuvent déterminer des moyens de subsistance, la liberté et des vies — un défi profond en matière de responsabilité, que les cadres de contrôle existants sont mal équipés pour aborder.
MENAFN05042026000045017169ID1110943873