Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Résolution de crimes par l'IA : la police américaine étend ses outils d'IA
Les outils de résolution de crimes par intelligence artificielle sont adoptés à un rythme accéléré par les agences de police à travers les États-Unis, avec des résultats qui peuvent être spectaculaires mais que les experts et les défenseurs des libertés civiles estiment comporter de graves risques de fausses pistes, d’enquêtes injustifiées et de violations du processus équitable.
Résumé
L’utilisation de l’intelligence artificielle par les forces de l’ordre américaines n’est plus expérimentale. Selon le Washington Post, les agences de police à travers le pays déploient des outils d’IA pour aider les enquêteurs à analyser des preuves, repérer des motifs et générer des pistes plus rapidement que ne le permettent les méthodes traditionnelles. Les résultats ont attiré l’attention. Tout comme les préoccupations.
Comment la police utilise l’IA et ce qu’elle peut faire
Les outils d’IA sont utilisés dans la police américaine pour des fonctions telles que la reconnaissance faciale, la police prédictive, l’analyse de preuves et la correspondance de motifs entre bases de données. La technologie permet aux enquêteurs de traiter des informations à une échelle et une vitesse impossibles manuellement, et les responsables de la police affirment qu’elle a permis de résoudre des affaires qui auraient autrement été classées.
La CIA a annoncé une démarche parallèle dans le domaine du renseignement. Comme crypto.news l’a rapporté aujourd’hui, le directeur adjoint de la CIA, Michael Ellis, a confirmé que l’agence prévoit d’intégrer des collègues IA dans toutes ses plateformes analytiques d’ici deux ans pour aider les agents à identifier des tendances en renseignement étranger et rédiger des rapports, Ellis déclarant que la CIA “ne peut pas permettre que les caprices d’une seule entreprise limitent nos capacités.”
Ce que les experts mettent en garde
Les préoccupations soulevées par les chercheurs et les défenseurs des libertés civiles portent principalement sur trois points : la précision des pistes générées par l’IA, le manque de transparence sur la façon dont les systèmes d’IA parviennent à leurs conclusions, et le potentiel d’erreurs pouvant nuire à des innocents avant qu’elles ne soient identifiées et corrigées.
Les systèmes d’IA entraînés sur des données biaisées peuvent produire des résultats biaisés, et dans un contexte de police, une fausse piste d’un outil d’IA peut déclencher une surveillance, un interrogatoire ou une arrestation avant que l’erreur ne soit détectée. Comme crypto.news l’a noté, l’IA a déjà montré sa capacité à intensifier des opérations trompeuses dans les contextes financier et numérique, la société d’intelligence blockchain Elliptic avertissant que “la grande majorité des menaces liées à l’IA dans la crypto sont encore à leurs débuts” tout en appelant à la vigilance.
La question de la responsabilité
La préoccupation la plus profonde est structurelle : lorsqu’un outil d’IA génère une piste menant à une enquête injustifiée, qui en est responsable ? Les agences de police n’ont pas encore fourni de réponses claires sur la supervision, les mécanismes d’audit ou la réparation. Le reportage du Washington Post du 10 avril suggère que l’adoption de ces outils s’est accélérée plus vite que les cadres de responsabilité destinés à les encadrer.