Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
L'IA en Europe : ce que pourrait signifier la loi sur l'IA
Photo de Maico Amorim sur Unsplash
Le règlement sur l’IA (AI Act) n’est encore qu’un projet, mais les investisseurs et les propriétaires d’entreprises dans l’Union européenne sont déjà nerveux à propos des résultats possibles.
Va-t-il empêcher l’Union européenne de rester un concurrent précieux dans l’espace mondial ?
D’après les autorités de régulation, ce n’est pas le cas. Mais voyons ce qui se passe.
Le règlement sur l’IA et l’évaluation des risques
L’AI Act divise les risques posés par l’intelligence artificielle en différentes catégories de risque, mais avant de le faire, il restreint la définition de l’intelligence artificielle pour n’inclure que les systèmes fondés sur l’apprentissage automatique et la logique.
Cela ne sert pas uniquement à différencier les systèmes d’IA des logiciels plus simples, mais aussi à nous aider à comprendre pourquoi l’UE veut catégoriser le risque.
Les différents usages de l’IA sont classés en risque inacceptable, un risque élevé, et
risque faible ou minimal. Les pratiques qui relèvent de la catégorie du risque inacceptable sont considérées comme interdites.
Ce type de pratiques inclut :
Il existe certains cas d’usage qui devraient être considérés comme similaires à certaines des pratiques incluses dans les activités interdites, et qui relèvent de la catégorie des « pratiques à haut risque ».
Ces cas incluent les systèmes utilisés pour recruter des travailleurs ou pour évaluer et analyser la solvabilité des personnes (et cela pourrait être dangereux pour la fintech). Dans ces cas, toutes les entreprises qui créent ou utilisent ce type de système doivent produire des rapports détaillés pour expliquer le fonctionnement du système et les mesures prises pour éviter les risques pour les personnes et pour être aussi transparentes que possible.
Tout semble clair et correct, mais il y a quelques problèmes que les autorités de régulation devraient traiter.
La loi semble trop générique
Un des aspects qui inquiète le plus les propriétaires d’entreprises et les investisseurs est le manque d’attention portée à des secteurs spécifiques de l’IA.
Par exemple, les entreprises qui produisent et utilisent des systèmes d’IA à usage général pourraient être considérées comme celles qui utilisent l’intelligence artificielle pour des cas d’usage à haut risque.
Cela signifie qu’elles devraient produire des rapports détaillés qui coûtent du temps et de l’argent. Comme les PME ne font aucune exception, et comme elles constituent la plus grande partie des économies européennes, elles pourraient devenir moins compétitives au fil du temps.
Et c’est précisément la différence entre les entreprises d’IA américaines et européennes qui suscite de grosses inquiétudes : en fait, l’Europe n’a pas de grandes entreprises d’IA comme les États-Unis, puisque l’environnement de l’IA en Europe est principalement créé par des PME et des startups.
D’après une enquête menée par appliedAI, la grande majorité des investisseurs éviterait d’investir dans des startups étiquetées « à haut risque », précisément à cause des complexités impliquées dans cette classification.
ChatGPT a changé les plans de l’UE
Les autorités de régulation de l’UE auraient dû clôturer le document le 19 avril, mais les discussions liées aux différentes définitions des systèmes fondés sur l’IA et à leurs cas d’usage ont retardé la publication du projet final.
De plus, les entreprises technologiques ont montré que tout le monde n’est pas d’accord avec la version actuelle du document.
Le point qui a le plus causé des retards est la différenciation entre les modèles de fondation et l’IA à usage général.
Un exemple de modèles de fondation de l’IA est le ChatGPT d’OpenAI : ces systèmes sont entraînés avec de grandes quantités de données et peuvent générer n’importe quel type de sortie.
L’IA à usage général inclut les systèmes qui peuvent être adaptés à différents cas d’usage et secteurs.
Les autorités de régulation de l’UE veulent réglementer strictement les modèles de fondation, car ils pourraient poser davantage de risques et affecter négativement la vie des personnes.
Comment les États-Unis et la Chine régulent l’IA
Si l’on examine la manière dont les autorités de l’UE traitent l’IA, il y a quelque chose qui se distingue : il semble que les régulateurs soient moins disposés à coopérer.
Aux États-Unis, par exemple, l’administration Biden a sollicité des commentaires du public sur la sécurité de systèmes comme ChatGPT, avant de concevoir un éventuel cadre réglementaire.
En Chine, le gouvernement régule l’IA et la collecte de données depuis des années, et sa principale préoccupation reste la stabilité sociale.
Jusqu’à présent, le pays qui semble le mieux placé pour la réglementation de l’IA est le Royaume-Uni, qui a privilégié une approche « légère » — mais ce n’est un secret pour personne que le Royaume-Uni veut devenir un leader en matière d’adoption de l’IA et de la fintech.
Fintech et l’AI Act
En ce qui concerne les entreprises et les startups qui fournissent des services financiers, la situation est encore plus compliquée.
En fait, si l’Act reste sous la forme de la version actuelle, les acteurs de la fintech devront non seulement s’aligner sur les réglementations financières en vigueur, mais aussi sur ce nouveau cadre réglementaire.
Le fait que l’évaluation de la solvabilité puisse être qualifiée de cas d’usage à risque élevé n’est qu’un exemple du fardeau que les entreprises fintech devront porter, les empêchant d’être aussi flexibles qu’elles l’ont été jusqu’à présent, pour attirer des investissements et rester compétitives.
Conclusion
Comme l’a souligné Peter Sarlin, PDG de Silo AI, le problème ne vient pas de la réglementation, mais d’une mauvaise réglementation.
Être trop générique pourrait nuire à l’innovation et à toutes les entreprises impliquées dans la production, la distribution et l’utilisation de produits et services fondés sur l’IA.
Si les investisseurs de l’UE s’inquiètent des risques potentiels posés par une étiquette qui indique qu’une startup ou une entreprise relève de la catégorie « à haut risque », l’environnement de l’IA dans l’Union européenne pourrait en être affecté négativement, tandis que les États-Unis cherchent des commentaires du public pour améliorer leur technologie et que la Chine a déjà une opinion claire sur la façon de réglementer l’intelligence artificielle.
D’après Robin Röhm, cofondateur d’Apheris, un des scénarios possibles est que les startups se déplacent vers les États-Unis — un pays qui a peut-être beaucoup à perdre en matière de blockchain et de cryptomonnaies, mais qui pourrait remporter la course à l’IA.
Si vous voulez en savoir plus sur la fintech et découvrir l’actualité, des événements et des opinions liés à la fintech, abonnez-vous à la newsletter FTW !