L'IA en Europe : ce que pourrait signifier la loi sur l'IA

Photo de Maico Amorim sur Unsplash


Le règlement sur l’IA (AI Act) n’est encore qu’un projet, mais les investisseurs et les dirigeants d’entreprise dans l’Union européenne sont déjà nerveux face aux conséquences possibles.

Empêchera-t-il l’Union européenne d’être un concurrent précieux dans l’espace mondial ?

Selon les autorités de régulation, ce n’est pas le cas. Mais voyons ce qui se passe.

Le AI Act et l’évaluation des risques

Le règlement sur l’IA (AI Act) divise les risques posés par l’intelligence artificielle en différentes catégories de risques, mais avant cela, il resserre la définition de l’intelligence artificielle pour n’inclure que les systèmes fondés sur l’apprentissage automatique et la logique.

Cela ne sert pas uniquement à différencier les systèmes d’IA des morceaux de logiciels plus simples, mais aussi à nous aider à comprendre pourquoi l’UE veut catégoriser les risques.

Les différents usages de l’IA sont classés en risque inacceptable, un risque élevé, et
risque faible ou minimal. Les pratiques relevant de la catégorie de risque inacceptable sont considérées comme interdites.

Ce type de pratiques inclut :

*   Les pratiques qui font appel à des techniques qui fonctionnent au-delà de la conscience d’une personne, 
*   Les pratiques qui cherchent à exploiter des parties vulnérables de la population, 
*   Les systèmes d’IA mis en place pour classifier des personnes selon des caractéristiques ou des comportements personnels,
*   Les systèmes d’IA qui utilisent l’identification biométrique dans des espaces publics. 

Il existe certains cas d’usage qui devraient être considérés comme similaires à certaines des pratiques incluses dans les activités interdites, et qui relèvent de la catégorie des pratiques « à haut risque ».

Parmi eux, on trouve les systèmes utilisés pour recruter des travailleurs ou pour évaluer et analyser la solvabilité des personnes (et cela pourrait être dangereux pour la fintech). Dans ces cas, toutes les entreprises qui créent ou utilisent ce type de système doivent produire des rapports détaillés pour expliquer comment le système fonctionne et les mesures prises pour éviter les risques pour les personnes, et pour être aussi transparentes que possible.

Tout semble clair et correct, mais il y a quelques problèmes que les autorités de régulation devraient traiter.

L’Acte semble trop générique

L’un des aspects qui inquiètent le plus les dirigeants d’entreprise et les investisseurs est le manque d’attention portée à des secteurs spécifiques de l’IA.

Par exemple, les entreprises qui produisent et utilisent des systèmes d’IA à des fins générales pourraient être considérées comme celles qui utilisent l’intelligence artificielle pour des cas d’usage à haut risque.

Cela signifie qu’elles devraient produire des rapports détaillés qui coûtent du temps et de l’argent. Comme les PME ne font pas exception, et comme elles constituent la plus grande part des économies européennes, elles pourraient devenir moins compétitives avec le temps.

Et c’est précisément la différence entre les entreprises d’IA américaines et européennes qui suscite de grandes inquiétudes : en fait, l’Europe n’a pas de grandes entreprises d’IA comme les États-Unis, car l’écosystème de l’IA en Europe est principalement créé par des PME et des startups.

Selon une enquête menée par appliedAI, une large majorité d’investisseurs éviterait d’investir dans des startups étiquetées « à haut risque », précisément à cause des complexités liées à cette classification.

ChatGPT a modifié les plans de l’UE

Les autorités de régulation de l’UE auraient dû clôturer le document le 19 avril, mais la discussion relative aux différentes définitions des systèmes fondés sur l’IA et à leurs cas d’usage a retardé la remise du projet final.

De plus, les entreprises technologiques ont montré que toutes ne sont pas d’accord avec la version actuelle du document.

Le point qui a le plus causé des retards est la distinction entre les modèles fondateurs et l’IA à usage général.

Un exemple de modèles fondateurs d’IA est le ChatGPT d’OpenAI : ces systèmes sont entraînés à l’aide de grandes quantités de données et peuvent générer n’importe quel type de sortie.

L’IA à usage général inclut les systèmes qui peuvent être adaptés à différents cas d’usage et secteurs.

Les autorités de régulation de l’UE veulent encadrer strictement les modèles fondateurs, car ils pourraient poser davantage de risques et avoir des effets négatifs sur la vie des personnes.

Comment les États-Unis et la Chine réglementent l’IA

Si l’on examine la manière dont les autorités de l’UE traitent l’IA, on constate quelque chose qui se démarque : on dirait que les régulateurs sont moins disposés à coopérer.

Aux États-Unis, par exemple, l’administration Biden a sollicité des commentaires publics sur la sécurité de systèmes comme ChatGPT, avant de concevoir un éventuel cadre réglementaire.

En Chine, le gouvernement réglemente l’IA et la collecte de données depuis des années, et sa principale préoccupation demeure la stabilité sociale.

Jusqu’à présent, le pays qui semble le mieux placé en matière de réglementation de l’IA est le Royaume-Uni, qui a privilégié une approche « légère » — mais il n’y a pas de secret que le Royaume-Uni veut devenir un leader dans l’adoption de l’IA et de la fintech.

Fintech et l’AI Act

En ce qui concerne les entreprises et les startups qui fournissent des services financiers, la situation est encore plus compliquée.

En effet, si l’Acte reste sous la forme de la version actuelle, les acteurs de la fintech devront non seulement être liés aux réglementations financières en vigueur, mais aussi à ce nouveau cadre réglementaire.

Le fait que l’évaluation de la solvabilité puisse être qualifiée de cas d’usage à haut risque n’est qu’un exemple de la charge que les entreprises de fintech devraient porter, ce qui les empêcherait d’être aussi flexibles qu’elles l’ont été jusqu’à présent, pour mobiliser des investissements et rester compétitives.

Conclusion

Comme l’a souligné Peter Sarlin, PDG de Silo AI, le problème ne vient pas de la réglementation, mais d’une mauvaise réglementation.

Être trop générique pourrait nuire à l’innovation et à toutes les entreprises impliquées dans la production, la distribution et l’utilisation de produits et services fondés sur l’IA.

Si les investisseurs de l’UE s’inquiètent des risques potentiels liés à une étiquette indiquant qu’une startup ou une entreprise relève de la catégorie « à haut risque », l’écosystème de l’IA dans l’Union européenne pourrait en être affecté négativement, tandis que les États-Unis cherchent des commentaires publics pour améliorer leur technologie et que la Chine a déjà une opinion claire sur la manière de réglementer l’intelligence artificielle.

Selon Robin Röhm, cofondateur d’Apheris, l’un des scénarios possibles est que les startups se déplacent vers les États-Unis — un pays qui a peut-être beaucoup à perdre en matière de blockchain et de cryptomonnaies, mais qui pourrait gagner la course à l’IA.


Si vous voulez en savoir plus sur la fintech et découvrir l’actualité, les événements et les opinions dans le domaine de la fintech, abonnez-vous à la Newsletter FTW !

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler