L'IA en Europe : ce que pourrait signifier la loi sur l'IA

Photo de Maico Amorim sur Unsplash


Le règlement sur l’IA (AI Act) n’est encore qu’un projet, mais les investisseurs et les propriétaires d’entreprises dans l’Union européenne sont déjà nerveux quant aux issues possibles.

L’AI Act empêchera-t-il l’Union européenne d’être un concurrent précieux dans l’espace mondial ?

Selon les autorités de régulation, ce n’est pas le cas. Mais voyons ce qu’il se passe.

Le règlement sur l’IA et l’évaluation des risques

Le règlement sur l’IA classe les risques posés par l’intelligence artificielle en différentes catégories de risque, mais avant de le faire, il restreint la définition de l’intelligence artificielle pour inclure uniquement les systèmes fondés sur l’apprentissage automatique et la logique.

Cela ne sert pas seulement à distinguer les systèmes d’IA de logiciels plus simples, mais nous aide aussi à comprendre pourquoi l’UE veut catégoriser les risques.

Les différents usages de l’IA sont classés en risque inacceptable, en risque élevé et
en risque faible ou minimal. Les pratiques relevant de la catégorie de risque inacceptable sont considérées comme interdites.

Ce type de pratiques inclut :

*   Des pratiques impliquant des techniques qui fonctionnent au-delà de la conscience d’une personne, 
*   Des pratiques qui cherchent à exploiter des parties vulnérables de la population, 
*   Des systèmes d’IA mis en place pour classifier des personnes selon des caractéristiques ou des comportements personnels, 
*   Des systèmes d’IA utilisant l’identification biométrique dans des espaces publics. 

Il existe certains cas d’usage, qui devraient être considérés comme similaires à certaines des pratiques incluses dans les activités interdites, et qui relèvent de la catégorie des pratiques « à haut risque ».

Il s’agit notamment des systèmes utilisés pour recruter des travailleurs ou pour évaluer et analyser la solvabilité des personnes (et cela pourrait être dangereux pour la fintech). Dans ces cas, toutes les entreprises qui créent ou utilisent ce type de système doivent produire des rapports détaillés pour expliquer comment le système fonctionne et les mesures prises afin d’éviter les risques pour les personnes et d’être aussi transparent que possible.

Tout semble clair et correct, mais il y a quelques problèmes que les autorités de régulation devraient traiter.

La loi semble trop générique

L’un des aspects qui inquiète le plus les propriétaires d’entreprises et les investisseurs est le manque d’attention portée à des secteurs spécifiques de l’IA.

Par exemple, les entreprises qui produisent et utilisent des systèmes d’IA à des fins générales pourraient être considérées comme celles qui utilisent l’intelligence artificielle pour des cas d’usage à haut risque.

Cela signifie qu’elles devraient produire des rapports détaillés qui coûtent du temps et de l’argent. Comme les PME ne font aucune exception, et comme elles constituent la plus grande partie des économies européennes, elles pourraient devenir moins compétitives au fil du temps.

Et c’est précisément la différence entre les entreprises d’IA américaines et européennes qui suscite de grandes inquiétudes : en effet, l’Europe n’a pas de grandes entreprises d’IA comme les États-Unis, puisque l’écosystème de l’IA en Europe est principalement créé par les PME et les startups.

D’après une enquête menée par appliedAI, la grande majorité des investisseurs évitera d’investir dans des startups étiquetées « à haut risque », précisément à cause des complexités impliquées dans cette classification.

ChatGPT change les plans de l’UE

Les autorités de régulation de l’UE auraient dû clôturer le document le 19 avril, mais la discussion relative aux différentes définitions des systèmes d’IA et à leurs cas d’usage a retardé la remise de la version finale du projet.

De plus, les entreprises technologiques ont montré que toutes ne sont pas d’accord avec la version actuelle du document.

Le point qui a le plus causé des retards est la différenciation entre les modèles de fondation et l’IA à usage général.

Un exemple de modèles de fondation en IA est le ChatGPT d’OpenAI : ces systèmes sont entraînés à l’aide de grandes quantités de données et peuvent générer n’importe quel type de sortie.

L’IA à usage général inclut les systèmes qui peuvent être adaptés à différents cas d’usage et secteurs.

Les autorités de régulation de l’UE veulent encadrer strictement les modèles de fondation, car ils pourraient présenter davantage de risques et avoir un impact négatif sur la vie des personnes.

Comment les États-Unis et la Chine régulent l’IA

Si l’on examine la manière dont les autorités de régulation de l’UE traitent l’IA, quelque chose ressort : on dirait que les régulateurs sont moins disposés à coopérer.

Aux États-Unis, par exemple, l’administration Biden a sollicité des commentaires du public sur la sécurité de systèmes comme ChatGPT, avant de concevoir un éventuel cadre réglementaire.

En Chine, le gouvernement régule l’IA et la collecte des données depuis des années, et sa préoccupation principale demeure la stabilité sociale.

À ce jour, le pays qui semble le mieux positionné en matière de régulation de l’IA est le Royaume-Uni, qui a privilégié une approche « légère » - mais ce n’est un secret pour personne que le Royaume-Uni veut devenir un leader dans l’adoption de l’IA et de la fintech.

Fintech et l’AI Act

En ce qui concerne les entreprises et les startups qui fournissent des services financiers, la situation est encore plus compliquée.

En fait, si la loi reste telle qu’elle est dans la version actuelle, les acteurs de la fintech devront non seulement s’aligner sur les réglementations financières actuelles, mais aussi sur ce nouveau cadre réglementaire.

Le fait que l’évaluation de la solvabilité puisse être étiquetée comme un cas d’usage à haut risque n’est qu’un exemple de la charge que les entreprises de fintech devraient porter, ce qui les empêchera d’être aussi flexibles qu’elles l’ont été jusqu’à présent, de réunir des investissements et d’être compétitives.

Conclusion

Comme l’a souligné Peter Sarlin, PDG de Silo AI, le problème n’est pas la réglementation, mais une mauvaise réglementation.

Trop de généralité pourrait nuire à l’innovation et à toutes les entreprises impliquées dans la production, la distribution et l’utilisation de produits et services fondés sur l’IA.

Si les investisseurs de l’UE s’inquiètent des risques potentiels posés par une étiquette indiquant qu’une startup ou une entreprise relève de la catégorie « à haut risque », l’écosystème de l’IA au sein de l’Union européenne pourrait être affecté négativement, tandis que les États-Unis recherchent des commentaires du public pour améliorer leur technologie et que la Chine a déjà un avis clair sur la manière de réguler l’intelligence artificielle.

D’après Robin Röhm, cofondateur d’Apheris, l’un des scénarios possibles est que les startups se déplacent vers les États-Unis - un pays qui a peut-être beaucoup à perdre en matière de blockchain et de cryptomonnaies, mais qui pourrait remporter la course à l’IA.


Si vous voulez en savoir plus sur la fintech et découvrir l’actualité fintech, des événements et des opinions, abonnez-vous à la newsletter FTW !

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler