L'IA en Europe : ce que pourrait signifier la loi sur l'IA

Photo par Maico Amorim sur Unsplash


La loi sur l’IA est encore à l’état de projet, mais les investisseurs et les entrepreneurs en Europe sont déjà nerveux quant aux résultats possibles.

Empêchera-t-elle l’Union européenne de rester un concurrent précieux dans l’espace mondial ?

Selon les régulateurs, ce n’est pas le cas. Mais voyons ce qui se passe.

La loi sur l’IA et l’évaluation des risques

La loi sur l’IA divise les risques posés par l’intelligence artificielle en différentes catégories de risques, mais avant cela, elle limite la définition de l’intelligence artificielle à inclure uniquement les systèmes basés sur l’apprentissage automatique et la logique.

Cela ne sert pas seulement à différencier les systèmes d’IA des logiciels plus simples, mais aussi à comprendre pourquoi l’UE souhaite catégoriser le risque.

Les différentes utilisations de l’IA sont classées en risque inacceptable, un risque élevé, et
risque faible ou minimal. Les pratiques relevant de la catégorie du risque inacceptable sont considérées comme interdites.

Ce type de pratiques inclut :

*   Pratiques impliquant des techniques qui agissent au-delà de la conscience d'une personne, 
*   Pratiques cherchant à exploiter des parties vulnérables de la population, 
*   Systèmes basés sur l'IA mis en place pour classer les personnes selon des caractéristiques ou comportements personnels,
*   Systèmes basés sur l'IA utilisant l'identification biométrique dans les espaces publics. 

Il existe certains cas d’utilisation, qui devraient être considérés comme similaires à certaines pratiques incluses dans les activités interdites, relevant de la catégorie des pratiques « à haut risque ».

Cela inclut les systèmes utilisés pour recruter des travailleurs ou pour évaluer et analyser la solvabilité des personnes (ce qui pourrait être dangereux pour la fintech). Dans ces cas, toutes les entreprises qui créent ou utilisent ce type de système doivent produire des rapports détaillés pour expliquer comment le système fonctionne et les mesures prises pour éviter les risques pour les personnes et pour être aussi transparent que possible.

Tout semble clair et correct, mais il y a certains problèmes que les régulateurs devraient aborder.

La loi semble trop générique

L’un des aspects qui inquiètent le plus les entrepreneurs et les investisseurs est le manque d’attention portée à des secteurs spécifiques de l’IA.

Par exemple, les entreprises qui produisent et utilisent des systèmes d’IA à des fins générales pourraient être considérées comme celles qui utilisent l’intelligence artificielle pour des cas d’usage à haut risque.

Cela signifie qu’elles devraient produire des rapports détaillés qui coûtent du temps et de l’argent. Étant donné que les PME ne font pas exception, et qu’elles constituent la majorité des économies européennes, elles pourraient devenir moins compétitives avec le temps.

Et c’est précisément la différence entre les entreprises d’IA américaines et européennes qui soulève de grandes inquiétudes : en effet, l’Europe ne dispose pas de grandes entreprises d’IA comme aux États-Unis, car l’environnement de l’IA en Europe est principalement créé par des PME et des startups.

Selon une enquête menée par appliedAI, une large majorité d’investisseurs éviteraient d’investir dans des startups qualifiées de « à haut risque », précisément à cause de la complexité de cette classification.

ChatGPT a changé les plans de l’UE

Les régulateurs de l’UE auraient dû clôturer le document le 19 avril, mais la discussion sur les différentes définitions des systèmes d’IA et leurs cas d’usage a retardé la livraison du projet final.

De plus,

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler