Personne ne gouverne l'IA

_ Une version de cet article est apparue à l’origine dans la newsletter « AI & Tech » de Quartz. Inscrivez-vous ici pour recevoir les dernières actualités sur l’IA et la tech, analyses et informations en direct dans votre boîte mail._

L’intelligence artificielle prend désormais des décisions d’embauche, donne des cours à des enfants, optimise des réseaux électriques et cible des systèmes d’armes. Les règles régissant l’un quelconque de ces domaines sont, presque partout, inexistantes, bloquées en commission, ou font activement l’objet d’attaques.

Aux États-Unis, le gouvernement fédéral a passé trois ans à produire des décrets exécutifs, des cadres et des lignes directrices, dont aucun n’est devenu une loi. Les États qui ont tenté de combler ce vide ont été menacés de coupes de financement et de poursuites. En Europe, la législation sur l’IA la plus ambitieuse au monde est retardée ou édulcorée avant même que la majeure partie d’entre elle n’entre en vigueur. De son côté, la technologie n’a fait une pause pour tout cela.

Les États refusent de reculer

La dernière initiative de Washington est un cadre législatif sur l’IA publié en mars, appelant le Congrès à adopter des règles fédérales qui remplaceraient les lois des États. La Maison-Blanche a fait valoir qu’un patchwork de réglementations étatiques ralentirait les entreprises américaines et donnerait un avantage à la Chine. La proposition abordait la sécurité des enfants, les coûts énergétiques des centres de données et la propriété intellectuelle, tout en rendant clair que la priorité était une politique nationale uniforme.

Les États l’ont largement ignorée.

Le gouverneur de Californie, Gavin Newsom, a publié un décret exécutif exigeant que les entreprises d’IA qui contractent avec l’État suivent des normes de sécurité et de confidentialité, et a déclaré qu’il se battrait pour préserver les lois californiennes existantes protégeant les résidents contre les dommages liés à l’IA.

New York a adopté un projet de loi imposant aux entreprises de signaler les incidents de sécurité liés à l’IA. L’Illinois a modifié le droit relatif aux droits de l’homme pour exiger des divulgations lorsque l’IA est utilisée dans le recrutement. Le Minnesota a sept projets de loi sur l’IA en cours d’examen par son parlement cette année.

L’administration a utilisé davantage de documents de politique publique pour contrer les efforts que de réels changements réglementaires. Une lettre de la Maison-Blanche aux législateurs de l’Utah a effectivement tué un projet de loi qui aurait exigé des entreprises d’IA qu’elles publient des plans de sécurité. Le gouverneur de Floride n’a pas réussi à faire adopter un projet de loi sur l’IA après que la Maison-Blanche s’est prononcée contre toute intervention au niveau des États.

Le désaccord a provoqué des fractures au sein du Parti républicain. Le législateur de l’Utah qui avait présenté le projet de loi sur l’IA tué par la Maison-Blanche prévoit de le redéposer. Un groupe de législateurs républicains a écrit à la Maison-Blanche pour lui demander de permettre aux États d’agir.

L’administration a aussi tenté de prendre la tête sur les centres de données. En mars, le président Trump a réuni à la Maison-Blanche des dirigeants d’Amazon $AMZN +0.46%, Google $GOOGL +1.82%, OpenAI, Microsoft $MSFT -0.16% et d’autres, afin qu’ils signent un engagement volontaire les obligeant à couvrir les coûts énergétiques de leurs centres de données, en réponse à la colère bipartisan suscitée par la hausse des factures de services publics. L’engagement ne prévoyait aucune pénalité en cas de non-respect.

Les États ne se sont pas non plus laissés attendre. L’Indiana et l’Ohio ont déjà adopté des lois imposant aux grands consommateurs d’énergie de payer l’infrastructure construite pour les servir. En Géorgie, un projet de loi similaire a échoué après un lobbying intensif de l’industrie des centres de données. La Virginie examine s’il faut mettre fin à une exonération de taxe de vente pour les centres de données dont le coût pour l’État s’est élevé à 1,6 milliard de dollars l’an dernier.

L’Europe cligne des yeux

De l’autre côté de l’Atlantique, le tableau est une autre version de la dysfonction. L’UE a passé des années à construire le cadre réglementaire sur l’IA le plus ambitieux au monde, la loi sur l’IA (AI Act), entrée en vigueur en 2024. Désormais, elle marche une partie de ces mesures en arrière.

Le Parlement européen a voté pour repousser la date limite de conformité pour les systèmes d’IA à haut risque à fin 2027, tandis que des règles spécifiques par secteur pour les applications médicales et automobiles sont encore davantage retardées jusqu’en 2028.

La Commission européenne propose également d’assouplir certaines parties du Règlement général sur la protection des données, mieux connu sous le nom de RGPD (GDPR), afin de faciliter le partage des données personnelles par les entreprises pour l’entraînement de l’IA. Même les célèbres fenêtres pop-up d’acceptation des cookies de la région sont rationalisées.

Ces reculs sont intervenus après un lobbying soutenu de la part des entreprises de tech américaines et la pression de Washington. Les responsables européens ont présenté les changements comme des ajustements pragmatiques pour éviter d’enterrer les plus petites entreprises européennes sous le poids des coûts de conformité. Les critiques l’ont décrit plus simplement : Bruxelles a cligné des yeux.

Tout n’est pas adouci. Le Parlement de l’UE a voté l’interdiction des applications dites de « nudification », des outils d’IA qui génèrent des images intimes non consensuelles, marquant l’une des premières interdictions à part entière d’une catégorie de produit spécifique liée à l’IA. Cette décision est intervenue à la suite d’un scandale impliquant Grok, le système d’IA sur X $TWTR 0.00%, qui a produit un flot de deepfakes sexualisés de femmes et de filles après le déploiement, à la fin de 2025, d’une nouvelle fonctionnalité de retouche d’images.

La stratégie en double voie, en repoussant des exigences larges de conformité tout en interdisant des préjudices spécifiques, reflète l’impasse dans laquelle les régulateurs se retrouvent partout. La technologie avance plus vite que les calendriers législatifs. Si vous corrigez trop, vous risquez d’étrangler l’innovation ; si vous corrigez insuffisamment, de vraies personnes en subissent les conséquences.

Des sondages montrent que des majorités d’Américains veulent des garde-fous pour l’IA. Il en va de même pour les électeurs en Europe. Ce qu’ils obtiennent à la place, c’est davantage d’IA, dans leurs écoles, dans les cabinets de leurs médecins, dans leurs lieux de travail, avec très peu de supervision.

📬 Inscrivez-vous pour la Daily Brief

Notre briefing gratuit, rapide et ludique sur l’économie mondiale, livré chaque matin du lundi au vendredi.

Je m’inscris

GROK3,21%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler