IA en Europa: Lo que podría significar la Ley de IA

Foto de Maico Amorim en Unsplash


El AI Act todavía es solo un borrador, pero los inversores y los propietarios de negocios en la Unión Europea ya están nerviosos por los posibles resultados.

¿Evitará que la Unión Europea sea un competidor valioso en el espacio global?

Según los reguladores, no es así. Pero veamos qué está pasando.

El AI Act y la evaluación de riesgos

El AI Act divide los riesgos que plantea la inteligencia artificial en diferentes categorías de riesgo, pero antes de hacerlo, acota la definición de inteligencia artificial para incluir únicamente aquellos sistemas basados en el aprendizaje automático y la lógica.

Esto no solo sirve para diferenciar los sistemas de IA de software más simple, sino también para ayudarnos a entender por qué la UE quiere categorizar el riesgo.

Los diferentes usos de la IA se clasifican en riesgo inaceptable, un riesgo alto, y
riesgo bajo o mínimo. Las prácticas que entran en la categoría de riesgo inaceptable se consideran como prohibidas.

Este tipo de prácticas incluye:

*   Prácticas que implican técnicas que funcionan más allá de la conciencia de una persona, 
*   Prácticas que buscan explotar partes vulnerables de la población, 
*   Sistemas basados en IA puestos en marcha para clasificar a las personas según características o comportamientos personales,
*   Sistemas basados en IA que utilizan identificación biométrica en espacios públicos. 

Hay algunos casos de uso que deberían considerarse similares a algunas de las prácticas incluidas en las actividades prohibidas, y que caen en la categoría de prácticas de “alto riesgo”.

Entre ellos, se incluyen sistemas que se usan para reclutar trabajadores o para evaluar y analizar la solvencia crediticia de las personas (y esto podría ser peligroso para fintech). En estos casos, todas las empresas que creen o usen este tipo de sistema deben producir informes detallados para explicar cómo funciona el sistema y las medidas adoptadas para evitar riesgos para las personas y ser lo más transparentes posible.

Todo parece claro y correcto, pero hay algunos problemas que los reguladores deberían abordar.

La Ley parece demasiado genérica

Uno de los aspectos que más preocupa a los propietarios de negocios y a los inversores es la falta de atención hacia sectores específicos de la IA.

Por ejemplo, esas empresas que producen y utilizan sistemas basados en IA para fines generales podrían considerarse como aquellas que utilizan inteligencia artificial para casos de uso de alto riesgo.

Esto significa que deben producir informes detallados, que cuestan tiempo y dinero. Como las pymes no son una excepción, y como constituyen la mayor parte de las economías europeas, podrían volverse menos competitivas con el tiempo.

Y precisamente es la diferencia entre las empresas de IA de Estados Unidos y las europeas lo que genera grandes inquietudes: de hecho, Europa no tiene grandes empresas de IA como las de Estados Unidos, ya que el ecosistema de IA en Europa se crea principalmente por pymes y startups.

Según una encuesta realizada por appliedAI, la gran mayoría de los inversores evitaría invertir en startups etiquetadas como “alto riesgo”, precisamente por las complejidades que implica esta clasificación.

ChatGPT cambió los planes de la UE

Los reguladores de la UE deberían haber cerrado el documento el 19 de abril, pero la discusión relacionada con las diferentes definiciones de los sistemas basados en IA y sus casos de uso retrasó la entrega del borrador final.

Además, las empresas tecnológicas mostraron que no todas están de acuerdo con la versión actual del documento.

El punto que más causó retrasos es la diferenciación entre modelos fundacionales y IA de propósito general.

Un ejemplo de modelos fundacionales de IA es el ChatGPT de OpenAI: estos sistemas se entrenan con grandes cantidades de datos y pueden generar cualquier tipo de salida.

La IA de propósito general incluye esos sistemas que pueden adaptarse a diferentes casos de uso y sectores.

Los reguladores de la UE quieren regular estrictamente los modelos fundacionales, ya que podrían plantear más riesgos y afectar negativamente la vida de las personas.

Cómo regulan la IA Estados Unidos y China

Si observamos cómo tratan los reguladores de la UE a la IA, hay algo que destaca: parece que los reguladores están menos dispuestos a cooperar.

En Estados Unidos, por ejemplo, la administración de Biden buscó comentarios públicos sobre la seguridad de sistemas como ChatGPT, antes de diseñar un posible marco regulatorio.

En China, el gobierno lleva años regulando la IA y la recopilación de datos, y su principal preocupación sigue siendo la estabilidad social.

Hasta ahora, el país que parece estar bien posicionado en la regulación de la IA es el Reino Unido, que prefirió un enfoque “ligero”; pero no es ningún secreto que el Reino Unido quiere convertirse en líder en la adopción de IA y fintech.

Fintech y el AI Act

Cuando se trata de empresas y startups que ofrecen servicios financieros, la situación es incluso más complicada.

De hecho, si la Ley se mantiene como la versión actual, las fintech no solo tendrán que estar vinculadas a las regulaciones financieras actuales, sino también a este nuevo marco regulatorio.

El hecho de que la evaluación de la solvencia crediticia pueda etiquetarse como un caso de uso de alto riesgo es solo un ejemplo de la carga que las empresas fintech deberían soportar, impidiéndoles ser tan flexibles como lo han sido hasta ahora, para captar inversiones y ser competitivas.

Conclusión

Como señaló Peter Sarlin, CEO de Silo AI, el problema no es la regulación, sino la mala regulación.

Ser demasiado genérica podría perjudicar la innovación y a todas las empresas involucradas en la producción, distribución y uso de productos y servicios basados en IA.

Si los inversores de la UE se preocupan por los riesgos potenciales que implica una etiqueta que indica que una startup o empresa cae en la categoría de “alto riesgo”, el ecosistema de IA en la Unión Europea podría verse afectado negativamente, mientras que Estados Unidos busca comentarios públicos para mejorar su tecnología y China ya tiene una opinión clara sobre cómo regular la inteligencia artificial.

Según Robin Röhm, cofundador de Apheris, uno de los posibles escenarios es que las startups se muden a Estados Unidos: un país que quizá tiene mucho que perder cuando se trata de blockchain y criptomonedas, pero que podría ganar la carrera de la IA.


Si quieres saber más sobre fintech y descubrir noticias de fintech, eventos y opiniones, ¡suscríbete a FTW Newsletter!

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado