Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
IA en Europa: Lo que podría significar la Ley de IA
Photo by Maico Amorim on Unsplash
La Ley de IA sigue siendo solo un borrador, pero los inversores y propietarios de negocios en la Unión Europea ya están nerviosos por los posibles resultados.
¿Impedirá que la Unión Europea sea un competidor valioso en el espacio global?
Según los reguladores, no es el caso. Pero veamos qué está sucediendo.
La Ley de IA y la evaluación de riesgos
La Ley de IA divide los riesgos que plantea la inteligencia artificial en diferentes categorías de riesgo, pero antes de hacer eso, limita la definición de inteligencia artificial para incluir solo aquellos sistemas basados en el aprendizaje automático y la lógica.
Esto no solo sirve para diferenciar los sistemas de IA de piezas de software más simples, sino también para ayudarnos a entender por qué la UE quiere categorizar el riesgo.
Los diferentes usos de la IA se categorizan en riesgo inaceptable, alto riesgo y
bajo o mínimo riesgo. Las prácticas que caen bajo la categoría de riesgo inaceptable se consideran prohibidas.
Este tipo de prácticas incluye:
Hay algunos casos de uso, que deberían considerarse similares a algunas de las prácticas incluidas en las actividades prohibidas, que caen bajo la categoría de prácticas de “alto riesgo”.
Estos incluyen sistemas utilizados para reclutar trabajadores o para evaluar y analizar la solvencia crediticia de las personas (y esto podría ser peligroso para las fintech). En estos casos, todas las empresas que crean o utilizan este tipo de sistema deberían producir informes detallados para explicar cómo funciona el sistema y las medidas tomadas para evitar riesgos para las personas y ser lo más transparentes posible.
Todo parece claro y correcto, pero hay algunos problemas que los reguladores deberían abordar.
La Ley parece demasiado genérica
Uno de los aspectos que más preocupan a los propietarios de negocios y a los inversores es la falta de atención hacia sectores específicos de IA.
Por ejemplo, aquellas empresas que producen y utilizan sistemas basados en IA para fines generales podrían ser consideradas como aquellas que utilizan inteligencia artificial para casos de uso de alto riesgo.
Esto significa que deberían producir informes detallados que cuestan tiempo y dinero. Dado que las pymes no hacen excepción, y dado que forman la mayor parte de las economías europeas, podrían volverse menos competitivas con el tiempo.
Y es precisamente la diferencia entre las empresas de IA de EE. UU. y las de Europa la que genera mayores preocupaciones: de hecho, Europa no tiene grandes empresas de IA como EE. UU., ya que el entorno de IA en Europa es principalmente creado por pymes y startups.
Según una encuesta realizada por appliedAI, una gran mayoría de los inversores evitaría invertir en startups etiquetadas como “alto riesgo”, precisamente por las complejidades involucradas en esta clasificación.
ChatGPT cambió los planes de la UE
Los reguladores de la UE deberían haber cerrado el documento el 19 de abril, pero la discusión relacionada con las diferentes definiciones de sistemas basados en IA y sus casos de uso retrasó la entrega del borrador final.
Además, las empresas tecnológicas mostraron que no todas están de acuerdo con la versión actual del documento.
El punto que más causó retrasos es la diferenciación entre modelos de base y IA de propósito general.
Un ejemplo de modelos de base de IA es ChatGPT de OpenAI: estos sistemas son entrenados utilizando grandes cantidades de datos y pueden generar cualquier tipo de salida.
La IA de propósito general incluye aquellos sistemas que pueden ser adaptados a diferentes casos de uso y sectores.
Los reguladores de la UE quieren regular estrictamente los modelos de base, ya que podrían presentar más riesgos y afectar negativamente la vida de las personas.
Cómo EE. UU. y China están regulando la IA
Si echamos un vistazo a cómo los reguladores de la UE están tratando la IA, hay algo que destaca: parece que los reguladores son menos propensos a cooperar.
En EE. UU., por ejemplo, la administración de Biden buscó comentarios públicos sobre la seguridad de sistemas como ChatGPT, antes de diseñar un posible marco regulatorio.
En China, el gobierno ha estado regulando la IA y la recolección de datos durante años, y su principal preocupación sigue siendo la estabilidad social.
Hasta ahora, el país que parece estar bien posicionado en la regulación de la IA es el Reino Unido, que prefirió un enfoque “ligero”, pero no es un secreto que el Reino Unido quiere convertirse en un líder en la adopción de IA y fintech.
Fintech y la Ley de IA
Cuando se trata de empresas y startups que proporcionan servicios financieros, la situación es aún más complicada.
De hecho, si la Ley se mantiene en su versión actual, las fintechs no solo deberán estar sujetas a las regulaciones financieras actuales, sino también a este nuevo marco regulatorio.
El hecho de que la evaluación de la solvencia crediticia podría etiquetarse como un caso de uso de alto riesgo es solo un ejemplo de la carga que las empresas fintech deberían llevar, impidiéndoles ser tan flexibles como lo han sido hasta ahora, para reunir inversiones y ser competitivas.
Conclusión
Como señaló Peter Sarlin, CEO de Silo AI, el problema no es la regulación, sino la mala regulación.
Ser demasiado genérico podría dañar la innovación y a todas las empresas involucradas en la producción, distribución y uso de productos y servicios basados en IA.
Si los inversores de la UE están preocupados por los riesgos potenciales que plantea una etiqueta que dice que una startup o empresa cae en la categoría de “alto riesgo”, el entorno de IA en la Unión Europea podría verse afectado negativamente, mientras que EE. UU. está buscando comentarios públicos para mejorar su tecnología y China ya tiene una opinión clara sobre cómo regular la inteligencia artificial.
Según Robin Röhm, cofundador de Apheris, uno de los posibles escenarios es que las startups se muden a EE. UU. - un país que quizás tenga mucho que perder en lo que respecta a blockchain y criptomonedas, pero que podría ganar la carrera de IA.
Si quieres saber más sobre fintech y descubrir noticias, eventos y opiniones sobre fintech, ¡suscríbete al boletín de FTW!