El FMI emite alerta ya que las herramientas avanzadas de IA amenazan la estabilidad financiera global

El Fondo Monetario Internacional (FMI) ha emitido una advertencia sobre el peligro que representa la naturaleza sofisticada de la inteligencia artificial. En el blog del FMI del 7 de mayo de 2026, modelos de IA más nuevos ofrecen un camino para eludir cualquier barrera financiera implementada.

Para ellos, esto sería desastroso para los mercados financieros. El FMI ha dejado claro que, aunque la tecnología proporciona mecanismos de defensa para contrarrestar tales ataques, sus capacidades ofensivas superan sus fortalezas defensivas.

El FMI destaca el aumento de amenazas cibernéticas de IA a la estabilidad financiera

Esta advertencia se da en un contexto de dependencia creciente de la tecnología, como infraestructura compartida, incluyendo software y redes, que alimentan pagos y transferencias de información en todo el mundo. En su informe, el FMI advirtió que estos riesgos no pueden verse de forma aislada, sino que son sistémicos y pueden propagarse de las finanzas a otras industrias, como energía y telecomunicaciones.

Un ejemplo importante citado es Claude Mythos Preview de Anthropic, un potente modelo de IA introducido en un entorno cuidadosamente monitoreado. El FMI explicó además que Mythos puede detectar y aprovechar vulnerabilidades en todos los principales sistemas operativos y navegadores web, independientemente de si sus operadores poseen alguna experiencia específica.

Tal tecnología es un preludio a un futuro en el que los exploits de “día cero”—que han sido difíciles de crear y explotar en el pasado—serán comunes. El blog también mencionó el modelo cibernético GPT-5.5 de OpenAI, único en su tipo.

Potencial de contagio sistémico y disrupciones en los mercados globales

Como afirma el FMI, la interconexión de las finanzas globales crea un efecto multiplicador exponencial para las amenazas financieras mundiales. Según el FMI, “Los riesgos cibernéticos son cada vez más acerca de fallos correlacionados que podrían amenazar la intermediación financiera, los pagos y la confianza a nivel sistémico.”

Esto se debe a que unas pocas plataformas clave se utilizan en computación en la nube, desarrollo de software y aprendizaje automático. El informe argumenta que la IA puede crear una mayor concentración y fallos a través de una vulnerabilidad que afecta a muchas instituciones. Los países en desarrollo son vulnerables a ciberataques debido a recursos limitados y medidas de protección cibernética inadecuadas.

Aunque el FMI no proporcionó cifras específicas de pérdidas en su última actualización, citó estudios anteriores que destacaban la posibilidad de que tales eventos escalen a problemas de solvencia y impactos más amplios.

Llamados urgentes a la cooperación global en riesgos financieros de IA

Como medida contraria, el FMI está promoviendo ahora un “marco de política de resiliencia primero” que considera la ciberseguridad como un componente integral de la estabilidad financiera. “Las defensas siempre serán penetradas en algún momento, por lo que la resiliencia también es importante, especialmente para prevenir la propagación del daño y asegurar la recuperación,” explicó el blog.

La Directora Gerente del FMI, Kristalina Georgieva, reforzó el mensaje el mes pasado, afirmando en una entrevista: “Estamos muy interesados en ver más atención a las barreras que son necesarias para proteger la estabilidad financiera en un mundo de IA.”

La Casa Blanca moviliza toda la respuesta gubernamental ante los riesgos de IA avanzada

La Administración Trump está haciendo esfuerzos para garantizar que las empresas estadounidenses y las instituciones gubernamentales estén protegidas de los riesgos de ciberseguridad derivados de los nuevos programas de inteligencia artificial, según el Director del Consejo Económico Nacional, Kevin Hassett, en una entrevista con Fox Business el miércoles 6 de mayo de 2026.

Hassett apareció en “Mornings with Maria” de Maria Bartiromo y afirmó que la Casa Blanca está trabajando con empresas privadas para realizar pruebas exhaustivas de los nuevos modelos de IA antes de su despliegue. Estas declaraciones siguen a las preocupaciones sobre las capacidades de Mythos, un modelo de IA de primera categoría desarrollado por Anthropic.

“Pero hemos movilizado un esfuerzo de toda la administración y del sector privado para coordinar y asegurarnos de que, antes de que este modelo sea liberado al público, haya sido probado exhaustivamente para garantizar que no cause daño a las empresas estadounidenses ni al gobierno estadounidense,” afirmó Hassett.

“Estamos estudiando posiblemente una orden ejecutiva para dar una hoja de ruta clara a todos sobre cómo va a proceder esto y cómo las futuras IA que potencialmente creen vulnerabilidades deben pasar por un proceso, de modo que, ya sabes, sean liberadas en la calle después de haber sido probadas y demostradas seguras, como un medicamento de la FDA,” explicó.

Las mentes más inteligentes en criptomonedas ya leen nuestro boletín. ¿Quieres unirte? Únete a ellos.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado