Bruselas abre conversaciones separadas sobre seguridad de IA con OpenAI y Anthropic

robot
Generación de resúmenes en curso

El lunes, la Comisión Europea dijo que está hablando con OpenAI y Anthropic sobre sus modelos de IA, pero las dos conversaciones no parecen tener nada en común.

Thomas Regnier, portavoz de la Comisión en Bruselas, dijo a los periodistas que OpenAI fue la primera en ofrecer acceso a su modelo más reciente. La Comisión calificó la medida como proactiva.

Por otro lado, Anthropic se ha reunido con funcionarios cuatro o cinco veces, pero aún no ha surgido el acceso a los modelos.

“Con uno (OpenAI), tienes una empresa que ofrece proactivamente dar acceso a la empresa. Con el otro (Anthropic), tenemos buenos intercambios aunque no estamos en una etapa en la que podamos especular sobre un posible acceso o no”, dijo Regnier durante la rueda de prensa.

Los gobiernos están estrechando el círculo alrededor de la IA de frontera

El momento no es aleatorio. Los gobiernos de todas partes están prestando atención a los sistemas de IA avanzados.

Este año, la Ley de IA de la UE comenzó a entrar en vigor. Se implementa por etapas. La regulación establece reglas basadas en riesgos para los proveedores de IA que operan en Europa.

Las empresas no están obligadas a entregar los modelos al gobierno para revisarlos antes de ponerlo en el mercado, pero está claro que la Comisión quiere saber más sobre lo que se avecina.

OpenAI y Anthropic son las dos mayores empresas estadounidenses que trabajan en IA de vanguardia.

Sus sistemas de IA siguen siendo más capaces, y los reguladores se esfuerzan por entender qué significa eso realmente.

El servicio audiovisual de la Comisión listó la discusión entre OpenAI y Anthropic bajo “Ciberseguridad” en la agenda del briefing del mediodía del 11 de mayo. Está junto a política de defensa y migración.

Washington se acerca a controles previos obligatorios

Mientras Bruselas habla, Washington podría exigirlo.

La Casa Blanca está considerando un plan para revisar los modelos de IA más potentes antes de que salgan a la luz pública.

Esa idea ganó impulso después de que Anthropic retuviera un acceso más amplio a su último modelo, Mythos, cuando las pruebas internas mostraron que podía encontrar errores de software explotables a gran escala.

El Instituto de Seguridad de IA del Reino Unido enfrentó problemas similares en abril cuando evaluó GPT-5.5 de OpenAI.

El modelo reingeniería una máquina virtual personalizada y resolvió un desafío complejo más rápido que un experto humano, según los hallazgos que Cryptopolitan reportó anteriormente.

Las mentes más inteligentes en criptomonedas ya leen nuestro boletín. ¿Quieres unirte? Únete a ellos.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado