Un alto funcionario de la Casa Blanca dijo que se debe «examinar la IA como si fuera un medicamento», al día siguiente la Casa Blanca dijo que fue sacado de contexto.

Según el monitoreo de Beating, el 4 de mayo, The New York Times reportó que la Casa Blanca estaba discutiendo la creación de un mecanismo de revisión previa al lanzamiento de modelos de IA, en ese momento aún en “consideración”. Dos días después, la situación se intensificó: el director del Consejo Económico Nacional de la Casa Blanca, Kevin Hassett, habló directamente en Fox Business el miércoles, diciendo que el gobierno estaba estudiando una orden ejecutiva que requeriría que los modelos de IA pasaran por una revisión gubernamental antes de su lanzamiento, “como la aprobación de la FDA para medicamentos”. La primera acción de Trump al asumir el cargo fue revocar la orden ejecutiva de seguridad de IA de Biden, y ahora él mismo busca una preevaluación más estricta que la de Biden. En menos de 24 horas, la Casa Blanca enfrió la situación de emergencia. Un alto funcionario dijo el jueves que las palabras de Hassett estaban “fuera de contexto”, y que la Casa Blanca buscaba “alianzas con las empresas” en lugar de “regulación gubernamental”. La jefa de gabinete de la Casa Blanca, Susie Wiles, publicó en X en la madrugada del miércoles para calmar las cosas, diciendo que el gobierno “no selecciona ganadores ni perdedores”, y que la seguridad debe ser impulsada por innovadores en lugar de burócratas. Esta fue su cuarta publicación desde que creó su cuenta oficial. Aunque el tono se suavizó, las acciones concretas no se detuvieron. Tres personas familiarizadas con el asunto dijeron a Politico que la Casa Blanca está discutiendo permitir que las agencias de inteligencia evalúen previamente los modelos antes de su publicación pública, con el objetivo de que el Departamento de Defensa pueda estudiar y aprovechar estas herramientas antes de que Rusia y China conozcan sus nuevas capacidades. El viceministro de Defensa, Emil Michael, también apoyó públicamente la preevaluación en una conferencia de IA en Washington el jueves, diciendo que Mythos es esencialmente un problema de ciberseguridad, “estos modelos llegarán tarde o temprano”, y que el gobierno debe establecer mecanismos de respuesta adecuados. El Centro de Estándares e Innovación en IA (CAISI), bajo el Departamento de Comercio, ya firmó acuerdos voluntarios de evaluación con OpenAI y Anthropic en 2024, y esta semana amplió el alcance a Google DeepMind, Microsoft y xAI. La causa inmediata de este giro en la política fue que Anthropic reveló el mes pasado que Mythos tiene una capacidad de detección de vulnerabilidades tan fuerte que no puede ser publicada públicamente. Pero la situación de la Casa Blanca es incómoda: por un lado, Trump firmó una orden ejecutiva que prohíbe a las agencias federales usar productos de Anthropic y llamó a sus ejecutivos “locos de izquierda”; por otro lado, varias agencias federales compiten por acceder a Mythos para detectar sus propios sistemas. La industria ha reaccionado con bastante resistencia a la obligatoriedad de la preevaluación. Daniel Castro, presidente de la Fundación para la Innovación y las Tecnologías de la Información, dijo: “Si la aprobación puede ser retenida, sería un gran problema para cualquier empresa. Una obtiene la aprobación y otra no, la diferencia en el acceso al mercado en semanas o meses puede ser enorme”.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado