La administración de Trump revisará los modelos de IA de Google, Microsoft y xAI antes de su lanzamiento público

cerrar

video

Los mercados comienzan a divergir un poco más en medio del conflicto en Irán, dice Josh Schafer

El editor del boletín de la Mesa Redonda de Barrons, Josh Schafer, analiza el mercado de valores y los precios del petróleo en medio del conflicto en Oriente Medio en Varney & Co.

La administración Trump anunció el martes que había alcanzado nuevos acuerdos con Microsoft, Google DeepMind y xAI de Elon Musk para ampliar la colaboración con las grandes empresas tecnológicas en la investigación de inteligencia artificial (IA) y seguridad.

El Centro para Estándares e Innovación en IA (CAISI), que forma parte del Instituto Nacional de Estándares y Tecnología del Departamento de Comercio, trabajará con las empresas de IA en evaluaciones previas a la implementación, así como en investigaciones específicas sobre capacidades de IA de frontera y seguridad de IA.

Los nuevos acuerdos se basan en asociaciones previamente anunciadas entre CAISI y las empresas, apoyando el intercambio de información, impulsando mejoras voluntarias en productos y asegurando una comprensión clara en el gobierno de las capacidades de IA y el estado de la competencia internacional en IA.

“La ciencia de medición independiente y rigurosa es esencial para entender la IA de frontera y sus implicaciones para la seguridad nacional,” dijo el director de CAISI, Chris Fall. “Estas colaboraciones ampliadas con la industria nos ayudan a escalar nuestro trabajo en interés público en un momento crítico.”

CÓMO LA EXPOSICIÓN A LA IA ESTÁ REDEFINIENDO LOS EMPLEOS EN LOS CAMPOS CREATIVOS

La administración Trump anunció los acuerdos de IA a través de CAISI con varias empresas tecnológicas líderes. (Win McNamee/Getty Images)

Los desarrolladores suelen proporcionar a CAISI modelos que han reducido o eliminado salvaguardas para evaluar capacidades y riesgos relacionados con la seguridad nacional.

Evaluadores de diversas agencias gubernamentales pueden participar en las evaluaciones y proporcionar retroalimentación regularmente a través del Grupo de Trabajo TRAINS, que es un grupo de expertos interinstitucional enfocado en preocupaciones de seguridad nacional en IA.

Los acuerdos de CAISI apoyan las pruebas en entornos clasificados y fueron redactados con flexibilidad para responder a los avances continuos en IA.

ZUCKERBERG DICE QUE LOS DESPIDOS EN META ESTÁN RELACIONADOS CON GASTOS EN IA, Y NO DESCARTA FUTUROS RECORTES

Microsoft dijo que la asociación con CAISI es necesaria para generar confianza y seguridad en los sistemas avanzados de IA. (Cesc Maymo / Getty Images)

La responsable de IA de Microsoft, Natasha Crampton, dijo en un comunicado que los acuerdos “avanzarán la ciencia de las pruebas y evaluaciones de IA, incluyendo trabajos colaborativos para probar los modelos de frontera de Microsoft, evaluar salvaguardas y ayudar a mitigar riesgos de seguridad nacional y de seguridad pública a gran escala.”

Crampton afirmó que “las pruebas rigurosas y continuas son esenciales para construir confianza y seguridad en los sistemas avanzados de IA.”

ELON MUSK DICE QUE FUE UN ‘TONTO’ POR FINANCIAR OPENAI: INFORME

Google DeepMind también firmó los nuevos acuerdos con CAISI. (Marlena Sloss/Bloomberg vía Getty Images)

“Las pruebas bien diseñadas nos ayudan a entender si nuestros sistemas funcionan como se espera y ofrecen los beneficios para los que fueron diseñados. Las pruebas también nos ayudan a anticipar riesgos, como ciberataques impulsados por IA y otros usos criminales de sistemas de IA, que pueden surgir una vez que los sistemas avanzados de IA se despliegan en el mundo,” explicó Crampton.

Microsoft también anunció un acuerdo similar con el Instituto de Seguridad en IA del Reino Unido (AISI) para gobernar las pruebas y evaluaciones de IA.

OBTÉN FOX BUSINESS EN CUALQUIER LUGAR HACIENDO CLIC AQUÍ

XAI3,51%
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado