Techub News Noticias, según CryptoBriefing, la administración de Trump está considerando implementar revisiones de seguridad obligatorias para los nuevos modelos de IA, exigiendo que pasen una evaluación gubernamental antes de su publicación pública. Esta medida surge debido a que el modelo Mythos de Anthropic ha demostrado la capacidad de detectar vulnerabilidades ocultas en software, las cuales tienen implicaciones para la seguridad nacional. La administración, que anteriormente favorecía una postura de desregulación, ha iniciado discusiones recientes con ejecutivos de Anthropic, Google y OpenAI sobre la seguridad de la IA. Los análisis señalan que, si los modelos de IA de EE. UU. pueden detectar vulnerabilidades en sistemas críticos, los países competidores también podrían tener la misma capacidad, por lo que es necesario realizar revisiones para evitar que la tecnología sea utilizada como arma.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado