OpenAI, Anthropic y Google colaboran para compartir inteligencia contra la destilación de modelos de IA de China

Según el monitoreo de 1M AI News, OpenAI, Anthropic y Google están compartiendo información a través de la organización sin fines de lucro del sector Frontier Model Forum para detectar conjuntamente violaciones de sus términos de servicio relacionadas con la “adversarial distillation” (destilación adversaria). Esta organización fue establecida conjuntamente por las tres empresas junto con Microsoft en 2023. La destilación es una técnica que utiliza las salidas de modelos existentes para entrenar nuevos modelos, replicando las capacidades del modelo anterior a un costo menor. Las empresas de IA a menudo usan la destilación para crear versiones más pequeñas y eficientes de sus modelos, pero la destilación no autorizada por terceros es controvertida en la industria. OpenAI confirmó su participación en esta colaboración y citó un memorando que presentó previamente al Congreso de EE. UU., en el que afirma que los intentos de deep learning buscan “montarse en la estela de las capacidades desarrolladas por OpenAI y otros laboratorios líderes de EE. UU.” Google, Anthropic y Frontier Model Forum declinaron hacer comentarios. Funcionarios del gobierno de EE. UU. estiman que la destilación no autorizada genera cada año pérdidas de miles de millones de dólares en ganancias para los laboratorios de Silicon Valley. Esta colaboración se basa en prácticas de la industria de la ciberseguridad en las que las empresas comparten información de inteligencia sobre ataques. El plan de acción de IA publicado por la administración de Trump el año pasado también pidió el establecimiento de centros dedicados para compartir y analizar información. Sin embargo, debido a las incertidumbres sobre los límites de lo que se puede compartir bajo las leyes antimonopolio vigentes, el alcance del intercambio de información sigue siendo limitado. Las tres empresas no han proporcionado evidencia pública que indique en qué medida las innovaciones de modelos chinas dependen de la destilación, pero afirman que la frecuencia de dicho comportamiento puede medirse por el número de solicitudes de datos a gran escala.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado