Sam Altman analiza la estrategia de OpenAI frente a los desafíos de defensa estadounidense en materia de IA

En marzo de 2025, Sam Altman, CEO de OpenAI, organizó una sesión pública de preguntas y respuestas en la plataforma X para aclarar las circunstancias en torno al contrato entre OpenAI y el Departamento de Defensa de Estados Unidos. Este intercambio generó un gran compromiso: 6,6 millones de vistas y más de 7,500 respuestas, reflejando el interés creciente de la comunidad tecnológica por las implicaciones de las asociaciones de IA con el gobierno estadounidense.

Negociaciones previas y rechazos de contratos clasificados

Según Sam Altman, OpenAI solo había dialogado sobre colaboraciones no clasificadas en los meses anteriores y había rechazado deliberadamente varias propuestas relacionadas con áreas clasificadas. Estas mismas oportunidades luego fueron ofrecidas a Anthropic. Sin embargo, después de que el Departamento de Defensa de EE. UU. rechazara la colaboración con Anthropic, las autoridades aceleraron abruptamente el despliegue de sus iniciativas clasificadas con OpenAI. Altman justificó la decisión de firmar rápidamente este contrato como una necesidad para «desactivar la situación» y precisó que negoció para obtener condiciones iguales para todos los otros laboratorios de IA involucrados.

Anthropic, clasificación e implicaciones en la industria

Al ser preguntado sobre su falta de defensa pública de Anthropic, Sam Altman fue directo. calificó la decisión de clasificar a Anthropic como «riesgo en la cadena de suministro» como «catastrófico para la industria, para el país y para Anthropic mismo». Según él, se trata de «una decisión dañina del Departamento de Defensa de EE. UU.» y espera que sea retirada. Sin embargo, Altman suavizó su apoyo sugiriendo que Anthropic parecía priorizar la incorporación de cláusulas restrictivas específicas en el contrato en lugar de cumplir con la legislación vigente, y que podría buscar un control operativo superior al suyo.

Límites éticos y constitucionales de OpenAI

Preguntado sobre las salvaguardas éticas, Sam Altman afirmó sin rodeos: «Si nos piden hacer algo inconstitucional o ilegal, nos retiraremos. Vengan a visitarnos a la cárcel.» Esta formulación directa ilustra la postura firme de OpenAI sobre los límites ineludibles de su colaboración gubernamental.

Democratización versus vigilancia: el dilema de la IA

El CEO de OpenAI abordó la problemática de la vigilancia en el extranjero. Reconoció su malestar personal con la vigilancia extranjera llevada a cabo por las fuerzas armadas estadounidenses, afirmando que la «democratización» de la IA sigue siendo su principio rector, un objetivo que podría contradecirse con las aplicaciones militares. Sin embargo, precisó: «No creo que sea mi papel decidir sobre esto.» Esta declaración revela la tensión entre las convicciones personales de Altman y las realidades de la asociación estratégica.

La cuestión metapolítica: nacionalización y AGI

Al concluir sus explicaciones, Sam Altman planteó una cuestión «implícitamente presente en muchas preguntas pero nunca formulada directamente»: ¿qué pasaría si el gobierno de EE. UU. intentara nacionalizar OpenAI u otros proyectos importantes de IA? Reveló que «hace tiempo considera que el desarrollo de una AGI quizás debería ser una iniciativa gubernamental», sugiriendo así que el debate sobre el control de la IA va mucho más allá de las asociaciones actuales.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado