He notado una tendencia interesante en medio de la creciente integración de la IA en el ámbito de la defensa. El Pentágono ha intensificado seriamente la presión sobre Anthropic, exigiendo acceso completo al modelo Claude para uso militar. Según informes, el secretario de Defensa, P. Hegseth, ha dado a la compañía un ultimátum final: aceptar las condiciones del Pentágono antes de fin de semana o perder contratos militares y ser considerado un riesgo para el suministro.



¿¿Qué exactamente exige el Pentágono?? Control total sobre la tecnología, uso sin restricciones (excepto legales), y la disposición a aplicar la ley de producción de defensa para forzar la cooperación. En el contexto militar, esto parece una presión clásica del Estado sobre una empresa privada.

Pero lo que resulta más interesante es que el CEO de Anthropic, Dario Amodei, se resiste. La compañía insiste en tener mecanismos de seguridad, no quiere que Claude sea utilizado para vigilancia masiva, y exige control humano en las decisiones finales sobre la destrucción de objetivos. Amodei está preocupado de que el modelo pueda "galopar" (galleguizar), y que sin intervención humana en la cadena de decisiones pueda conducir a errores fatales. La preocupación es lógica, honestamente.

El contexto aún más interesante. Resulta que Claude ya fue utilizado por las fuerzas militares de EE. UU.: ayudó en operaciones, incluyendo ataques a objetivos. Esto ha provocado un agravamiento de la situación.

Mientras Anthropic y el Pentágono negocian, los competidores no permanecen de brazos cruzados. El Pentágono está ampliando activamente su portafolio de soluciones de IA en el ámbito militar. Integra Grok de xAI en sistemas militares, firmó un contrato de más de 99 millones con TurbineOne para soluciones de reconocimiento de amenazas (drones, posiciones enemigas), e incluso un acuerdo de 200 millones con OpenAI para desarrollar prototipos de IA para la seguridad nacional.

Resulta que Anthropic está en una posición delicada. Por un lado, grandes contratos y influencia en el ámbito militar. Por otro, el riesgo de daño reputacional y cuestiones éticas. La pregunta es quién terminará cediendo: ¿el Estado o la empresa que hasta ahora se ha posicionado como defensora de una IA responsable?
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado