Cientos en Google presionan a la dirección para cancelar la colaboración con la IA del Pentágono

Más de 600 empleados de Google (GOOGL, GOOG) dijeron a Sundar Pichai el lunes que mantuviera al Pentágono alejado de la IA de Google para trabajos clasificados.

La carta provino de trabajadores dentro de DeepMind y Google Cloud, quienes señalaron un informe de The Information que decía que Google y el Departamento de Defensa de EE. UU. estaban en conversaciones sobre el uso de Gemini en sistemas clasificados.

Empleados de Google describen numerosas razones para bloquear Gemini en trabajos secretos del Pentágono

La carta comenzó con una advertencia directa a Sundar, a quien los empleados están diciendo, “Somos empleados de Google que estamos profundamente preocupados por las negociaciones en curso entre Google y el Departamento de Defensa de EE. UU. Como personas que trabajan en IA, sabemos que estos sistemas pueden centralizar el poder y que cometen errores.”

Los empleados dijeron que creen que su cercanía a la tecnología les da “una responsabilidad de destacar y prevenir sus usos más poco éticos y peligrosos.”

“Le pedimos que se niegue a poner nuestros sistemas de IA a disposición de cargas de trabajo clasificadas. De lo contrario, dichos usos pueden ocurrir sin nuestro conocimiento o sin la capacidad de detenerlos,” dijeron los empleados de Google. La carta luego explicó que quieren que la IA ayude a las personas, no que apoye el daño. Nombraron armas autónomas letales y vigilancia masiva como temores principales. También dijeron que los riesgos van más allá de esas dos áreas, porque el trabajo clasificado puede ocultar lo que realmente está sucediendo.

Su argumento era que si Google acepta cargas de trabajo militares secretas, los empleados pueden no tener forma de verificar el uso, cuestionarlo o detenerlo, y la única garantía real es rechazar el trabajo clasificado antes de que se cierre el acuerdo.

También advirtieron que la mala decisión podría dañar el nombre, los negocios y la posición de Google en el mundo. Los empleados dijeron que su propia seguridad y la infraestructura crítica enfrentan amenazas activas, mientras que vidas y derechos civiles ya están en riesgo por el mal uso de la tecnología creada por personas como ellos.

El Pentágono de Trump está forzando su entrada en un acceso masivo a IA para el ejército de EE. UU.

Los líderes del Pentágono han dicho que el ejército debe ser libre de usar IA comercial para “todos los usos legales.” Los funcionarios dicen que esa frase da margen al gobierno para usar la tecnología en diferentes casos mientras se mantiene dentro de la ley y las reglas militares de EE. UU.

Los trabajadores de IA no ven eso como suficiente protección. Su preocupación ha crecido debido al propio lenguaje y acciones de Trump. A principios de este mes, el presidente Donald Trump amenazó con bombardear “cada” puente y planta de energía en Irán. Expertos dijeron a The Post que tal ataque violaría la ley internacional. Los ataques de su administración a barcos que afirma transportaban drogas también han sido cuestionados por expertos en derecho internacional.

La carta de Google llegó mientras otras empresas de IA ya están enredadas en peleas con el Pentágono. Anthropic, la empresa privada detrás de Claude, tuvo su tecnología colocada en sistemas militares de EE. UU. el año pasado. Esas herramientas ayudaron a clasificar datos e identificar posibles objetivos.

Luego, el Pentágono cortó a Anthropic de todo trabajo con el Departamento de Defensa en febrero. La empresa intentó agregar términos contractuales diciendo que su IA no podría usarse para vigilancia masiva ni armas autónomas letales.

Anthropic y el gobierno ahora están en tribunales sobre si ese corte fue legal. Ese caso ha atraído más atención hacia Google y OpenAI, porque ambas trabajan con el ejército de EE. UU.

OpenAI es privada, por lo que no tiene símbolo bursátil. Firmó un acuerdo en febrero para proporcionar IA para cargas de trabajo clasificadas poco después de que se eliminara a Anthropic. Sam Altman, director ejecutivo de OpenAI, ha dicho que confía en que el contrato con el gobierno bloquea el uso para vigilancia masiva y armas autónomas letales en EE. UU.

Google ya ha estado en esta situación antes. En 2018, los empleados protestaron por un proyecto del Pentágono que usaba IA de Google para identificar objetos en grabaciones de drones. Cientos firmaron una petición contra ese trabajo, y Google luego decidió no renovar el acuerdo.

Después de esa pelea, Google creó una promesa diciendo que su tecnología de IA no sería utilizada para armas ni vigilancia. Pero la compañía ha pasado los últimos años buscando más contratos militares. El año pasado, Google eliminó esos límites. En diciembre, firmó un acuerdo que permite al Departamento de Defensa usar Gemini.

Si quieres una entrada más tranquila en DeFi crypto sin el hype habitual, empieza con este video gratuito.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado