Una historia interesante ocurrió con OpenAI y el Pentágono. Sam Altman, CEO de la compañía, reconoció inesperadamente que el acuerdo parecía bastante oportunista y descuidado. Honestamente, rara vez se ve a un líder de una gran corporación admitir tan abiertamente las fallas en sus decisiones.



En general, el problema era que la tecnología de IA de OpenAI podría ser utilizada para vigilancia interna o por agencias de inteligencia como la NSA. Está claro que esto provocó una ola de críticas y preocupaciones en la comunidad. Las deficiencias en las condiciones del contrato resultaron ser más graves de lo que parecía a simple vista.

¿Qué hizo OpenAI? Introdujo nuevas disposiciones en el acuerdo para proteger sus tecnologías del posible uso indebido. En esencia, fue un intento de cerrar esas mismas fallas que permitirían a las entidades gubernamentales usar la IA para vigilancia.

Este es un giro interesante en la historia de la interacción entre Big Tech y el Estado. La compañía enfrentó cuestiones éticas y decidió asumir la responsabilidad. Aunque, por supuesto, queda la pregunta: ¿por qué estas fallas no fueron previstas desde el principio? En cualquier caso, dar un paso hacia un uso responsable de la IA en contratos gubernamentales es algo que se necesita.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado