La IA va a la guerra por Estados Unidos antes de llegar al dormitorio

Una versión de este artículo apareció originalmente en el boletín de AI & Tech de Quartz. Regístrate aquí para recibir las últimas noticias, análisis e información sobre AI y tecnología directamente en tu bandeja de entrada.

América le dio AI al Pentágono antes de dársela a los dormitorios.

A principios de este año, OpenAI firmó un acuerdo para apoyar operaciones militares solo días después de que el Departamento de Defensa terminara una asociación con el rival Anthropic. Mientras tanto, el “modo adulto” de la compañía para ChatGPT, que permitiría conversaciones sexualmente explícitas para adultos consentidos, sigue retrasado.

El propio consejo asesor de bienestar de OpenAI se rebeló en enero, advirtiendo que la función podría fomentar una dependencia emocional poco saludable. Los menores podrían encontrar soluciones alternativas, dijeron, en herramientas de verificación de edad que supuestamente estaban clasificando erróneamente a usuarios menores de edad.

Documentos internos mostraron que los empleados habían señalado riesgos como el uso compulsivo y la escalada hacia contenido más extremo. El retraso fue en parte técnico. Pero América siempre ha estado más cómoda con sus máquinas haciendo la guerra que haciendo el amor.

Un mercado demasiado grande para ignorar

El sexo construyó Internet para consumidores. Impulsó la adopción de la web, los pagos en línea, el video en streaming. AI es la tecnología más costosa que la industria ha intentado escalar, y en este momento OpenAI está observando a empresas más pequeñas recoger ese dinero mientras se queda al margen. La preocupación es real, pero también lo son los números.

Casi un tercio de los hombres jóvenes dice que ha chateado con una pareja romántica de AI. Más de 100 plataformas ahora ofrecen servicios de compañía de AI que van desde lo relativamente sobrio hasta lo explícitamente sexual.

Grok de Elon Musk ya tiene un modo de compañía con un nivel adulto. Meta $META -3.99% ha permitido que sus chatbots participen en juegos de rol románticos desde 2023, un relajamiento silencioso de las restricciones que los ejecutivos impulsaron a pesar de las objeciones internas de seguridad.

Sam Altman reconoció públicamente el año pasado que permitir contenido explícito probablemente impulsaría el crecimiento y los ingresos. Lo que también dijo, en la misma frase, fue que no serviría a los intereses a largo plazo de los usuarios.

Hasta ahora, lo que tenemos son anécdotas. Un hombre en Ohio que dice que su compañero de AI salvó su matrimonio. Una mujer que se considera casada con su chatbot. Un foro de Reddit $RDDT -4.26% con decenas de miles de visitantes semanales compartiendo notas sobre sus relaciones digitales. La cobertura los trata como curiosidades. Los números sugieren que podrían ser la mayoría temprana.

Las empresas saben que hay una gran audiencia dispuesta. Tienen menos certeza de que pueden contener lo que se construya una vez que se abra la puerta.

Parte de lo que ya ha pasado no es un área gris. Chicas adolescentes en Tennessee presentaron recientemente una demanda contra xAI después de que se compartieran imágenes desnudas generadas por AI de ellas en línea sin su conocimiento y se utilizaran para negociar otro material de abuso sexual infantil.

La U.E. abrió una investigación formal sobre Grok por preocupaciones similares a principios de este año. Los investigadores calcularon que Grok había generado millones de imágenes sexualizadas en menos de dos semanas, con miles que representan a niños.

Esos casos no se tratan realmente de contenido para adultos en absoluto. El material de abuso sexual infantil es un crimen. La pregunta más difícil y confusa es qué sucede cuando adultos consentidos quieren usar estas herramientas de la manera en que han usado cada tecnología antes de ellos.

Más cómodos con bombas

La brecha entre cómo América trata el sexo digital y la violencia digital siempre ha sido amplia.

Una película puede mostrar el cráneo de un hombre volando en pedazos y ganar una clasificación R. Un vistazo a un pezón desencadena una audiencia en el Congreso. Esa misma lógica ha migrado a la política de AI por defecto en lugar de diseño.

Las aplicaciones militares de AI enfrentan un verdadero escrutinio ético, pero no la misma incomodidad ambiental. En 2018, empleados de Google $GOOGL -2.34% organizaron una revuelta sobre un contrato de visión por computadora del Pentágono llamado Project Maven, obligando a la empresa a retirarse. Cuando OpenAI firmó su propio acuerdo con el Pentágono este año, no se materializó tal levantamiento. Los empleados que sí amenazaron con renunciar estaban en el consejo asesor, y estaban molestos por el lenguaje sucio.

Parte de la respuesta es estructural. Las empresas de AI construyeron sus políticas iniciales de contenido en un momento en que evitar la controversia significaba evitar el sexo, y esos valores se han solidificado.

Parte de ello es el instinto estadounidense perdurable de que el sexo es inherentemente peligroso y debe ser estrictamente gestionado, mientras que la violencia, especialmente la violencia oficial, es simplemente el costo de hacer negocios.

La evidencia sobre los compañeros de AI es mixta. Los investigadores han documentado un verdadero valor terapéutico en las relaciones con chatbots, particularmente para personas que navegan por la soledad, el duelo o la discapacidad. También han documentado radicalización, delirios y tragedias.

La respuesta honesta es que nadie sabe aún qué hace la exposición a largo plazo a la intimidad de AI con las personas.

Mientras tanto, las herramientas no están inactivas. La misma tecnología de AI que no puede hablar sucio con un adulto consentido en Ohio está siendo utilizada por el ejército estadounidense en el extranjero. Nadie está esperando por eso.

📬 Regístrate para el Daily Brief

Nuestro resumen gratuito, rápido y divertido sobre la economía global, entregado cada mañana de lunes a viernes.

Regístrame

GROK1,19%
XAI-1,08%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado