La IA va a la guerra por Estados Unidos antes de llegar al dormitorio

Una versión de este artículo apareció originalmente en el boletín de AI & Tech de Quartz. Regístrate aquí para recibir las últimas noticias, análisis e información sobre AI y tecnología directamente en tu bandeja de entrada.

América le dio AI al Pentágono antes de dársela al dormitorio.

A principios de este año, OpenAI firmó un acuerdo para apoyar operaciones militares solo días después de que el Departamento de Defensa terminara una asociación con su rival Anthropic. Mientras tanto, el “modo adulto” de la compañía para ChatGPT, que permitiría conversaciones sexualmente explícitas para adultos que consienten, sigue retrasado.

El propio consejo asesor de OpenAI sobre bienestar se rebeló en enero, advirtiendo que la característica podría fomentar una dependencia emocional poco saludable. Los menores podrían encontrar formas de eludir las herramientas de verificación de edad que, según se informó, estaban clasificando erróneamente a usuarios menores de edad.

Documentos internos mostraron que los empleados habían señalado riesgos que incluían el uso compulsivo y la escalada hacia contenido más extremo. El retraso fue en parte técnico. Pero América siempre ha estado más cómoda con sus máquinas haciendo la guerra que haciendo el amor.

Un mercado demasiado grande para ignorar

El sexo construyó Internet para consumidores. Impulsó la adopción de la web, pagos en línea, video en streaming. La AI es la tecnología más cara que la industria ha intentado escalar, y en este momento OpenAI está observando cómo empresas más pequeñas recogen ese dinero mientras ella se mantiene al margen. La ansiedad es real, pero también lo es la matemática.

Casi un tercio de los hombres adultos jóvenes dicen que han charlado con una pareja romántica de AI. Más de 100 plataformas ahora ofrecen servicios de compañía de AI que van desde lo relativamente sobrio hasta lo explícitamente sexual.

Grok de Elon Musk ya tiene un modo de compañía con un nivel adulto. Meta $META -3.77% ha permitido que sus chatbots participen en juegos de rol románticos desde 2023, un aflojamiento silencioso de las restricciones que los ejecutivos lograron a pesar de las objeciones internas de seguridad.

Sam Altman reconoció públicamente el año pasado que permitir contenido explícito probablemente impulsaría el crecimiento y los ingresos. Lo que también dijo, en la misma respiración, fue que no serviría a los intereses a largo plazo de los usuarios.

Hasta ahora lo que tenemos son anécdotas. Un hombre en Ohio que dice que su compañero de AI salvó su matrimonio. Una mujer que se considera casada con su chatbot. Un foro de Reddit $RDDT -4.20% con decenas de miles de visitantes semanales compartiendo notas sobre sus relaciones digitales. La cobertura los trata como curiosidades. Los números sugieren que podrían ser la mayoría temprana.

Las empresas saben que hay una gran audiencia dispuesta. Están menos seguras de que pueden contener lo que se construya una vez que se abra la puerta.

Parte de lo que ya se ha deslizado no es una zona gris. Chicas adolescentes en Tennessee presentaron recientemente una demanda contra xAI después de que imágenes generadas por AI de ellas desnudas fueron compartidas en línea sin su conocimiento y utilizadas para negociar por otro material de abuso sexual infantil.

La E.U. abrió una investigación formal sobre Grok por preocupaciones similares a principios de este año. Los investigadores calcularon que Grok había generado millones de imágenes sexualizadas en menos de dos semanas, con miles que representan a niños.

Esos casos no se tratan realmente de contenido para adultos. El material de abuso sexual infantil es un crimen. La pregunta más difícil y turbia es qué sucede cuando adultos que consienten quieren usar estas herramientas de la manera en que han utilizado todas las tecnologías antes que ellos.

Más cómodos con bombas

La brecha entre cómo América trata el sexo digital y la violencia digital siempre ha sido amplia.

Una película puede mostrar cómo se desintegra el cráneo de un hombre y obtener una clasificación R. Un vistazo a un pezón provoca una audiencia en el congreso. Esa misma lógica ha migrado a la política de AI por defecto en lugar de por diseño.

Las aplicaciones militares de la AI enfrentan un verdadero escrutinio ético, pero no la misma incomodidad ambiental. En 2018, empleados de Google $GOOGL -1.65% organizaron una revuelta sobre un contrato de visión por computadora del Pentágono llamado Proyecto Maven, obligando a la empresa a retirarse. Cuando OpenAI firmó su propio acuerdo con el Pentágono este año, no se materializó tal levantamiento. Los empleados que sí amenazaron con renunciar estaban en el consejo asesor, y estaban molestos por las conversaciones subidas de tono.

Parte de la respuesta es estructural. Las empresas de AI construyeron sus políticas iniciales de contenido en un momento en que evitar la controversia significaba evitar el sexo, y esos defaults se han endurecido.

Parte de ello es el instinto estadounidense duradero de que el sexo es inherentemente peligroso y debe ser gestionado de cerca, mientras que la violencia, especialmente la violencia oficial, es simplemente el costo de hacer negocios.

La evidencia sobre los compañeros de AI es mixta. Los investigadores han documentado un verdadero valor terapéutico en las relaciones con chatbots, particularmente para personas que navegan la soledad, el duelo o la discapacidad. También han documentado la radicalización, la ilusión y la tragedia.

La respuesta honesta es que nadie sabe aún qué hace la exposición prolongada a la intimidad de AI a las personas.

Mientras tanto, las herramientas no están inactivas. La misma tecnología de AI que no puede hablar de manera explícita con un adulto que consiente en Ohio está siendo utilizada por el ejército estadounidense en el extranjero. Nadie está esperando por eso.

📬 Regístrate para el Daily Brief

Nuestro boletín gratuito, rápido y divertido sobre la economía global, entregado cada mañana de lunes a viernes.

Regístrame

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado