Nueva investigación del exjefe de noticias de Meta: casi todos los modelos de IA tienen inclinaciones políticas de izquierda, Gemini citó anteriormente a medios oficiales chinos

Antes de Meta, la responsable de noticias Campbell Brown fundó Forum AI, dedicándose 17 meses a evaluar sistemáticamente la calidad de la información de los modelos de IA mainstream, descubriendo que Gemini citaba información del sitio oficial del Partido Comunista Chino al tratar reportajes no relacionados con China, y que casi todos los modelos de prueba mostraban una inclinación política de izquierda.
(Resumen previo: La IA destruye la tradición de 133 años de la Universidad de Princeton: cuando hacer trampa se vuelve una norma)
(Información adicional: 97,895 conversaciones en foros clandestinos te dicen: en realidad, la comunidad hacker también odia a la IA)

Índice de este artículo

Alternar

  • La cuestión que nadie está probando
  • Errores fluidos, más difíciles de detectar que el silencio
  • Regulaciones que empujan, no una conciencia moral

Brown es periodista de formación, trabajó como presentadora en CNN, y luego pasó a ser responsable de noticias en Meta, gestionando directamente las políticas de cómo Facebook presenta las noticias a sus 3 mil millones de usuarios en todo el mundo.

Este puesto le permitió ver de cerca la visión completa de “cómo las plataformas moldean la circulación de información”. Dejó Meta hace 17 meses y fundó Forum AI en Nueva York, especializada en una tarea que las empresas de modelos fundacionales suelen omitir: evaluar sistemáticamente si la información que generan los IA es precisa, justa y presenta múltiples perspectivas.

La cuestión que nadie está probando

El producto central de Forum AI es un marco de referencia para eventos de geopolítica.

Funciona así: Forum AI invita a un grupo de consultores destacados con diferentes espectros políticos y antecedentes especializados: Niall Ferguson, Fareed Zakaria, el exsecretario de Estado de EE. UU. Tony Blinken, el exlíder de la minoría en la Cámara Kevin McCarthy, la exasesora de seguridad nacional Anne Neuberger… para evaluar con puntuaciones las respuestas de los modelos de IA mainstream sobre un mismo complejo evento geopolítico.

Actualmente, Forum AI ha alcanzado un umbral de consenso con expertos humanos de aproximadamente el 90%, lo que hace que sus evaluaciones tengan una base defendible, y no sean solo opiniones individuales.

Brown identificó problemas en tres niveles, cada uno más difícil de solucionar desde un punto de vista técnico.

El primer nivel es la vulnerabilidad en la lógica de selección de fuentes. Gemini, al tratar ciertos reportajes no relacionados con China, citó contenido de sitios oficiales del Partido Comunista Chino. Esto no es simplemente un error factual, sino un problema en la lógica de filtrado de fuentes: la IA solo evalúa si “esto es texto, esto es un enlace”, sin juzgar “la postura del origen, su credibilidad, o si tiene un propósito político claro”.

La politización de la fuente en sí misma es invisible en el proceso de salida de la IA.

El segundo nivel es el sesgo político estructural. La mayoría de los modelos mainstream que Brown probó mostraron una inclinación política de izquierda. Esto no es una teoría conspirativa, sino un resultado natural de la distribución del corpus de entrenamiento. La IA aprende de qué textos, y tiende a replicar el tono y el marco de esas fuentes.

El contenido principal en internet en inglés — medios tradicionales, artículos académicos, publicaciones en redes sociales — en su conjunto tiene una tendencia política específica, y los modelos entrenados heredan esa tendencia sin ser conscientes de ello.

Lo más problemático es que este sesgo no es un bug que pueda arreglarse, sino que está incrustado en cada lógica de salida del modelo.

El tercer nivel es la falta de contexto y múltiples perspectivas. Brown señala que los modelos actuales generalmente carecen de “contexto de fondo, múltiples perspectivas y transparencia en los argumentos”. La respuesta de la IA es una declaración, no una estructura que diga: “Desde la perspectiva de A esto representa esto, desde B esto otro, y la diferencia fundamental radica en…”.

Te da una respuesta, pero no te indica desde qué ángulo fue generada.

Errores fluidos, más difíciles de detectar que el silencio

Brown señala un punto ciego estructural: las empresas de modelos fundacionales priorizan en sus evaluaciones y rankings las habilidades matemáticas, de codificación y razonamiento lógico, mientras que la precisión de la información y la diversidad política casi nunca aparecen en las listas de pruebas estándar.

La razón es sencilla. El código tiene errores o aciertos claros, y las pruebas lo reflejan. Las preguntas matemáticas tienen respuestas estándar, y se puede calcular la precisión. Pero, ¿quién decide qué constituye un informe preciso y justo sobre un evento de geopolítica? ¿Cuántas personas con diferentes posturas deben llegar a un consenso? Este problema no tiene una solución técnica.

En los procesos de desarrollo de productos liderados por ingenieros, que usan benchmarks para definir su mercado, esto se omite sistemáticamente. Como resultado, la precisión de la información es casi invisible en los sistemas de evaluación de IA.

El costo de omitir esto se puede ver en un caso concreto: el año pasado, la ciudad de Nueva York realizó una auditoría de cumplimiento en un sistema de reclutamiento basado en IA, para verificar si las herramientas de filtrado de empleadores violaban las leyes antidiscriminatorias vigentes. Según los resultados, más de la mitad de los casos no detectaron violaciones.

El problema no es que la tasa de incumplimiento sea baja, sino que puede indicar que las herramientas de auditoría basadas en IA no son lo suficientemente precisas para detectar problemas, y que en realidad no hay problemas en los datos.

Este es el núcleo del argumento de Brown: el problema de la IA no es solo que dé hechos incorrectos, sino que hace que las personas confíen en hechos erróneos. Una persona que sabe que no sabe algo, al menos puede buscar información. Pero cuando la IA, con un tono fluido, confiado y sin vacilaciones, da una respuesta incorrecta, la mayoría de los usuarios no tienen motivos para desconfiar.

Errores fluidos, más difíciles de detectar que el silencio, y aún más difíciles de corregir.

Regulaciones que empujan, no una conciencia moral

La conclusión de Brown es clara: el cambio no será impulsado por la presión moral o la opinión pública, sino por el riesgo de cumplimiento legal que enfrentan las empresas.

Su argumento tiene una base realista: en la estructura de incentivos actual de la industria de IA, nadie tiene un motivo suficientemente fuerte para abordar el problema de forma proactiva, hasta que su costo se vuelva ineludible. La aprobación de créditos, el aseguramiento, la selección de personal, en todos estos escenarios, las decisiones basadas en IA están sujetas a regulaciones existentes.

Una vez que los resultados de IA muestran sesgos o imprecisiones discriminatorias, las empresas que los usan deben asumir responsabilidad legal. Esa presión finalmente se transmite a los proveedores de modelos, exigiéndoles que entreguen salidas auditables, verificables y con garantías de precisión. No porque crean que eso sea moralmente correcto, sino porque sus clientes empresariales empiezan a exigirlo en sus contratos.

Lerer Hippeau invirtió el año pasado 3 millones de dólares en la ronda semilla de Forum AI. Aunque esa cifra es pequeña en el ámbito de la IA, representa un juicio: “La evaluación de IA” es un negocio, y la demanda de este tipo de evaluación puede crecer más rápido que lo que se ve actualmente.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Fijado