Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
CFD
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Gate Blog
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 40 modelos de IA, con 0% de costos adicionales
Nueva investigación del exjefe de noticias de Meta: casi todos los modelos de IA tienen inclinaciones políticas de izquierda, Gemini citó anteriormente a medios oficiales chinos
Antes de Meta, la responsable de noticias Campbell Brown fundó Forum AI, dedicándose 17 meses a evaluar sistemáticamente la calidad de la información de los modelos de IA mainstream, descubriendo que Gemini citaba información del sitio oficial del Partido Comunista Chino al tratar reportajes no relacionados con China, y que casi todos los modelos de prueba mostraban una inclinación política de izquierda.
(Resumen previo: La IA destruye la tradición de 133 años de la Universidad de Princeton: cuando hacer trampa se vuelve una norma)
(Información adicional: 97,895 conversaciones en foros clandestinos te dicen: en realidad, la comunidad hacker también odia a la IA)
Índice de este artículo
Alternar
Brown es periodista de formación, trabajó como presentadora en CNN, y luego pasó a ser responsable de noticias en Meta, gestionando directamente las políticas de cómo Facebook presenta las noticias a sus 3 mil millones de usuarios en todo el mundo.
Este puesto le permitió ver de cerca la visión completa de “cómo las plataformas moldean la circulación de información”. Dejó Meta hace 17 meses y fundó Forum AI en Nueva York, especializada en una tarea que las empresas de modelos fundacionales suelen omitir: evaluar sistemáticamente si la información que generan los IA es precisa, justa y presenta múltiples perspectivas.
La cuestión que nadie está probando
El producto central de Forum AI es un marco de referencia para eventos de geopolítica.
Funciona así: Forum AI invita a un grupo de consultores destacados con diferentes espectros políticos y antecedentes especializados: Niall Ferguson, Fareed Zakaria, el exsecretario de Estado de EE. UU. Tony Blinken, el exlíder de la minoría en la Cámara Kevin McCarthy, la exasesora de seguridad nacional Anne Neuberger… para evaluar con puntuaciones las respuestas de los modelos de IA mainstream sobre un mismo complejo evento geopolítico.
Actualmente, Forum AI ha alcanzado un umbral de consenso con expertos humanos de aproximadamente el 90%, lo que hace que sus evaluaciones tengan una base defendible, y no sean solo opiniones individuales.
Brown identificó problemas en tres niveles, cada uno más difícil de solucionar desde un punto de vista técnico.
El primer nivel es la vulnerabilidad en la lógica de selección de fuentes. Gemini, al tratar ciertos reportajes no relacionados con China, citó contenido de sitios oficiales del Partido Comunista Chino. Esto no es simplemente un error factual, sino un problema en la lógica de filtrado de fuentes: la IA solo evalúa si “esto es texto, esto es un enlace”, sin juzgar “la postura del origen, su credibilidad, o si tiene un propósito político claro”.
La politización de la fuente en sí misma es invisible en el proceso de salida de la IA.
El segundo nivel es el sesgo político estructural. La mayoría de los modelos mainstream que Brown probó mostraron una inclinación política de izquierda. Esto no es una teoría conspirativa, sino un resultado natural de la distribución del corpus de entrenamiento. La IA aprende de qué textos, y tiende a replicar el tono y el marco de esas fuentes.
El contenido principal en internet en inglés — medios tradicionales, artículos académicos, publicaciones en redes sociales — en su conjunto tiene una tendencia política específica, y los modelos entrenados heredan esa tendencia sin ser conscientes de ello.
Lo más problemático es que este sesgo no es un bug que pueda arreglarse, sino que está incrustado en cada lógica de salida del modelo.
El tercer nivel es la falta de contexto y múltiples perspectivas. Brown señala que los modelos actuales generalmente carecen de “contexto de fondo, múltiples perspectivas y transparencia en los argumentos”. La respuesta de la IA es una declaración, no una estructura que diga: “Desde la perspectiva de A esto representa esto, desde B esto otro, y la diferencia fundamental radica en…”.
Te da una respuesta, pero no te indica desde qué ángulo fue generada.
Errores fluidos, más difíciles de detectar que el silencio
Brown señala un punto ciego estructural: las empresas de modelos fundacionales priorizan en sus evaluaciones y rankings las habilidades matemáticas, de codificación y razonamiento lógico, mientras que la precisión de la información y la diversidad política casi nunca aparecen en las listas de pruebas estándar.
La razón es sencilla. El código tiene errores o aciertos claros, y las pruebas lo reflejan. Las preguntas matemáticas tienen respuestas estándar, y se puede calcular la precisión. Pero, ¿quién decide qué constituye un informe preciso y justo sobre un evento de geopolítica? ¿Cuántas personas con diferentes posturas deben llegar a un consenso? Este problema no tiene una solución técnica.
En los procesos de desarrollo de productos liderados por ingenieros, que usan benchmarks para definir su mercado, esto se omite sistemáticamente. Como resultado, la precisión de la información es casi invisible en los sistemas de evaluación de IA.
El costo de omitir esto se puede ver en un caso concreto: el año pasado, la ciudad de Nueva York realizó una auditoría de cumplimiento en un sistema de reclutamiento basado en IA, para verificar si las herramientas de filtrado de empleadores violaban las leyes antidiscriminatorias vigentes. Según los resultados, más de la mitad de los casos no detectaron violaciones.
El problema no es que la tasa de incumplimiento sea baja, sino que puede indicar que las herramientas de auditoría basadas en IA no son lo suficientemente precisas para detectar problemas, y que en realidad no hay problemas en los datos.
Este es el núcleo del argumento de Brown: el problema de la IA no es solo que dé hechos incorrectos, sino que hace que las personas confíen en hechos erróneos. Una persona que sabe que no sabe algo, al menos puede buscar información. Pero cuando la IA, con un tono fluido, confiado y sin vacilaciones, da una respuesta incorrecta, la mayoría de los usuarios no tienen motivos para desconfiar.
Errores fluidos, más difíciles de detectar que el silencio, y aún más difíciles de corregir.
Regulaciones que empujan, no una conciencia moral
La conclusión de Brown es clara: el cambio no será impulsado por la presión moral o la opinión pública, sino por el riesgo de cumplimiento legal que enfrentan las empresas.
Su argumento tiene una base realista: en la estructura de incentivos actual de la industria de IA, nadie tiene un motivo suficientemente fuerte para abordar el problema de forma proactiva, hasta que su costo se vuelva ineludible. La aprobación de créditos, el aseguramiento, la selección de personal, en todos estos escenarios, las decisiones basadas en IA están sujetas a regulaciones existentes.
Una vez que los resultados de IA muestran sesgos o imprecisiones discriminatorias, las empresas que los usan deben asumir responsabilidad legal. Esa presión finalmente se transmite a los proveedores de modelos, exigiéndoles que entreguen salidas auditables, verificables y con garantías de precisión. No porque crean que eso sea moralmente correcto, sino porque sus clientes empresariales empiezan a exigirlo en sus contratos.
Lerer Hippeau invirtió el año pasado 3 millones de dólares en la ronda semilla de Forum AI. Aunque esa cifra es pequeña en el ámbito de la IA, representa un juicio: “La evaluación de IA” es un negocio, y la demanda de este tipo de evaluación puede crecer más rápido que lo que se ve actualmente.