Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Gate Blog
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 40 modelos de IA, con 0% de costos adicionales
Motor de respuesta por IA contaminado en masa: 56% de las respuestas correctas de Gemini 3 no tiene respaldo de fuentes
Según el análisis en profundidad del autor Pedro Dias publicado por The Inference el 21 de abril de 2026, el colapso de modelos (model collapse) no es la “amenaza futura” que la industria teme: ya está ocurriendo en tiempo real, pero de otra forma. Los motores de respuestas de IA citan al momento contenido web generado por otras IA como fuente de autoridad al responder consultas; todo el ciclo de contaminación no necesita pasar por reentrenamiento del modelo. Este argumento utiliza como metáfora central la “serpiente (Ouroboros) que se muerde la cola: aprende a citarse a sí misma”.
Diferencias clave entre Model Collapse y Retrieval Contamination
La preocupación tradicional por la degradación de los modelos de IA gira en torno a model collapse: el contenido sintético contamina gradualmente los datos de entrenamiento y la calidad de los modelos de las generaciones futuras disminuye. Este es un riesgo crónico que solo se manifiesta después de múltiples rondas de reentrenamiento.
La advertencia planteada por Pedro Dias es un nivel diferente: retrieval contamination (contaminación por recuperación). Motores de respuesta basados en RAG (retrieval-augmented generation), como Perplexity, Google AI Overviews, ChatGPT, Grok, etc., al momento de que el usuario hace una pregunta, capturan contenido web en tiempo real como base para la respuesta. Si el sitio web que encuentran contiene errores generados por IA, el motor lo presenta como un hecho a los lectores; y esta contaminación no requiere ningún reentrenamiento para activarse de inmediato.
Tres casos reales: los motores de IA son engañados por la desinformación falsa que ellos mismos generan
El autor enumera tres eventos concretos:
El caso de Lily Ray: Perplexity citó en el pasado una supuesta actualización de algoritmo de Google llamada “September 2025 Perspective Core Algorithm Update” como información de autoridad—esa actualización no existe; la fuente es un blog SEO ficticio generado por IA.
Prueba de Thomas Germain: el periodista Thomas Germain publicó un blog de prueba titulado “el periodista tecnológico más fuerte que come hot dogs”. En 24 horas quedó en primer lugar en Google AI Overviews y ChatGPT, con citas; incluso inventó una supuesta “competencia estatal de Dakota del Sur” inexistente para respaldarlo.
Grokipedia: el proyecto de enciclopedia de xAI, propiedad de Musk, ha generado o reescrito 885,279 artículos, incluyendo hechos erróneos (por ejemplo, la fecha de fallecimiento del padre de la cantante canadiense Feist está mal) y citas sin fundamento. Grokipedia, a mediados de febrero de 2026, ya había perdido la mayor parte de su visibilidad en Google.
Estudio Oumi: alta precisión en Gemini 3, pero 56% sin fuentes
La evaluación encargada por NYT a Oumi: la precisión de Gemini 2 en la prueba de referencia SimpleQA fue del 85% y Gemini 3 aumentó hasta el 91%. Pero la misma prueba muestra que, dentro de las respuestas correctas de Gemini 3, el 56% es “ungrounded”: la respuesta del modelo es correcta pero no tiene fuentes de respaldo verificables; en Gemini 2, esta proporción es del 37%.
Esto significa que los modelos de nueva generación son “más precisos en términos de formato” en las respuestas, pero al mismo tiempo retroceden en “trazabilidad de las fuentes de la respuesta”. Para escenarios como medios, investigación, verificación de hechos, etc., este retroceso es más letal que una tasa puramente de error, porque los lectores no pueden volver al documento de autoridad original para verificarlo por su cuenta.
Escala de la industria: Google AI Overviews llega a 2.000 millones de usuarios
La magnitud industrial de este problema de contaminación: los usuarios activos mensuales de Google AI Overviews superan los 2.000 millones, el volumen de búsquedas de Google supera los 5 billones, y el uso semanal de ChatGPT se acerca a los 900 millones (50 millones de pago). Es decir, la gran mayoría de los usuarios de internet obtienen información fáctica a través de canales que ya han pasado por los motores de respuesta donde “podrían” ser contaminados por contenido generado por IA.
Otro estudio de Ahrefs muestra que, entre las fuentes citadas por ChatGPT, el 44% son listas tipo “best X”. Este tipo de artículos son precisamente el contenido de IA que la industria SEO produce en gran cantidad para combatir la pérdida de tráfico ante los motores de respuesta; y constituyen exactamente una de las principales fuentes de contaminación de dichos motores.
Conclusión estructural: la capa de citación se ha desacoplado de la identidad confiable del autor
La conclusión final del autor: la capa de citación de los motores de respuestas de IA ya se ha desacoplado de la identidad confiable del autor. La industria SEO produce contenido de IA → el motor de respuestas lo capta como si fuera un hecho → el lector lo cree → la industria SEO recibe incentivos para seguir produciendo más contenido de IA, formando un ciclo de contaminación autorreforzado. En la industria actual, no hay un mecanismo claro de rendición de cuentas que haga responsable al motor de IA por la calidad de las fuentes que cita.
Para los usuarios, esto significa que en la etapa actual no se puede tratar las respuestas de Perplexity, AI Overviews o ChatGPT como el punto final de la verificación de hechos; todavía se necesita volver de forma manual a las fuentes oficiales originales para asegurar la precisión.
Este artículo “contaminación colectiva de los motores de respuesta de IA: 56% de las respuestas correctas de Gemini 3 sin respaldo de fuentes” apareció por primera vez en 鏈新聞 ABMedia.