Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Prueba real de 4 grandes modelos, resultados más exagerados que el "envenenamiento de IA": hay IA que dice que la gala del 315 de este año aún no se ha llevado a cabo
Fuente: Plataforma de Desmentidos de Shanghái
La gala de CCTV “3·15” de 2026 se emitió la noche del 15 de marzo. Entre las revelaciones, la actividad de “envenenamiento” del modelo de gran escala de IA, GEO (Optimización de Motor Generativo), fue expuesta, y muchas personas descubrieron que confiar en las recomendaciones de IA no es fiable, ya que los comerciantes ilegales fabrican en masa opiniones falsas, falsifican recomendaciones de autoridad y las “alimentan” al gran modelo para que la IA proporcione “recomendaciones personalizadas”.
Pero también hay consumidores que, tras ver los casos expuestos, preguntan: si no se le pregunta a la IA grandes modelos sobre temas subjetivos como “¿qué marca es buena?” o “¿qué servicios son populares?”, solo consultando información objetiva, ¿se puede confiar en las respuestas de la IA?
La respuesta también es negativa.
Preguntar demasiado a los grandes modelos, cuanto más se pregunta, más errores
El 16 de marzo, un periodista realizó una prueba sencilla con los 4 modelos de IA más utilizados por los consumidores: les planteó la misma pregunta “¿Qué marcas fueron expuestas en la gala de CCTV 3·15 de 2026?”. El resultado fue que solo uno respondió correctamente. De los otros tres, dos mezclaron casos de este año con casos de años anteriores; el restante, sorprendentemente, respondió que “la gala de CCTV 3·15 de 2026 aún no se ha celebrado. Dado que hoy es 16 de marzo de 2026, si la gala se emitió normalmente el 15 de marzo, los contenidos expuestos generalmente se publicarían en CCTV Finanzas, en la aplicación de CCTV Noticias y en otras plataformas mediáticas de manera sincronizada.”
Respuesta correcta del gran modelo (captura de pantalla de la respuesta, igual en adelante)
Dos grandes modelos confunden casos de años anteriores con los de este año
Un gran modelo respondió: “Aún no se ha celebrado”
Un consumidor señaló que, aunque la respuesta incluya casos de años anteriores, no es del todo incorrecta, ya que “la advertencia es bastante completa”. Pero los técnicos explicaron que esto revela claramente una deficiencia en el gran modelo: la pregunta planteada tiene una “respuesta estándar”, pero el modelo respondió mal, lo que indica un grave sesgo en la comprensión semántica y en la selección de datos.
Al ser cuestionados por el periodista, estos dos “demasiado entusiastas” modelos también mostraron otros problemas.
Uno de los casos expuestos en la gala de CCTV 3·15 del año pasado fue el uso de “agentes conservantes (conocidos como ‘espuma de medicamentos’) para aumentar el peso de las gambas”. Entonces, el periodista preguntó a los dos modelos que usaron ese caso como ejemplo de este año: “¿Dónde están los enlaces de los informes de CCTV sobre el aumento de peso de las gambas?” Uno de ellos proporcionó varios enlaces, incluyendo “Repetición completa de la gala de CCTV 3·15”, “Informe temático de CCTV Noticias (texto + video)” y “Página temática de CCTV Finanzas 3·15”, que parecían confiables. Pero al hacer clic en los enlaces, la página mostraba “Lo siento, puede ser un problema de red o la página no existe, por favor intente más tarde”. Incluso copiando los enlaces en el navegador, no se podía abrir. Se puede ver que los enlaces proporcionados por el modelo no son suficientes para verificar su respuesta.
Los enlaces de verificación proporcionados por el modelo muestran que provienen de CCTV.com, lo que parece confiable, pero en realidad no se pueden abrir (captura de pantalla de la página)
El otro modelo proporcionó enlaces de diferentes plataformas como CCTV.com, Baijiahao, NetEase News, todos accesibles en la prueba, pero surgieron nuevos problemas.
El primer enlace de ese modelo proviene de un informe oficial de CCTV (CCTV), que efectivamente trata sobre “gambas conservadas”, pero la fecha en la página y en el contenido es 15 de marzo de 2025. El modelo pareció notar esto y, al proporcionar el enlace, agregó una nota: “En algunos resultados de búsqueda, el año del enlace aparece como 2025, pero el contenido corresponde a la cobertura del evento en 2026, probablemente por archivado del sitio o reglas de generación de URL, por favor, consulte el contenido real de la página”. Se puede ver que el modelo no solo no detectó su error, sino que intentó “justificarlo”.
El modelo intenta “justificarse” (captura de pantalla de la página)
El segundo enlace proporcionado por el modelo es un artículo de un medio independiente sobre la gala de CCTV 3·15 de este año, cuya autoridad del autor es discutible. En cuanto al contenido, presenta numerosos errores, siendo el más evidente que el “artículo de interpretación” afirma que el primer caso expuesto en la gala de 2026 fue “gambas con espuma de medicamentos”, lo que también explica por qué el modelo lo usó como referencia. El periodista usó una herramienta de detección para analizar el contenido “AI” de ese artículo, y fue calificado como “características de creación humana débiles”. En otras palabras, probablemente fue generado por un gran modelo, y los casos que menciona también presentan sesgos.
Errores en el “artículo de interpretación” del medio independiente (captura de pantalla de la página)
Tras la detección, se confirmó que el “artículo de interpretación” tiene un fuerte rastro de generación por IA (captura de pantalla de la página)
La ilusión de la IA está en evolución, la verificación revela la verdad
“Muchos usuarios de grandes modelos de IA ya han descubierto que, para satisfacer a los usuarios, la IA fabrica contenidos inexistentes o mezcla información no relacionada, diciendo cosas con mucha seriedad. Aunque los desarrolladores de estos modelos están intentando eliminar la ilusión de la IA, los resultados aún no son ideales. Actualmente, ningún modelo de inteligencia artificial general puede eliminar completamente la ilusión de la IA”, explicó Xiaohui, que trabaja en desarrollo de grandes modelos en una empresa tecnológica.
El principio subyacente de los grandes modelos se basa en la generación probabilística de contenido, sin una verdadera capacidad de “comprensión”. Solo buscan patrones estadísticos en vastos datos. Cuando enfrentan preguntas desconocidas o con información ambigua, combinan de manera “razonable” los patrones comunes en los datos de entrenamiento, lo que es la causa fundamental de la ilusión de la IA. Los errores en las preguntas y respuestas del periodista provienen precisamente de esa ilusión.
Xiaohui también señaló que “envenenar” a la IA es otra forma de aprovechar la ilusión de la IA. “Las empresas GEO alimentan en masa información falsa en internet, alterando la distribución de datos y las probabilidades estadísticas en áreas específicas, para inducir a los grandes modelos a generar respuestas que benefician a los comerciantes pero que van en contra de los hechos.”
Por ello, advierte que el público debe tener cuidado con la ilusión de la IA. Los grandes modelos no son inútiles, sino que deben usarse de manera segura, consciente y correcta. La gente común debe mantener una actitud de cuestionamiento ante los resultados de la IA. Lo más simple es recordar las cuatro palabras clave: “limitar, verificar, preguntar y comprobar”.
Primero, al preguntar a la IA, se puede limitar el alcance, añadiendo términos como “buscar en la página oficial de cierta institución” o “buscar en informes de medios autorizados”, para reducir la ilusión de la IA.
Segundo, se puede plantear la misma pregunta a diferentes modelos y hacer validaciones cruzadas. Si las respuestas no coinciden, hay que tener una actitud de cuestionamiento inmediata.
Finalmente, solicitar enlaces de referencia relacionados con las respuestas del modelo y realizar una verificación manual. Si no hay fuentes claras, las fuentes son vagas o los enlaces de referencia presentan dudas, la credibilidad de la respuesta del modelo se reduce aún más.
Además, hay que tener en cuenta en qué escenarios se usa la IA. Por ejemplo, en diagnósticos médicos, recomendaciones de medicamentos, decisiones legales, asesoramiento de inversiones, créditos financieros y otros ámbitos de alto riesgo, las respuestas de la IA “son solo para referencia” y no deben usarse como base para decisiones.
Editor: Sun Fei