Más exagerado que el "envenenamiento de IA": prueba práctica de 4 modelos grandes: algunos IA dicen que la gala de 315 de este año aún no se ha llevado a cabo

robot
Generación de resúmenes en curso

(Procedencia: China Ningbo Net)

Reproducido de: China Ningbo Net

La gala de la CCTV del 15 de marzo de 2026 se emitió la noche del 15 de marzo. Entre los temas expuestos, la operación de “envenenamiento” de grandes modelos de IA mediante GEO (optimización de motores generativos) fue revelada, y muchas personas descubrieron que confiar en las recomendaciones de IA no es fiable, ya que comerciantes ilegales fabrican en masa opiniones falsas, falsifican contenidos de recomendaciones de autoridad y “alimentan” estos datos a los grandes modelos, para que la IA proporcione “recomendaciones personalizadas”.

Pero también hay consumidores que, tras ver los casos expuestos, preguntan: si no se consulta a los grandes modelos de IA sobre cuestiones subjetivas como “¿qué marca es buena?” o “¿qué servicios son populares?”, y solo se busca información sobre hechos objetivos, ¿se puede confiar en las respuestas de estos modelos?

La respuesta también es negativa.

Cuanto más se interroga a los grandes modelos, más errores se cometen

El 16 de marzo, un periodista realizó una prueba sencilla con los cuatro grandes modelos de IA más utilizados por los consumidores: les planteó la misma pregunta “¿Qué marcas fueron expuestas en la gala de la CCTV del 15 de marzo de 2026?”. El resultado fue que solo uno respondió correctamente. De los otros tres, dos mezclaron casos de este año con casos de años anteriores; el restante, el más absurdo, respondió que “la gala de la CCTV del 15 de marzo de 2026 aún no se ha celebrado. Dado que hoy es 16 de marzo de 2026, si la gala se emitió normalmente el 15 de marzo, los contenidos expuestos generalmente se publicarían en la cadena financiera de CCTV, en la aplicación de noticias de CCTV y en las principales plataformas mediáticas de forma simultánea”.

Respuesta correcta del modelo (captura de pantalla de la respuesta, igual en adelante)

Dos modelos confunden casos de años anteriores con los de este año

Un modelo respondió: “Aún no se ha celebrado”

Algunos consumidores argumentan que incluir casos de años anteriores en las respuestas no es completamente incorrecto, ya que “la advertencia es muy completa”. Pero los técnicos señalan que esto revela claramente una deficiencia en estos grandes modelos: la pregunta planteada tiene una “respuesta estándar”, pero el modelo se equivocó, lo que indica un grave sesgo en la comprensión semántica y en la selección de datos.

Al ser interrogados por el periodista, estos dos “demasiado entusiastas” modelos también mostraron otros problemas.

Uno de los casos expuestos en la gala del año pasado fue el uso de agentes humectantes (conocidos como “espuma medicinal”) para aumentar el peso de las gambas. Por ello, el periodista preguntó a los dos modelos que usaron ese caso como ejemplo de este año: “¿Dónde están los enlaces de los informes de CCTV sobre el aumento de peso de las gambas?” Uno de ellos proporcionó varios enlaces, incluyendo “Repetición completa de la gala del 15 de marzo en CCTV”, “Informe temático de CCTV Noticias (texto + video)” y “Página temática del 15 de marzo en CCTV Finanzas”, que parecían confiables. Pero al hacer clic en esos enlaces, la página mostraba: “Lo sentimos, puede ser por problemas de red o la página no existe, por favor intente más tarde”. Incluso copiando los enlaces en el navegador, no se podía acceder. Esto demuestra que los enlaces proporcionados por el modelo no son suficientes para verificar su respuesta.

Los enlaces de verificación proporcionados por el modelo parecen provenir de CCTV, parecen confiables, pero en realidad no se pueden abrir (captura de pantalla de la página)

Otro modelo proporcionó enlaces de diferentes fuentes, como CCTV, Baijiahao, NetEase News, y todos funcionaron en la prueba, pero surgieron nuevos problemas.

El primer enlace de ese modelo proviene de una noticia oficial de CCTV (CCTV), que efectivamente trata sobre “gambas con agua”, pero la fecha en la página y en el contenido es 15 de marzo de 2025. El modelo también notó esto y, al ofrecer el enlace, agregó una nota: “En algunos resultados de búsqueda, el año de este enlace aparece como 2025, pero el contenido corresponde a una cobertura del evento en 2026, probablemente por reglas de archivo del sitio o generación de URL, por favor, consulte el contenido real de la página”. Esto muestra que el modelo no solo no detectó su error, sino que intentó “justificarse”.

El modelo intenta “justificarse” (captura de pantalla de la página)

El segundo enlace proporcionado por ese modelo es un artículo de un medio independiente sobre la gala del 15 de marzo de 2026, cuya autoridad del autor es discutible. Además, el contenido está lleno de errores, siendo el más evidente que el “artículo interpretativo” afirma que el primer caso expuesto en la gala de 2026 fue “gambas con agua”, lo cual también explica por qué el modelo lo usó como referencia. El periodista usó una herramienta de detección para analizar el “contenido de IA” de ese artículo, y fue calificado como “características de creación humana débiles”. En otras palabras, probablemente fue generado por un gran modelo, y los casos que menciona también están sesgados.

Errores en el “artículo interpretativo” del medio independiente (captura de pantalla de la página)

Tras la evaluación, se detectó que el “artículo interpretativo” tiene un fuerte rastro de generación por IA (captura de pantalla de la página)

La alucinación de la IA está en evolución, solo la verificación revela la verdad

“Muchos usuarios de grandes modelos de IA ya han descubierto que, para satisfacer a los usuarios, la IA fabrica contenidos que no existen o mezcla información no relacionada, diciendo cosas con toda seriedad”. Aunque los desarrolladores de estos modelos intentan eliminar las alucinaciones de IA, los resultados aún no son satisfactorios. Actualmente, ningún modelo de inteligencia artificial general puede eliminar completamente las alucinaciones de IA”, explica Xiaohui, que trabaja en desarrollo de grandes modelos en una empresa tecnológica.

El principio fundamental de estos modelos es generar contenido basado en probabilidades, sin una verdadera “comprensión”. Solo buscan patrones estadísticos en vastas cantidades de datos. Cuando enfrentan preguntas desconocidas o con información ambigua, combinan de manera “razonable” los patrones comunes en los datos de entrenamiento, lo que causa las alucinaciones de IA. Los errores que surgen en las preguntas y respuestas del periodista son precisamente resultado de esas alucinaciones.

Xiaohui también señala que “envenenar” a la IA es otra forma de aprovechar esas alucinaciones: “Las empresas GEO alimentan en masa información falsa en internet, alterando la distribución de datos y las probabilidades estadísticas en ciertos ámbitos, para inducir a los grandes modelos a generar respuestas que benefician a los comerciantes pero que son contrarias a los hechos”.

Por ello, advierte que el público debe tener mucho cuidado con las alucinaciones de IA. Los grandes modelos no son inútiles, sino que deben usarse de forma segura, consciente y correcta. La gente común debe mantener una actitud de duda respecto a los resultados que ofrecen estos modelos. La forma más sencilla es recordar las palabras clave: “limitar, verificar, preguntar, comprobar”.

Primero, al hacer preguntas a los modelos, se puede limitar el alcance, añadiendo términos como “buscar en la página oficial de cierta institución” o “buscar en informes de medios autorizados”, para reducir las alucinaciones.

Segundo, se puede plantear la misma pregunta a diferentes modelos y hacer una validación cruzada. Si las respuestas no coinciden, hay que preguntar de nuevo de inmediato.

Por último, se deben solicitar enlaces de referencia relacionados con las respuestas del modelo y realizar una verificación manual de las fuentes. Si no hay una fuente clara, o si la fuente es difusa, o si los enlaces de referencia presentan dudas, la credibilidad de la respuesta del modelo se reduce aún más.

Además, hay que tener cuidado con los escenarios en los que se usa IA. Por ejemplo, en diagnósticos médicos, recomendaciones de medicación, decisiones legales, asesoramiento en inversiones, créditos financieros y otros ámbitos de alto riesgo, las respuestas de IA solo deben considerarse “para referencia” y nunca como base para decisiones.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado