¿Usar tu chatbot de IA como motor de búsqueda? Ten cuidado con lo que crees

Durante la Primera Guerra Mundial, el gobierno británico buscaba formas de ayudar a las personas a estirar sus limitados suministros de alimentos. Encontró folletos de un reconocido herbolario del siglo XIX que decía que las hojas de ruibarbo podían usarse como vegetal junto con los tallos.

El gobierno imprimió sus propios folletos aconsejando a la gente comer las hojas de ruibarbo en ensalada en lugar de desechararlas. Pero había un problema: las hojas de ruibarbo pueden ser venenosas. Se reportó que las personas murieron o se enfermaron.

El consejo fue corregido y los folletos retirados de circulación. Pero durante la Segunda Guerra Mundial, el gobierno volvió a buscar maneras de ampliar los suministros de alimentos.

Encontró un stock de recursos antiguos de la guerra anterior que explicaban fuentes no ortodoxas de alimentos, incluyendo las hojas de ruibarbo. Reutilizar los folletos parecía una opción eficiente, así que se distribuyeron al público. Una vez más, se reportó que las personas murieron o se enfermaron.

Esos folletos eran información errónea, pero el público no tenía motivos para sospechar en ninguna de las dos ocasiones. Eran recursos oficiales desarrollados por el gobierno, ¿por qué no serían seguros?

Así es como la desinformación puede causar problemas incluso después de corregir el error inicial. Y la moraleja de la historia aún resuena en la era de la inteligencia artificial generativa (IA).

Los chatbots no son motores de búsqueda

La IA generativa se usa para crear textos e imágenes (y otras formas de datos) basados en información original que ha ingerido. Pero también puede ser un motor que produce desinformación más rápido de lo que las personas pueden generar información segura, y mucho menos verificar y corregir.

Y como ilustra la historia del ruibarbo, las correcciones no siempre eliminan adecuadamente la contaminación original.

Plataformas de IA como ChatGPT y Claude no funcionan como un motor de búsqueda convencional. Pero las personas las usan como tal porque parecen resumir temas complejos rápidamente y requieren menos clics que las búsquedas tradicionales en internet.

Los motores de búsqueda se basan en artículos y textos sobre un tema dado, y luego evalúan cuán confiables son esos artículos. La IA generativa, en cambio, se basa en grandes volúmenes de texto, de los cuales mide las probabilidades de que las palabras aparezcan juntas.

Estos “modelos de lenguaje grande” solo buscan generar oraciones que parezcan razonables, en lugar de precisas.

Por ejemplo, si “huevos verdes y jamón” aparece con frecuencia en su enorme pila de palabras, es más probable que describa “huevos y jamón” como verdes si alguien pregunta.

‘Plausible pero incorrecto’

OpenAI, que desarrolló ChatGPT, ha admitido (basándose en su propio estudio) que no hay forma de evitar que se presente información falsa como verdadera debido a cómo funciona la IA generativa. Explicando por qué los modelos de lenguaje grande “alucinan”, los investigadores escribieron:

Esto puede tener consecuencias en el mundo real. Un estudio reciente mostró que ChatGPT no reconoció una emergencia médica en más de la mitad de los casos. Esto puede agravarse por errores ya existentes en los registros médicos, que una investigación en el Reino Unido en 2025 encontró que afectaron a hasta uno de cada cuatro pacientes.

Mientras un médico podría ordenar más pruebas para confirmar un diagnóstico, un investigador explicó que la IA generativa “da la respuesta incorrecta con la misma confianza que la correcta”.

El problema, como señaló otro científico, es que la IA generativa “encuentra y imita patrones de palabras”. Tener razón o no, realmente no es el punto: “Se suponía que debía hacer una oración y lo hizo”.

Investigaciones han demostrado que las herramientas de IA generativa tergiversan las noticias el 45% del tiempo, sin importar el idioma o la región geográfica. Y ahora existe una preocupación genuina de que la IA ponga en riesgo vidas generando rutas de senderismo inexistentes.

Es fácil burlarse de la IA generativa cuando aconseja a las personas comer piedras o pegar toppings en una base de pizza con pegamento.

Pero otros ejemplos no son tan divertidos, como el planificador de comidas del supermercado que sugirió una receta que produciría gas cloro, o el consejo dietético que dejó a alguien con exposición tóxica crónica a bromuro.

Busca información más antigua

La educación y el establecimiento de buenas reglas sobre el uso apropiado y cauteloso de la IA generativa serán esenciales, especialmente a medida que esta penetra en gobiernos, burocracias y organizaciones complejas.

Los políticos ya usan IA generativa en su trabajo diario, incluso para investigación de políticas. Y los departamentos de emergencia hospitalarios usan herramientas de IA para registrar notas de pacientes y ahorrar tiempo.

Una medida de protección es tratar de obtener información más confiable producida antes de que la IA contaminara textos e imágenes en internet.

Incluso existen herramientas para facilitar ese proceso, como una creada por la artista australiana Tega Brain, “que solo devolverá contenido creado antes del primer lanzamiento público de ChatGPT el 30 de noviembre de 2022”.

Finalmente, si tu instinto es verificar los hechos de la historia al inicio de este artículo, los libros tradicionales pueden ser tu mejor opción: en “El jardín de las toxinas: A-Z de plantas venenosas y maleficios botánicos” y “Maleficios y maleficios: Las vidas ocultas de las plantas” se encuentran referencias a cómo el gobierno británico incentivó en dos ocasiones el envenenamiento con ruibarbo.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado