Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
¿Usar tu chatbot de IA como motor de búsqueda? Ten cuidado con lo que crees
Durante la Primera Guerra Mundial, el gobierno británico buscaba formas de ayudar a las personas a estirar sus limitados suministros de alimentos. Encontró folletos de un reconocido herbolario del siglo XIX que decía que las hojas de ruibarbo podían usarse como vegetal junto con los tallos.
El gobierno imprimió sus propios folletos aconsejando a la gente comer las hojas de ruibarbo en ensalada en lugar de desechararlas. Pero había un problema: las hojas de ruibarbo pueden ser venenosas. Se reportó que las personas murieron o se enfermaron.
El consejo fue corregido y los folletos retirados de circulación. Pero durante la Segunda Guerra Mundial, el gobierno volvió a buscar maneras de ampliar los suministros de alimentos.
Encontró un stock de recursos antiguos de la guerra anterior que explicaban fuentes no ortodoxas de alimentos, incluyendo las hojas de ruibarbo. Reutilizar los folletos parecía una opción eficiente, así que se distribuyeron al público. Una vez más, se reportó que las personas murieron o se enfermaron.
Esos folletos eran información errónea, pero el público no tenía motivos para sospechar en ninguna de las dos ocasiones. Eran recursos oficiales desarrollados por el gobierno, ¿por qué no serían seguros?
Así es como la desinformación puede causar problemas incluso después de corregir el error inicial. Y la moraleja de la historia aún resuena en la era de la inteligencia artificial generativa (IA).
Los chatbots no son motores de búsqueda
La IA generativa se usa para crear textos e imágenes (y otras formas de datos) basados en información original que ha ingerido. Pero también puede ser un motor que produce desinformación más rápido de lo que las personas pueden generar información segura, y mucho menos verificar y corregir.
Y como ilustra la historia del ruibarbo, las correcciones no siempre eliminan adecuadamente la contaminación original.
Plataformas de IA como ChatGPT y Claude no funcionan como un motor de búsqueda convencional. Pero las personas las usan como tal porque parecen resumir temas complejos rápidamente y requieren menos clics que las búsquedas tradicionales en internet.
Los motores de búsqueda se basan en artículos y textos sobre un tema dado, y luego evalúan cuán confiables son esos artículos. La IA generativa, en cambio, se basa en grandes volúmenes de texto, de los cuales mide las probabilidades de que las palabras aparezcan juntas.
Estos “modelos de lenguaje grande” solo buscan generar oraciones que parezcan razonables, en lugar de precisas.
Por ejemplo, si “huevos verdes y jamón” aparece con frecuencia en su enorme pila de palabras, es más probable que describa “huevos y jamón” como verdes si alguien pregunta.
‘Plausible pero incorrecto’
OpenAI, que desarrolló ChatGPT, ha admitido (basándose en su propio estudio) que no hay forma de evitar que se presente información falsa como verdadera debido a cómo funciona la IA generativa. Explicando por qué los modelos de lenguaje grande “alucinan”, los investigadores escribieron:
Esto puede tener consecuencias en el mundo real. Un estudio reciente mostró que ChatGPT no reconoció una emergencia médica en más de la mitad de los casos. Esto puede agravarse por errores ya existentes en los registros médicos, que una investigación en el Reino Unido en 2025 encontró que afectaron a hasta uno de cada cuatro pacientes.
Mientras un médico podría ordenar más pruebas para confirmar un diagnóstico, un investigador explicó que la IA generativa “da la respuesta incorrecta con la misma confianza que la correcta”.
El problema, como señaló otro científico, es que la IA generativa “encuentra y imita patrones de palabras”. Tener razón o no, realmente no es el punto: “Se suponía que debía hacer una oración y lo hizo”.
Investigaciones han demostrado que las herramientas de IA generativa tergiversan las noticias el 45% del tiempo, sin importar el idioma o la región geográfica. Y ahora existe una preocupación genuina de que la IA ponga en riesgo vidas generando rutas de senderismo inexistentes.
Es fácil burlarse de la IA generativa cuando aconseja a las personas comer piedras o pegar toppings en una base de pizza con pegamento.
Pero otros ejemplos no son tan divertidos, como el planificador de comidas del supermercado que sugirió una receta que produciría gas cloro, o el consejo dietético que dejó a alguien con exposición tóxica crónica a bromuro.
Busca información más antigua
La educación y el establecimiento de buenas reglas sobre el uso apropiado y cauteloso de la IA generativa serán esenciales, especialmente a medida que esta penetra en gobiernos, burocracias y organizaciones complejas.
Los políticos ya usan IA generativa en su trabajo diario, incluso para investigación de políticas. Y los departamentos de emergencia hospitalarios usan herramientas de IA para registrar notas de pacientes y ahorrar tiempo.
Una medida de protección es tratar de obtener información más confiable producida antes de que la IA contaminara textos e imágenes en internet.
Incluso existen herramientas para facilitar ese proceso, como una creada por la artista australiana Tega Brain, “que solo devolverá contenido creado antes del primer lanzamiento público de ChatGPT el 30 de noviembre de 2022”.
Finalmente, si tu instinto es verificar los hechos de la historia al inicio de este artículo, los libros tradicionales pueden ser tu mejor opción: en “El jardín de las toxinas: A-Z de plantas venenosas y maleficios botánicos” y “Maleficios y maleficios: Las vidas ocultas de las plantas” se encuentran referencias a cómo el gobierno británico incentivó en dos ocasiones el envenenamiento con ruibarbo.