Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
CFD
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Gate Blog
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 40 modelos de IA, con 0% de costos adicionales
La mitad de los consejos de salud de IA son incorrectos—y parecen justos
En resumen
Casi la mitad de las respuestas de salud y medicina proporcionadas por los chatbots de IA más populares de hoy son incorrectas, engañosas o peligrosamente incompletas—y se entregan con total confianza. Esa es la conclusión principal de un nuevo estudio revisado por pares publicado el 14 de abril en BMJ Open. Investigadores de UCLA, la Universidad de Alberta y Wake Forest probaron cinco chatbots—Gemini, DeepSeek, Meta AI, ChatGPT y Grok—sobre 250 preguntas de salud que abarcan cáncer, vacunas, células madre, nutrición y rendimiento atlético. Los resultados: el 49,6% de las respuestas fueron problemáticas. El 30% fueron “algo problemáticas” y el 19,6% “altamente problemáticas”—el tipo de respuesta que podría llevar a alguien hacia tratamientos ineficaces o peligrosos. Para poner a prueba los modelos, el equipo utilizó un enfoque adversarial—formular preguntas deliberadamente para empujar a los chatbots hacia malos consejos. Las preguntas incluyeron si 5G causa cáncer, qué terapias alternativas son mejores que la quimioterapia y cuánto leche cruda hay que beber para beneficios de salud.
“Por defecto, los chatbots no acceden a datos en tiempo real sino que generan salidas infiriendo patrones estadísticos de sus datos de entrenamiento y prediciendo secuencias de palabras probables,” escriben los autores. “No razonan ni ponderan evidencia, ni son capaces de hacer juicios éticos o basados en valores.” Ese es el problema principal. Los chatbots no consultan a un médico—solo hacen coincidencias de patrones en el texto. Y hacer coincidencias en internet, donde la desinformación se propaga más rápido que las correcciones, produce exactamente este tipo de salida. Los investigadores continúan: “Esta limitación conductual significa que los chatbots pueden reproducir respuestas que suenan autoritativas pero que potencialmente son defectuosas.” De 250 preguntas, solo dos provocaron una negativa a responder—ambas de Meta AI, sobre esteroides anabólicos y tratamientos alternativos contra el cáncer. Todos los demás chatbots siguieron hablando.
El rendimiento varió según el tema. Las vacunas y el cáncer fueron los mejores—en parte porque la investigación de alta calidad sobre esos temas está bien estructurada y ampliamente reproducida en línea. La nutrición tuvo el peor rendimiento estadístico de cualquier categoría en el estudio, con el rendimiento en rendimiento atlético cerca detrás. Si has estado preguntando a la IA si la dieta carnívora es saludable, probablemente la respuesta que recibiste no estaba basada en el consenso científico.
Grok destacó por las razones equivocadas. El chatbot de Elon Musk fue el peor en rendimiento de todos los modelos evaluados. De sus 50 respuestas, 29 (58%) fueron calificadas como problemáticas en general—la mayor proporción entre los cinco chatbots. Quince de esas (30%) fueron altamente problemáticas, mucho más de lo esperado bajo una distribución aleatoria. Los investigadores relacionan esto directamente con los datos de entrenamiento de Grok: X es una plataforma conocida por difundir rápidamente y ampliamente desinformación sobre salud. Las citas fueron un desastre aparte. En todos los modelos, la puntuación media de completitud para las referencias fue solo del 40%—y ningún chatbot produjo una lista de referencias completamente precisa. Los modelos inventaron autores, revistas y títulos. DeepSeek incluso lo reconoció: El modelo dijo a los investigadores que sus referencias se generaron a partir de patrones de datos de entrenamiento “y pueden no corresponder a fuentes verificables reales.” El problema de legibilidad agrava todo lo demás. Todas las respuestas de los chatbots puntuaron en el rango de “Difícil” en la escala de Facilidad de Lectura de Flesch—equivalente a nivel de estudiantes de segundo a último año de universidad. Eso excede la recomendación de la Asociación Médica Americana de que los materiales de educación para pacientes no deben superar el nivel de lectura de sexto grado. En otras palabras, estos chatbots aplican el mismo truco que suelen hacer los políticos y debatientes profesionales: lanzarte tantas palabras técnicas en tan poco tiempo que terminas pensando que saben más de lo que en realidad saben. Cuanto más difícil sea de entender algo, más fácil será de malinterpretar. Los hallazgos reflejan un estudio de Oxford de febrero de 2026 cubierto por Decrypt que encontró que el consejo médico de IA no es mejor que los métodos tradicionales de autodiagnóstico. También se alinean con preocupaciones más amplias sobre cómo los chatbots de IA ofrecen orientación inconsistente dependiendo de cómo se formulen las preguntas. “Conforme continúa la expansión del uso de chatbots de IA, nuestros datos resaltan la necesidad de educación pública, capacitación profesional y supervisión regulatoria para garantizar que la IA generativa apoye, en lugar de socavar, la salud pública,” concluyen los autores.
El estudio solo evaluó cinco chatbots de nivel gratuito, y el método de preguntas adversariales puede sobreestimar las tasas de fallo en el mundo real. Pero los autores son claros: el problema no son los casos extremos. Es que estos modelos se despliegan a gran escala, son utilizados por no expertos como motores de búsqueda, y están configurados—por diseño—para casi nunca decir “No lo sé.”