Última investigación de Harvard: usar modelos de lenguaje grandes de IA para diagnosticar, el 80% de los diagnósticos preliminares son incorrectos

robot
Generación de resúmenes en curso

Mars Finance News 15 de abril: Un equipo de investigación de la Facultad de Medicina de Harvard en Estados Unidos evaluó la capacidad diagnóstica de más de 20 de los modelos de lenguaje de inteligencia artificial más avanzados (LLM), incluyendo ChatGPT, DeepSeek, Gemini y Claude. Los resultados mostraron que la tasa de error en la realización de “diagnóstico diferencial” (identificación de posibles enfermedades) basada en los síntomas y signos iniciales del paciente alcanzó hasta el 80%. Este estudio además indica que, tras proporcionar más resultados de pruebas por parte del paciente, los grandes modelos pueden reducir la tasa de fallos en el “diagnóstico final” a aproximadamente el 40%. Los investigadores señalaron que esto significa que los chatbots de IA necesitan información completa del paciente para realizar diagnósticos más precisos, y cuando los pacientes no pueden proporcionar información completa de sus pruebas de salud, los resultados ofrecidos por la IA no son confiables. Los investigadores también enfatizaron: “La inteligencia artificial aún no ha alcanzado un nivel en el que pueda tomar decisiones diagnósticas sin intervención de profesionales médicos.” (First Financial)

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado