Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Comienzo del trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Sesgo racial en las herramientas de toma de decisiones en la atención médica
El sesgo racial en la atención médica puede manifestarse en lugares inesperados. Un ejemplo: las herramientas de decisión clínica que desempeñan un papel importante en cómo se prueban, diagnostican y tratan los pacientes de hoy.
Estas herramientas contienen algoritmos, o procedimientos paso a paso, generalmente informatizados, para calcular factores como el riesgo de enfermedad cardíaca, la necesidad de una radiografía de tórax y las dosis de medicamentos recetados. La inteligencia artificial puede ser utilizada para analizar registros de salud y sistemas de facturación para crear los conjuntos de datos necesarios.
En apariencia, puede parecer objetivo. Pero estudios han demostrado que el análisis de datos utilizado en estos algoritmos puede estar sesgado de manera crucial contra ciertos grupos raciales y socioeconómicos. Esto puede tener innumerables consecuencias en términos de la cantidad y calidad de atención médica que reciben estos grupos.
Puntos clave
El sesgo racial afecta a los pacientes más enfermos
En 2019, un estudio de un algoritmo ampliamente utilizado por hospitales y aseguradoras en EE. UU. para asignar asistencia adicional en la gestión de la salud mostró discriminación sistemática contra las personas negras. La herramienta de decisión era menos probable en remitir a las personas negras que a las blancas a programas de gestión de atención para necesidades médicas complejas, incluso cuando ambos grupos estaban igualmente enfermos.
La causa subyacente del sesgo estaba relacionada con la asignación de puntajes de riesgo a los pacientes basada en los costos médicos del año anterior. La suposición era que identificar a los pacientes con mayores costos identificaría a quienes tenían mayores necesidades médicas. Sin embargo, muchos pacientes negros tienen menos acceso, menos capacidad para pagar y menos confianza en la atención médica que las personas blancas igualmente enfermas. En este caso, sus costos médicos más bajos no predicen con precisión su estado de salud.
Los programas de gestión de atención utilizan un enfoque cercano, como llamadas telefónicas, visitas domiciliarias por enfermeros y priorización de citas médicas para atender las necesidades complejas de los pacientes más graves. Se ha demostrado que estos programas mejoran los resultados, reducen visitas a urgencias y hospitalizaciones, y disminuyen los costos médicos. Debido a que los programas son costosos, se asignan a las personas con los puntajes de riesgo más altos. Las técnicas de puntuación que discriminan a los pacientes negros más enfermos para este tipo de atención pueden ser un factor importante en su mayor riesgo de muerte por muchas enfermedades.
La raza como variable en la enfermedad renal
Los algoritmos pueden contener sesgos sin incluir la raza como variable, pero algunas herramientas deliberadamente usan la raza como criterio. Tomemos el puntaje eGFR, que evalúa la salud renal y se usa para determinar quién necesita un trasplante de riñón.
En un estudio de 1999 que estableció los criterios del puntaje eGFR, los investigadores notaron que las personas negras tenían, en promedio, niveles más altos de creatinina (un subproducto de la descomposición muscular) que las blancas. Los científicos asumieron que los niveles más altos se debían a mayor masa muscular en las personas negras. Por ello, ajustaron la puntuación, lo que básicamente significaba que las personas negras debían tener un puntaje eGFR más bajo que las blancas para ser diagnosticadas con enfermedad renal en etapa terminal. Como resultado, las personas negras tenían que esperar hasta que su enfermedad renal alcanzara una etapa más severa para calificar para tratamiento.
En 2018, una estudiante de medicina y salud pública en la Universidad de Washington en Seattle observó que los puntajes eGFR no eran precisos para diagnosticar la gravedad de la enfermedad renal en pacientes negros. Luchó para eliminar la raza del algoritmo y ganó. En 2020, UW Medicine aceptó que el uso de la raza era una variable ineficaz y que no cumplía con el rigor científico en las herramientas de diagnóstico médico.
Importante
En 2021, un grupo de trabajo conjunto de la Fundación Nacional del Riñón y la Sociedad Americana de Nefrología recomendó adoptar una nueva ecuación de creatinina CKD-EPI 2021 para el cálculo del eGFR, que estima la función renal sin usar la raza como variable.
Índice de masa corporal y sesgo racial
Incluso la herramienta de decisión médica más simple que no incluye la raza puede reflejar sesgos sociales. El índice de masa corporal (IMC), por ejemplo, se basa en un cálculo que multiplica el peso por la altura. Se usa para identificar pacientes con peso insuficiente, sobrepeso y obesidad.
En 1985, los Institutos Nacionales de Salud vincularon la definición de obesidad al IMC de una persona, y en 1998, un panel de expertos estableció directrices basadas en el IMC que movieron a 29 millones de estadounidenses previamente clasificados como peso normal o simplemente con sobrepeso a las categorías de sobrepeso y obesidad.
Hoy en día, según los estándares del IMC, la mayoría de las personas negras, hispanas y blancas están en sobrepeso u obesas. Pero un informe de 2021 de los Centros para el Control y la Prevención de Enfermedades (CDC) encontró que el porcentaje de estadounidenses que podrían clasificarse como obesos varía según el grupo racial o étnico.
Según el CDC, la distribución entre adultos en general fue:
Al desglosar a las mujeres adultas clasificadas como obesas, las diferencias parecen aún más significativas.
Etiquetar a porcentajes tan altos de poblaciones como con sobrepeso u obesas ha creado un ambiente de vergüenza por el peso y desconfianza entre pacientes y médicos. Las personas con mayor peso se quejan de que los médicos no abordan los problemas o preocupaciones de salud que los llevaron a la consulta. En cambio, los médicos culpan al peso del paciente por sus problemas de salud y promueven la pérdida de peso como solución. Esto contribuye a que muchos pacientes negros e hispanos eviten a los profesionales de la salud y, por lo tanto, quizás pierdan oportunidades de prevenir problemas o detectarlos temprano.
Además, cada vez es más evidente que tener sobrepeso u obesidad no siempre es un problema de salud. Las tasas de algunas condiciones graves, como enfermedades cardíacas, accidentes cerebrovasculares, diabetes tipo 2 y ciertos tipos de cáncer, son mayores entre quienes tienen obesidad. Pero en ciertas situaciones, como la recuperación tras una cirugía cardíaca, estar con sobrepeso o moderadamente obeso (pero no mórbidamente obeso) se asocia con mejores tasas de supervivencia.
Las nuevas directrices sobre obesidad para clínicos canadienses, publicadas en agosto de 2020, enfatizan que los médicos deben dejar de confiar únicamente en el IMC para diagnosticar a los pacientes. Las personas solo deben ser diagnosticadas como obesas si su peso afecta su salud física o bienestar mental, según las nuevas directrices. El tratamiento debe ser integral y no solo centrado en la pérdida de peso. Las directrices también señalan que, “Las personas que viven con obesidad enfrentan sesgos y estigmas sustanciales, que contribuyen a un aumento de morbilidad y mortalidad independientemente del peso o índice de masa corporal.”
La consideración del IMC de un individuo puede ser reemplazada por otras medidas, como la circunferencia de la cintura. Y la obesidad misma puede ser redefinida. En enero de 2025, un grupo de 58 investigadores propuso una nueva definición que cambiaría el enfoque del IMC a la grasa corporal excesiva y su efecto en la salud. El grupo propuso dos categorías de obesidad: preclínica, cuando una persona tiene exceso de grasa pero sus órganos funcionan normalmente, y clínica, cuando demasiado grasa está dañando tejidos y órganos.
Reduciendo el sesgo en las herramientas de decisión
Los algoritmos médicos no son el único tipo de algoritmo que puede estar sesgado. Como señaló un artículo de 2020 en The New England Journal of Medicine, “Este problema no es exclusivo de la medicina. El sistema de justicia penal, por ejemplo, utiliza herramientas de predicción de reincidencia para guiar decisiones sobre montos de fianza y sentencias de prisión.” Los autores dijeron que una herramienta ampliamente utilizada, “aunque no usa la raza per se, emplea muchos factores que se correlacionan con la raza y devuelve puntajes de riesgo más altos para los acusados negros.”
El uso creciente de inteligencia artificial (IA), en particular el aprendizaje automático, también ha planteado preguntas sobre sesgos basados en raza, estatus socioeconómico y otros factores. En la atención médica, el aprendizaje automático a menudo depende de registros electrónicos de salud. Los pacientes pobres y minoritarios pueden recibir atención fragmentada y ser atendidos en múltiples instituciones. Es más probable que sean atendidos en clínicas docentes donde la entrada de datos o el razonamiento clínico puedan ser menos precisos. Y pueden no tener acceso a portales en línea para pacientes y documentar resultados. Como resultado, los registros de estos pacientes pueden tener datos faltantes o erróneos. Los algoritmos que impulsan el aprendizaje automático pueden terminar excluyendo a pacientes pobres y minoritarios de los conjuntos de datos y de la atención necesaria.
La buena noticia es que la conciencia sobre los sesgos en los algoritmos de atención médica ha crecido en los últimos años. Se están revisando los datos de entrada y los resultados en busca de sesgos raciales, étnicos, de ingresos, de género y de edad. Las sociedades especializadas en medicina en EE. UU. están reconociendo los daños causados por la medicina basada en la raza y avanzando para eliminar la consideración de la raza en los algoritmos clínicos. Cuando se reconocen disparidades, los algoritmos y conjuntos de datos pueden ser revisados para lograr mayor objetividad.
¿Qué es un algoritmo?
No existe una definición legal o científica estándar para algoritmo, pero el Instituto Nacional de Estándares y Tecnología lo describe como “Un proceso matemático claramente especificado para el cálculo; un conjunto de reglas que, si se siguen, proporcionarán un resultado prescrito.”
¿Un ejemplo de algoritmo?
En el sentido más amplio, un algoritmo es simplemente un proceso paso a paso para responder una pregunta o lograr un resultado deseado. Por ejemplo, una receta de pastel es una forma de algoritmo. En el mundo de las finanzas, un sistema de comercio automatizado sería un ejemplo.
¿Qué es el aprendizaje automático?
IBM, pionera en el campo, define el aprendizaje automático como “el subconjunto de la inteligencia artificial (IA) enfocado en algoritmos que pueden ‘aprender’ los patrones de los datos de entrenamiento y, posteriormente, hacer inferencias precisas sobre nuevos datos.”
La conclusión
A pesar de su apariencia de objetividad imparcial, los algoritmos que utilizan los profesionales médicos para tomar ciertas decisiones pueden ser propensos a sesgos basados en raza, clase y otros factores. Por esa razón, los algoritmos no pueden aceptarse simplemente por fe, sino que deben someterse a un análisis riguroso. Como señaló un artículo de 2021 en MIT Technology Review, “El término ‘algoritmo’, sea como sea definido, no debería ser un escudo para eximir a las personas que diseñaron y desplegaron cualquier sistema de responsabilidad por las consecuencias de su uso.”