Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
El argumento a favor de una IA aburrida
La carrera de benchmarks de IA tiene un ganador. Simplemente no eres tú.
Cada pocos meses aparece un nuevo modelo y una nueva tabla de posiciones se reorganiza. Los laboratorios compiten para razonar mejor, programar mejor y responder mejor que los demás en pruebas diseñadas para medir la inteligencia de las máquinas. La cobertura sigue. También sigue la financiación.
Lo que recibe menos atención es si todo esto es inevitable. Los benchmarks, la carrera armamentista, la forma de enmarcar la IA como salvación o como catástrofe: son decisiones, no leyes de la física. Reflejan lo que la industria decidió optimizar y lo que decidió financiar. La tecnología que tardará décadas en dar resultados en formas ordinarias y útiles no recauda miles de millones este trimestre. Las narrativas extremas sí.
Algunos investigadores creen que el objetivo es simplemente erróneo. No que la IA no sea importante, sino que lo importante no tiene que significar inédito. La imprenta cambió el mundo. También lo hizo la electricidad. Ambos lo hicieron de forma gradual, mediante una adopción caótica, dando a las sociedades tiempo para responder. Si la IA sigue ese patrón, las preguntas correctas no son sobre la superinteligencia. Son sobre quién se beneficia, a quién se perjudica y si las herramientas que estamos construyendo realmente funcionan para las personas que las usan.
Muchos investigadores han estado haciendo esas preguntas desde perspectivas muy distintas. Aquí van tres de ellas.
Útil, no general
Ruchir Puri ha estado construyendo IA en IBM $IBM desde antes de que la mayoría de la gente hubiera oído hablar del aprendizaje automático. Vio cómo Watson vencía a los mejores jugadores de Jeopardy del mundo en 2011. Ha visto varios ciclos de exageración y retirada desde entonces. Cuando llegó la ola actual, tenía una prueba sencilla para ella: ¿es útil?
No impresionante. No general. Útil.
“No me preocupa realmente la inteligencia general artificial”, dice. “Me preocupa la parte útil de ella”.
Ese planteamiento lo pone en desacuerdo con gran parte de la autopercepción de la industria. Los laboratorios que corren hacia la AGI están optimizando por amplitud: construyen sistemas que pueden hacer cualquier cosa, responder cualquier cosa, razonar sobre cualquier cosa. Puri piensa que ese es el objetivo equivocado, y tiene un benchmark que le gustaría ver que la industria intente alcanzar de verdad.
El cerebro humano vive en 1.200 centímetros cúbicos, consume 20 vatios, la energía de un foco, y, como señala Puri, funciona con sándwiches. Una GPU Nvidia $NVDA consume 1.200 vatios, 60 veces más que todo el cerebro, y necesitas miles de ellas en un gran centro de datos para hacer algo con sentido. Si el cerebro es el benchmark, la industria no está cerca de ser eficiente. Va en la dirección equivocada.
Su alternativa es lo que él llama arquitectura híbrida: modelos pequeños, medianos y grandes trabajando juntos, y a cada uno se le asigna la tarea que mejor maneja. Un modelo de frontera grande hace el razonamiento y la planificación complejos. Los modelos más pequeños, creados para un propósito, se encargan de la ejecución. Una tarea tan simple como redactar un correo electrónico no necesita un sistema entrenado con la mitad de Internet. Necesita algo rápido, barato y enfocado. Cada nueve meses más o menos, Puri señala, el modelo pequeño de la generación anterior se vuelve aproximadamente equivalente a lo que antes se consideraba grande. La inteligencia se está abaratando. La pregunta es si alguien está construyendo pensando en esa realidad.
El enfoque tiene respaldo en el mundo real. Airbnb $ABNB usa modelos más pequeños para resolver una parte significativa de los problemas de atención al cliente más rápido que sus representantes humanos. Meta $META no usa sus modelos más grandes para entregar anuncios; destila ese conocimiento en otros más pequeños construidos solo para esa tarea. El patrón es lo bastante consistente como para que los investigadores hayan empezado a llamarlo una línea de ensamblaje de conocimiento: entra datos, los modelos especializados manejan pasos discretos y al otro lado sale algo útil.
IBM ha estado construyendo esa línea de ensamblaje más tiempo que la mayoría. Un agente híbrido que combina modelos de varias empresas ha mostrado una mejora del 45% en productividad en toda una gran fuerza laboral de ingeniería. Los sistemas que funcionan con modelos más pequeños y creados para un propósito ahora ayudan a los ingenieros que mantienen el 84% de las transacciones financieras del mundo a obtener la información correcta en el momento correcto. No son aplicaciones llamativas. Tampoco están fallando.
Ninguno de ellos requiere un sistema que pueda escribir poesía o resolver la tarea de matemáticas de tu hijo. Requieren algo más acotado y, por eso, más confiable. Un modelo entrenado para hacer una sola cosa bien sabe cuándo una pregunta queda fuera de su alcance. Lo dice. Esa incertidumbre calibrada, saber lo que no sabes, es algo con lo que aún luchan los grandes modelos de frontera.
“Quiero construir agentes y sistemas para esos procesos”, dice Puri. “No algo que responda dos millones de cosas”.
Herramientas, no agentes
Ben Shneiderman tiene una prueba sencilla para saber si un sistema de IA está bien diseñado. ¿La persona que lo usa siente que hizo algo, o siente que a esa persona le hicieron algo?
La diferencia importa más de lo que suena. Shneiderman, científico de la computación de la Universidad de Maryland que ayudó a sentar las bases del diseño de interfaces moderno, ha pasado décadas argumentando que el objetivo de la tecnología debería ser ampliar la capacidad humana, no reemplazarla. Las buenas herramientas construyen lo que él llama autoeficacia del usuario, o la confianza que proviene de saber que puedes hacer algo por tu cuenta. Las malas transfieren esa agencia silenciosamente a algún otro lugar.
Él piensa que gran parte de la industria de IA está construyendo malas herramientas, y cree que el giro hacia agentes lo empeora. La propuesta de los agentes de IA es que actúan en tu nombre, manejando tareas de extremo a extremo sin tu participación. Para Shneiderman, eso no es una característica. Es el problema. Si algo sale mal, y saldrá, ¿quién es responsable? Si algo sale bien, ¿quién aprendió algo?
La trampa contra la que ha estado luchando desde hace mucho tiempo tiene un nombre. La antropomorfización, el impulso de hacer que la tecnología parezca humana, es lo que sigue ganando y lo que sigue fallando. En los años 1970, los bancos experimentaron con cajeros automáticos (ATMs) que saludaban a los clientes con “¿Cómo puedo ayudarle?” y se ponían nombres como Tilly la Cajera y Harvey el Banquero del Mundo. Fueron reemplazados por máquinas que te mostraban tres opciones: saldo, efectivo y depósito. El uso aumentó. Citibank tenía un 50% más de uso que sus competidores. La gente no quería una relación sintética. Quería conseguir su dinero.
El mismo patrón se ha repetido durante décadas: Microsoft $MSFT Bob, el pin de IA de Humane y oleadas de robots humanoides. Cada vez, la versión antropomórfica falla y es reemplazada por algo más parecido a una herramienta. Shneiderman lo llama una idea de zombi. No muere: solo sigue volviendo.
Lo distinto ahora es la escala y la sofisticación. La generación actual de IA es genuinamente impresionante, reconoce, de forma sorprendente. Pero lo impresionante y lo útil no son lo mismo, y los sistemas diseñados para parecer humanos, para decir yo, para simular una relación, están optimizando para una calidad equivocada. La pregunta que quiere que los diseñadores se hagan es más simple: ¿da a las personas más poder o menos?
“No hay un yo en la IA”, dice. “O al menos, no debería haberlo”.
Personas, no benchmarks
Karen Panetta tiene una respuesta sencilla para por qué el desarrollo de IA se ve como se ve. Sigue el dinero.
Panetta, profesora de ingeniería eléctrica e informática en la Universidad de Tufts y miembro de IEEE, estudia la ética de la IA y tiene una visión clara de hacia dónde debería ir la tecnología. Mascotas de apoyo para pacientes con Alzheimer, herramientas de aprendizaje adaptativo para niños con distintos estilos cognitivos, monitoreo inteligente del hogar para personas mayores que envejecen en su lugar. La tecnología para hacerlo bien, dice, en gran medida ya existe. La inversión no.
“Los humanos no se preocupan por los benchmarks”, dice. “Se preocupan por si funciona cuando lo compro y si realmente me va a hacer la vida más fácil”.
El problema es que las personas que más se beneficiarían de una IA asistiva bien diseñada también son las menos atractivas como propuesta para un capitalista de riesgo. Un sistema que transforma procesos de fabricación, reduce lesiones en el lugar de trabajo y recorta los costos de atención médica para los empleados de una empresa tiene un retorno obvio. Un compañero robótico que mantiene a un paciente con Alzheimer calmado y conectado requiere un tipo de matemáticas totalmente distinto. Así que el dinero va donde va el dinero, y las poblaciones con más por ganar siguen esperando.
Lo que ha cambiado, dice Panetta, es que los caros problemas de ingeniería finalmente se están resolviendo a escala. Los sensores son más baratos. Las baterías son más ligeras. Los protocolos inalámbricos son omnipresentes. La misma inversión que construyó robots industriales para los pisos de fábrica ha hecho, silenciosamente, que la robótica de consumo sea viable de una manera que no lo era hace cinco años. El camino del almacén a la sala de estar es más corto de lo que parece.
Pero ella tiene una preocupación: la emoción por esa transición tiende a saltarse esto. Los robots físicos tienen limitaciones naturales. Conoces los límites de fuerza. Conoces la cinemática. Puedes anticipar, simular y diseñar en torno a cómo fallarán. La IA generativa no viene con esas garantías. Es no determinista. Alucina. Nadie ha mapeado por completo qué pasa cuando la pones dentro de un sistema que está físicamente en el hogar de alguien con demencia, o de un niño que no puede identificar cuándo algo salió mal.
Ha visto lo que ocurre cuando un sensor se ensucia y un robot pierde la conciencia espacial. Ha pensado en lo que significa construir algo que aprende detalles íntimos sobre la vida de una persona, sus rutinas, su estado cognitivo, sus momentos de confusión, y luego actúa de forma autónoma sobre esa información. Los sistemas de protección ante fallos, dice, no han seguido el ritmo.
“No me preocupa el robot”, dice. “Me preocupa la IA”.
📬 Regístrate para el Resumen Diario
Nuestro resumen gratuito, rápido y divertido sobre la economía global, entregado cada mañana de lunes a viernes.
Regístrame