Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
El argumento a favor de una IA aburrida
La carrera de benchmarks de IA tiene un ganador. Solo que no eres tú.
Cada pocos meses, aparece un nuevo modelo y una nueva clasificación se reorganiza. Los laboratorios compiten para razonar mejor, programar mejor y responder mejor que los demás en pruebas diseñadas para medir la inteligencia de las máquinas. La cobertura sigue. También lo hace la financiación.
Lo que recibe menos atención es si todo esto es inevitable. Los benchmarks, la carrera armamentística, la forma de encuadrar la IA como salvación o como catástrofe: son decisiones, no leyes de la física. Reflejan lo que la industria decidió optimizar y lo que decidió financiar. La tecnología que tardará décadas en madurar de manera ordinaria y útil no recauda miles de millones en este trimestre. Las narrativas extremas, sí.
Algunos investigadores creen que el objetivo está simplemente mal. No que la IA no sea importante, sino que lo importante no tiene por qué significar sin precedentes. La imprenta cambió el mundo. También lo hizo la electricidad. Ambos lo hicieron gradualmente, mediante una adopción caótica, dando tiempo a las sociedades para responder. Si la IA sigue ese patrón, las preguntas adecuadas no son sobre la superinteligencia. Son sobre quién se beneficia, quién sale perjudicado y si las herramientas que estamos construyendo realmente funcionan para las personas que las usan.
Muchos investigadores han estado haciendo esas preguntas desde direcciones muy distintas. Aquí van tres de ellas.
Útil, no general
Ruchir Puri ha estado construyendo IA en IBM $IBM -0.57% desde antes de que la mayoría de la gente hubiera oído hablar del aprendizaje automático. Vio cómo Watson superó a los mejores jugadores de Jeopardy del mundo en 2011. Ha visto varios ciclos de exageración subir y luego volver a caer. Cuando llegó la ola actual, tenía una prueba sencilla para evaluarla: ¿es útil?
No es impresionante. No es general. Es útil.
“No me importa realmente la inteligencia general artificial”, dice. “Me importa la parte útil de ella”.
Ese planteamiento lo pone en desacuerdo con gran parte de la autopercepción de la industria. Los laboratorios que corren hacia la AGI están optimizando por amplitud, construyendo sistemas que pueden hacer cualquier cosa, responder cualquier cosa, razonar sobre cualquier cosa. Puri cree que ese es el objetivo equivocado, y tiene un benchmark que le gustaría ver que la industria intente alcanzar de verdad.
El cerebro humano vive en 1.200 centímetros cúbicos, consume 20 vatios, la energía de una bombilla, y, como señala Puri, funciona con sándwiches. Una sola GPU Nvidia $NVDA +0.14% consume 1.200 vatios, 60 veces más que todo el cerebro, y necesitas miles de ellas en un gran centro de datos para hacer algo con sentido. Si el cerebro es el benchmark, la industria no está cerca de ser eficiente. Va en la dirección equivocada.
Su alternativa es lo que llama arquitectura híbrida: modelos pequeños, medianos y grandes que trabajan juntos, y a cada uno se le asigna la tarea que maneja mejor. Un gran modelo de frontera hace el razonamiento y la planificación complejos. Los modelos más pequeños y diseñados para un propósito se encargan de la ejecución. Una tarea tan simple como redactar un correo electrónico no necesita un sistema entrenado con la mitad de internet. Necesita algo rápido, barato y enfocado. Cada nueve meses aproximadamente, Puri señala, el modelo pequeño de la generación anterior pasa a ser aproximadamente equivalente a lo que antes se consideraba grande. La inteligencia se está abaratando. La pregunta es si alguien está construyendo teniendo en cuenta esa realidad.
El enfoque tiene respaldo en el mundo real. Airbnb $ABNB +1.49% usa modelos más pequeños para resolver una parte significativa de los problemas del servicio al cliente más rápido que sus representantes humanos. Meta $META -0.25% no usa sus modelos más grandes para entregar anuncios; en su lugar, destila ese conocimiento en otros más pequeños construidos solo para esa tarea. El patrón es lo bastante consistente como para que los investigadores hayan empezado a llamarlo una línea de ensamblaje de conocimiento: entra datos, los modelos especializados manejan pasos discretos y al otro extremo sale algo útil.
IBM lleva construyendo esa línea de ensamblaje más tiempo que la mayoría. Un agente híbrido que combina modelos de varias empresas ha mostrado una mejora del 45% en productividad en una gran fuerza laboral de ingeniería. Los sistemas que funcionan con modelos más pequeños y diseñados para un propósito ahora ayudan a los ingenieros que se encargan de que el 84% de las transacciones financieras del mundo se procese con la información correcta en el momento adecuado. No son aplicaciones llamativas. Tampoco están fallando.
Ninguno de ellos requiere un sistema que pueda escribir poesía o resolver la tarea de matemáticas de tu hijo. Requieren algo más estrecho y, por eso mismo, más confiable. Un modelo entrenado para hacer una sola cosa muy bien sabe cuándo una pregunta queda fuera de su alcance. Lo dice. Esa incertidumbre calibrada, saber lo que no sabes, es algo con lo que todavía luchan los grandes modelos de frontera.
“Quiero construir agentes y sistemas para esos procesos”, dice Puri. “No algo que responda dos millones de cosas”.
Herramientas, no agentes
Ben Shneiderman tiene una prueba sencilla para saber si un sistema de IA está bien diseñado. ¿La persona que lo usa siente que hizo algo, o siente que a esa persona le hicieron algo?
La distinción importa más de lo que parece. Shneiderman, un científico informático de la Universidad de Maryland que ayudó a sentar las bases del diseño de interfaces moderno, ha pasado décadas argumentando que el objetivo de la tecnología debería ser amplificar la capacidad humana, no reemplazarla. Las buenas herramientas construyen lo que él llama autoeficacia del usuario, o la confianza que proviene de saber que puedes hacer algo por tu cuenta. Las malas la transfieren en silencio a otro lugar.
Cree que la mayor parte de la industria de la IA está construyendo malas herramientas, y que el giro hacia lo agentico lo empeora. El argumento de los agentes de IA es que actúan en tu nombre, manejando tareas de principio a fin sin tu participación. Para Shneiderman, eso no es una característica. Es el problema. Si algo sale mal, y saldrá, ¿quién es responsable? Si algo sale bien, ¿quién aprendió algo?
La trampa contra la que ha estado luchando desde hace mucho tiempo tiene un nombre. La antropomorfización, el impulso de hacer que la tecnología parezca humana, es lo que sigue ganando y lo que sigue fallando. En la década de 1970, los bancos experimentaron con cajeros automáticos que recibían a los clientes con “¿Cómo puedo ayudarte?” y se pusieron nombres como Tilly la Cajera y Harvey el Banquero del Mundo. Fueron reemplazados por máquinas que te mostraban tres opciones. Saldo, efectivo y depósito. La utilización se disparó. Citibank tuvo un 50% más de uso que sus competidores. La gente no quería una relación sintética. Quería obtener su dinero.
El mismo patrón se ha repetido durante décadas, a través de Microsoft $MSFT -0.16% Bob, el pin de IA de Humane, y oleadas de robots humanoides. Cada vez, la versión antropomórfica falla y se reemplaza por algo más parecido a una herramienta. Shneiderman lo llama una idea zombi. No muere: solo vuelve una y otra vez.
Lo que cambia ahora es la escala y la sofisticación. La generación actual de IA es genuinamente impresionante, lo reconoce, de manera sorprendemente notable. Pero impresionante y útil no son lo mismo, y los sistemas diseñados para parecer humanos, para decir “yo”, para simular una relación, están optimizando para una calidad equivocada. La pregunta que él quiere que hagan los diseñadores es más simple: ¿esto le da a la gente más poder o menos?
“No hay un ‘yo’ en la IA”, dice. “O al menos, no debería haberlo”.
Personas, no benchmarks
Karen Panetta tiene una respuesta sencilla sobre por qué el desarrollo de IA se ve como se ve. Sigue el dinero.
Panetta, profesora de ingeniería eléctrica y de computación en la Universidad Tufts y miembro de IEEE, estudia la ética de la IA y tiene una visión clara de hacia dónde debería dirigirse la tecnología. Mascotas asistivas para pacientes con Alzheimer, herramientas de aprendizaje adaptativo para niños con estilos cognitivos diferentes, monitorización inteligente del hogar para personas mayores que envejecen en su propio lugar. La tecnología para hacer esto bien, dice, en gran medida ya existe. La inversión, no.
“Los humanos no se preocupan por los benchmarks”, dice. “Se preocupan por si funciona cuando lo compro, y por si realmente va a hacer mi vida más fácil”.
El problema es que las personas que más se beneficiarían de una IA asistiva bien diseñada también son quienes menos convincente pueden ser para un inversor de capital riesgo. Un sistema que transforma procesos de fabricación, reduce lesiones en el lugar de trabajo y recorta los costos de atención médica para los empleados de una empresa tiene un retorno obvio. Un acompañante robótico que mantiene calmado y conectado a un paciente con Alzheimer requiere un tipo de matemáticas completamente distinto. Así que el dinero va donde va el dinero, y las poblaciones que más tienen que ganar siguen esperando.
Lo que ha cambiado, dice Panetta, es que los problemas de ingeniería costosos finalmente se están resolviendo a escala. Los sensores son más baratos. Las baterías son más ligeras. Los protocolos inalámbricos son omnipresentes. La misma inversión que construyó robots industriales para los pisos de las fábricas ha hecho posible, en silencio, que la robótica de consumo sea viable de una forma que no lo era hace cinco años. El camino del almacén a la sala de estar es más corto de lo que parece.
Pero tiene una preocupación: que la emoción por esa transición tiende a saltarse. Los robots físicos tienen restricciones naturales. Conoces los límites de fuerza. Conoces la cinemática. Puedes anticipar, simular y diseñar teniendo en cuenta cómo fallarán. La IA generativa no trae esas garantías. Es no determinista. Alucina. Nadie ha mapeado completamente lo que ocurre cuando la pones dentro de un sistema que está físicamente presente en el hogar de alguien con demencia, o de un niño que no puede identificar cuándo algo salió mal.
Ha visto lo que pasa cuando un sensor se ensucia y un robot pierde su conciencia espacial. Ha pensado en lo que significa construir algo que aprende detalles íntimos sobre la vida de una persona, sus rutinas, su estado cognitivo, sus momentos de confusión, y luego actúa de forma autónoma sobre esa información. Los sistemas de seguridad, dice, no han seguido el ritmo.
“No me preocupa el robot”, dice. “Me preocupa la IA”.
📬 Regístrate para el Daily Brief
Nuestro briefing gratuito, rápido y divertido sobre la economía global, entregado cada mañana de lunes a viernes.
Apúntame