Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
El argumento a favor de una IA aburrida
La carrera de puntos de referencia de la IA tiene un ganador. Solo que no eres tú.
Cada pocos meses aparece un nuevo modelo y se vuelve a barajar una nueva tabla de clasificación. Los laboratorios compiten para razonar mejor, programar mejor y responder mejor que los demás en pruebas diseñadas para medir la inteligencia de las máquinas. La cobertura sigue. Y también lo hace la financiación.
A lo que se presta menos atención es si cualquiera de esto es inevitable. Los benchmarks, la carrera armamentista, el encuadre de la IA como salvación o como catástrofe: son decisiones, no leyes de la física. Reflejan lo que la industria decidió optimizar y lo que decidió financiar. La tecnología que tardará décadas en dar frutos en formas ordinarias y útiles no recauda miles de millones este trimestre. Las narrativas extremas sí.
Algunos investigadores piensan que el objetivo es simplemente incorrecto. No que la IA no sea importante, sino que lo importante no tiene que significar sin precedentes. La imprenta cambió el mundo. También lo hizo la electricidad. Ambos lo hicieron de forma gradual, con una adopción caótica, dando tiempo a las sociedades para responder. Si la IA sigue ese patrón, las preguntas adecuadas no son sobre la superinteligencia. Son sobre quién se beneficia, a quién se perjudica y si las herramientas que estamos construyendo realmente funcionan para las personas que las usan.
Muchos investigadores han estado haciendo esas preguntas desde direcciones muy distintas. Aquí van tres de ellas.
Útil, no general
Ruchir Puri ha estado construyendo IA en IBM $IBM -0.68% desde antes de que la mayoría de la gente hubiera oído hablar del aprendizaje automático. Vio cómo Watson derrotaba a los mejores jugadores de Jeopardy del mundo en 2011. Ha visto varios ciclos de exageración subir y luego retroceder desde entonces. Cuando llegó la ola actual, tenía una prueba sencilla para eso: ¿es útil?
No es impresionante. No es general. Es útil.
“No me importa mucho la inteligencia general artificial”, dice. “Me importa la parte útil de todo eso”.
Ese planteamiento lo pone en desacuerdo con gran parte de la autopercepción de la industria. Los laboratorios que corren hacia la AGI están optimizando por amplitud: construyen sistemas que pueden hacer cualquier cosa, responder cualquier cosa, razonar sobre cualquier cosa. Puri cree que ese es el objetivo equivocado y tiene un benchmark que le gustaría ver que la industria intentara alcanzar de verdad.
El cerebro humano vive en 1.200 centímetros cúbicos, consume 20 vatios, la energía de una bombilla, y, como señala Puri, funciona con sándwiches. Una sola GPU Nvidia $NVDA +0.26% consume 1.200 vatios, 60 veces más que todo el cerebro, y necesitas miles de ellas en un gran centro de datos para hacer algo con sentido. Si el cerebro es el punto de referencia, la industria no está cerca de ser eficiente. Va en la dirección equivocada.
Su alternativa es lo que llama arquitectura híbrida: modelos pequeños, medianos y grandes que trabajan juntos, y a cada uno se le asigna la tarea para la que mejor sirve. Un gran modelo de frontera hace el razonamiento y la planificación complejos. Los modelos más pequeños, diseñados para un propósito, se encargan de la ejecución. Una tarea tan simple como redactar un correo electrónico no necesita un sistema entrenado con la mitad de internet. Necesita algo rápido, barato y enfocado. Cada nueve meses más o menos, Puri señala, el modelo pequeño de la generación anterior se vuelve aproximadamente equivalente a lo que antes se consideraba grande. La inteligencia se está abaratando. La pregunta es si alguien está construyendo para esa realidad.
El enfoque tiene respaldo en el mundo real. Airbnb $ABNB -1.45% usa modelos más pequeños para resolver una parte significativa de los problemas de atención al cliente más rápido que sus representantes humanos. Meta $META +0.35% no usa sus modelos más grandes para entregar anuncios; destila ese conocimiento en modelos más pequeños construidos solo para esa tarea. El patrón es lo bastante consistente como para que los investigadores empiecen a llamarlo una línea de ensamblaje de conocimiento: los datos entran, los modelos especializados manejan pasos discretos y algo útil sale por el otro lado.
IBM ha estado construyendo esa línea de ensamblaje más tiempo que la mayoría. Un agente híbrido que combina modelos de varias empresas ha mostrado una mejora del 45% en productividad en un gran equipo de ingeniería. Los sistemas que funcionan con modelos más pequeños, diseñados para un propósito, ahora ayudan a los ingenieros que mantienen el 84% de las transacciones financieras del mundo procesándose a obtener la información correcta en el momento adecuado. No son aplicaciones vistosas. Tampoco están fallando.
Ninguno de ellos requiere un sistema que pueda escribir poesía o resolver los deberes de matemáticas de tu hijo. Requieren algo más estrecho y, por esa razón, más confiable. Un modelo entrenado para hacer una sola cosa bien sabe cuándo una pregunta cae fuera de su ámbito. Lo dice. Esa incertidumbre calibrada, saber lo que no sabes, es algo con lo que todavía luchan los grandes modelos de frontera.
“Quiero construir agentes y sistemas para esos procesos”, dice Puri. “No algo que responda dos millones de cosas”.
Herramientas, no agentes
Ben Shneiderman tiene una prueba sencilla para saber si un sistema de IA está bien diseñado. ¿La persona que lo usa siente que hizo algo, o siente que se hizo algo por ella?
La distinción importa más de lo que suena. Shneiderman, un científico informático de la Universidad de Maryland que ayudó a sentar las bases del diseño de interfaces moderno, ha pasado décadas argumentando que el objetivo de la tecnología debería ser ampliar la capacidad humana, no reemplazarla. Las buenas herramientas crean lo que él llama autosuficiencia del usuario, o la confianza que viene de saber que puedes hacer algo por tu cuenta. Las malas transfieren silenciosamente esa agencia a otro lugar.
Cree que la mayor parte de la industria de la IA está construyendo malas herramientas, y que el giro hacia lo agentico lo empeora. El argumento para los agentes de IA es que actúan en tu nombre: gestionan tareas de extremo a extremo sin que tú intervengas. Para Shneiderman, eso no es una característica. Es el problema. Cuando algo sale mal, y saldrá, ¿quién es responsable? Cuando algo sale bien, ¿quién aprendió algo?
La trampa contra la que ha estado luchando durante mucho tiempo tiene un nombre. La antropomorfización, el impulso de hacer que la tecnología parezca humana, es lo que sigue ganando y lo que sigue fallando. En los años 70, los bancos experimentaron con cajeros automáticos que recibían a los clientes con “¿Cómo puedo ayudarte?” y se pusieron nombres como Tilly la Cajera y Harvey el Banquero del Mundo. Fueron reemplazados por máquinas que te mostraban tres opciones: Saldo, efectivo y depósito. El uso aumentó. Citibank tenía un 50% más de uso que sus competidores. La gente no quería una relación sintética. Quería conseguir su dinero.
El mismo patrón se ha repetido durante décadas, con Microsoft $MSFT -0.16% Bob, el pin de IA de Humane, y oleadas de robots humanoides. Una y otra vez, la versión antropomórfica falla y se reemplaza por algo más parecido a una herramienta. Shneiderman lo llama una idea de zombi. No muere; solo vuelve una y otra vez.
Lo diferente ahora es la escala y la sofisticación. La generación actual de IA es genuinamente impresionante, lo reconoce, de forma sorprendente. Pero impresionante y útil no son lo mismo, y los sistemas diseñados para parecer humanos, para decir “yo”, para simular una relación, están optimizando por la cualidad equivocada. La pregunta que quiere que se hagan los diseñadores es más sencilla: ¿esto le da a la gente más poder o menos?
“No hay un yo en la IA”, dice. “O al menos, no debería haberlo”.
Personas, no benchmarks
Karen Panetta tiene una respuesta sencilla a por qué el desarrollo de IA se ve como se ve. Sigue el dinero.
Panetta, profesora de ingeniería eléctrica y de computación en Tufts University y miembro de IEEE, estudia la ética de la IA y tiene una visión clara de hacia dónde debería ir la tecnología. Mascotas asistivas para pacientes con Alzheimer, herramientas de aprendizaje adaptativo para niños con diferentes estilos cognitivos, monitoreo inteligente del hogar para personas mayores que envejecen en su lugar. La tecnología para hacerlo bien, dice, en gran medida ya existe. La inversión no.
“Los humanos no se preocupan por los benchmarks”, dice. “Les importa si funciona cuando lo compro y si realmente me va a facilitar la vida”.
El problema es que las personas que más se beneficiarían de una IA asistiva bien diseñada también son, precisamente, las menos convincentes para un capitalista de riesgo. Un sistema que transforma procesos de manufactura, reduce lesiones en el lugar de trabajo y recorta costos de atención médica para los empleados de una empresa tiene un retorno evidente. Un compañero robótico que mantiene calmado y conectado a un paciente con Alzheimer requiere un tipo de matemáticas totalmente distinto. Así que el dinero va donde va el dinero, y las poblaciones con más para ganar siguen esperando.
Lo que ha cambiado, dice Panetta, es que los costosos problemas de ingeniería finalmente se están resolviendo a escala. Los sensores son más baratos. Las baterías pesan menos. Los protocolos inalámbricos están en todas partes. La misma inversión que construyó robots industriales para los pisos de fábrica ha hecho, de manera silenciosa, que la robótica de consumo sea viable de una forma que no lo era hace cinco años. El camino del almacén a la sala de estar es más corto de lo que parece.
Pero ella tiene una preocupación: la emoción alrededor de esa transición tiende a saltarse algo. Los robots físicos tienen restricciones naturales. Conoces los límites de fuerza. Conoces la cinemática. Puedes anticipar, simular y diseñar teniendo en cuenta cómo fallarán. La IA generativa no trae esas garantías. Es no determinista. Alucina. Nadie ha mapeado completamente qué ocurre cuando la colocas dentro de un sistema físicamente presente en el hogar de alguien con demencia, o en el de un niño que no puede identificar cuándo algo salió mal.
Ella ha visto lo que pasa cuando un sensor se ensucia y un robot pierde su conciencia espacial. Ha pensado en lo que significa construir algo que aprende detalles íntimos de la vida de una persona, de sus rutinas, de su estado cognitivo, de sus momentos de confusión, y luego actúa de forma autónoma sobre esa información. Las salvaguardas, dice, no se han puesto al día.
“No me preocupa el robot”, dice. “Me preocupa la IA”.
📬 Suscríbete al Boletín Diario
Nuestro briefing gratuito, rápido y divertido sobre la economía global, entregado cada día laborable por la mañana.
Regístrame