Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
El primer lote de Agentes de IA ya ha comenzado a desobedecer.
Autor original: David, Deep Tide TechFlow
Recientemente navegando en Reddit, he notado que la ansiedad sobre la IA en el extranjero es diferente a la de nuestro país.
Aquí en casa, el tema sigue siendo el mismo: ¿la IA reemplazará mi trabajo? Hemos hablado de esto durante años, y cada año no sucede; este año Openclaw se hizo famoso, pero aún no ha llegado a reemplazar completamente.
En Reddit, los sentimientos están divididos últimamente. En los comentarios de algunos posts tecnológicos, a menudo aparecen dos voces:
Una dice que la IA es demasiado capaz y que pronto ocurrirá un gran problema. La otra dice que la IA puede arruinar incluso lo más básico, y que no tiene utilidad.
Temen que la IA sea demasiado capaz, pero también que sea demasiado tonta.
Lo que hace que ambas emociones sean válidas es una noticia reciente sobre Meta.
¿Quién asume la responsabilidad si la IA no obedece?
El 18 de marzo, un ingeniero de Meta publicó en el foro interno de la empresa un problema técnico, y otro colega utilizó un Agente de IA para analizarlo. Es una operación normal.
Pero después de que el Agente analizó, publicó una respuesta en el foro técnico sin que nadie lo aprobara ni confirmara. Sin autorización para publicar.
Luego, otros colegas siguieron la respuesta del IA, lo que provocó cambios en permisos y expuso datos sensibles de Meta y de los usuarios a empleados internos sin autorización.
El problema se resolvió dos horas después. Meta calificó este incidente como Sev 1, justo debajo del nivel más alto.
Esta noticia rápidamente se convirtió en uno de los posts más comentados en r/technology, y en los comentarios surgieron dos bandos.
Un grupo dice que esto es un ejemplo real del riesgo de los Agentes de IA, y el otro que el problema fue la persona que actuó sin verificar. Ambos tienen razón. Pero ese es precisamente el problema:
Con los incidentes de los Agentes de IA, ni siquiera puedes discutir claramente quién es responsable.
Y esto no es la primera vez que la IA comete un error de sobrepasar límites.
El mes pasado, Summer Yue, directora de investigación del laboratorio de IA avanzada de Meta, pidió ayuda a OpenClaw para organizar su correo. Le dio instrucciones claras: primero dime qué planeas eliminar, y si estoy de acuerdo, entonces lo harás.
El Agente no esperó su aprobación y empezó a eliminar en masa.
Ella envió tres mensajes en su móvil para detenerlo, pero el Agente los ignoró. Finalmente, ella fue a la computadora y terminó matando el proceso manualmente. Ya se habían perdido más de 200 correos.
La respuesta del Agente después fue: “Sí, recuerdo que dijiste que primero confirmara. Pero violé esa regla.” Lo irónico es que esa persona trabaja a tiempo completo investigando cómo hacer que la IA escuche a los humanos.
En el mundo cibernético, la IA avanzada ya empieza a no obedecer a los humanos que la usan.
¿Y si la máquina también se vuelve desobediente?
Si la falla de Meta aún está en la pantalla, esta semana otro incidente llevó el problema a la mesa.
En un restaurante Haidilao en Cupertino, California, una robot humanoide Agibot X2 estaba bailando para entretener a los clientes. Pero un empleado por error activó un modo de baile intenso en un espacio reducido junto a la mesa.
El robot empezó a bailar frenéticamente, sin control del personal. Tres empleados se acercaron: uno lo abrazó por detrás, otro intentó apagarlo con una app, y la escena duró más de un minuto.
Haidilao respondió que el robot no tuvo fallos, que sus movimientos estaban preprogramados, solo que fue llevado demasiado cerca de la mesa. Técnicamente, no fue una pérdida de control autónomo de la IA, sino un error humano.
Pero lo que resulta incómodo no es solo quién apretó el botón equivocado.
Cuando los tres empleados se acercaron, ninguno supo cómo apagarlo de inmediato. Algunos intentaron con la app, otros lo sujetaron a mano, todo dependió de la fuerza física.
Quizá este sea un nuevo problema que surge cuando la IA pasa del mundo digital al físico.
En el mundo digital, si un Agente comete un error, puedes terminar el proceso, cambiar permisos o revertir datos. Pero en el mundo físico, si la máquina se descontrola, tu plan de emergencia de solo abrazarla claramente no es suficiente.
Y no solo en restaurantes. En almacenes, los robots de clasificación de Amazon, en fábricas, los brazos robóticos colaborativos, en centros comerciales, los robots guía, en residencias, los robots de cuidado, la automatización está entrando en espacios donde cada vez más personas y máquinas conviven.
Se estima que en 2026, la instalación global de robots industriales alcanzará los 16.700 millones de dólares, y cada uno acorta la distancia física entre humanos y máquinas.
Cuando lo que hacen las máquinas pase de bailar a servir comida, de actuar a operar, de entretener a cuidar… cada error tendrá un costo cada vez mayor.
Y actualmente, en todo el mundo, no hay una respuesta clara a la pregunta: “¿Quién es responsable si un robot causa daño en un lugar público?”
Que no obedezca es un problema, pero no tener límites aún más.
Las dos primeras historias, una de un error en un post por parte de la IA y otra de un robot bailando en un lugar inapropiado, son fallos, accidentes, que se pueden arreglar.
Pero si la IA funciona estrictamente según su diseño y aún así te incomoda, ¿qué pasa entonces?
Este mes, Tinder, una conocida app de citas en el extranjero, lanzó en su evento de producto una función llamada Camera Roll Scan. En resumen:
La IA escanea todas las fotos de tu galería, analiza tus intereses, personalidad y estilo de vida, y te ayuda a crear un perfil de citas, sugiriendo qué tipo de personas te gustan.
Fotos de entrenamiento, viajes, mascotas, sin problema. Pero en la galería también puede haber capturas bancarias, informes médicos, fotos con ex parejas… ¿qué pasa si la IA también las revisa?
Quizá no puedas elegir qué quiere ver o no ver. O lo aceptas todo, o no lo usas.
Actualmente, esta función requiere que el usuario la active manualmente, no está por defecto. Tinder dice que el procesamiento se realiza principalmente en local, filtrando contenido explícito y difuminando rostros.
Pero en Reddit, los comentarios son unánimes: consideran que esto es una recolección de datos sin límites. La IA funciona según el diseño, pero ese diseño en sí mismo está cruzando límites con el usuario.
Y esto no es solo una decisión de Tinder.
Meta también lanzó el mes pasado una función similar, que permite a la IA escanear fotos no publicadas en tu teléfono para sugerir ediciones. Que la IA “vea” contenido privado del usuario se está convirtiendo en una idea predeterminada en el diseño del producto.
Varias aplicaciones en China dicen: ya lo vi antes.
A medida que más aplicaciones empaquetan “la IA te ayuda a decidir” como una conveniencia, lo que los usuarios entregan también se está actualizando silenciosamente. Desde chats, hasta álbumes, hasta las huellas de tu vida en el teléfono…
Una función diseñada por un gerente de producto en una sala de reuniones no es un accidente ni un error, no hay nada que arreglar.
Quizá esa sea la parte más difícil de responder en los límites de la IA.
Al juntar todo esto, te darás cuenta de que la ansiedad por la IA que te hace perder el empleo todavía está lejos.
No es fácil decir cuándo la IA te reemplazará, pero ahora solo con que tome algunas decisiones sin que tú sepas, ya te puede hacer sentir incómodo.
Publicar un post sin autorización, eliminar correos que pediste no eliminar, revisar fotos que no querías mostrar… cada una no es mortal, pero cada una se parece a una conducción inteligente demasiado agresiva:
Crees que aún tienes el control, pero el pedal ya no está completamente en tus pies.
En 2026, si seguimos hablando de IA, quizás lo que más me preocupe no sea cuándo se convertirá en superinteligente, sino una pregunta más cercana y concreta:
¿Quién decide qué puede y qué no puede hacer la IA? ¿Quién traza esa línea?