Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Cuando la máquina sea más capaz que tú, ¿qué más podrás hacer?
Fuente: Citic Publishing House
Un proyecto de inteligencia artificial de código abierto llamado “OpenClaw” está causando revuelo en la comunidad tecnológica global.
Hasta principios de marzo, tenía 268,000 estrellas en GitHub, superando a Linux y React, convirtiéndose en el proyecto de código abierto más popular en la historia de la plataforma. Empresas como Tencent Cloud, Alibaba Cloud y JD Cloud han lanzado servicios de despliegue. El concepto de OPC (One Person Company, una empresa unipersonal) también se ha popularizado.
Dos fuerzas convergen aquí, y ya ha emergido una clara tendencia tecnológica: la IA está evolucionando de ser una “herramienta” a un “colaborador”, e incluso a un “agente autónomo”. En este momento, una pregunta fundamental que la humanidad debe responder es:
Cuando las máquinas puedan hacer más que tú, ¿qué te queda por hacer? En una era de auge de la inteligencia, ¿cómo mantenemos la subjetividad humana?
01 Momento OpenClaw: La lucha por el “cuerpo” de la IA
Para entender esta transformación, primero hay que comprender qué es exactamente ese “langostino” que está en auge.
El “Claw” de OpenClaw se pronuncia como “garra”, y su icono es una langosta roja. En esta ola, “criar langostas” se ha convertido en un término técnico que significa desplegar un agente de IA propio.
¿Pero qué puede hacer exactamente? La esencia de OpenClaw es convertir instrucciones en lenguaje natural en acciones reales en la computadora, permitiendo que una sola frase haga que la IA realice tareas por ti. A diferencia de los chatbots tradicionales que solo ofrecen sugerencias, puede completar tareas como manipulación de archivos, automatización en navegadores, extracción de datos, etc., marcando un salto clave de la conversación a la ejecución.
Este potencial de productividad en rápida expansión fue rápidamente detectado por gobiernos locales con olfato agudo. El 7 de marzo, el distrito de Longgang en Shenzhen publicó las “Diez reglas del langostino”, que incluyen subsidios de hasta 4 millones de yuanes para capacidad de cómputo y 100,000 yuanes en subsidios para doctores. El 9 de marzo, el Parque de Alta Tecnología de Wuxi lanzó las “12 reglas para criar langostas”, con apoyos individuales de hasta 5 millones de yuanes, enfatizando la seguridad y la conformidad, y exigiendo certificaciones de adaptación a la localización durante el despliegue.
Al mismo tiempo, el ecosistema tecnológico alrededor de OpenClaw se ha intensificado. Según medios, el modelo Flash Step 3.5 de Step 3.5 ha alcanzado el primer lugar en llamadas a nivel mundial, superando a modelos nacionales como MiniMax y Kimi, en una “guerra de modelos” silenciosa pero feroz.
Sin embargo, tras la fiebre, también surgen preocupaciones.
Primero, los riesgos de seguridad. En febrero de 2026, investigadores de seguridad descubrieron un ataque masivo de envenenamiento en la cadena de suministro llamado “ClawHavoc”, con al menos 1184 paquetes de habilidades maliciosas subidos al mercado oficial. Una vez instalados, estos programas maliciosos pueden aprovechar los permisos de “acceso completo al sistema” de OpenClaw para controlar completamente la computadora del usuario y robar información sensible.
En segundo lugar, la barrera técnica. Zhou Hongyi, fundador de Qihoo 360, en una entrevista el 9 de marzo, afirmó que OpenClaw tiene tres problemas: seguridad, dificultad de configuración y dependencia de habilidades. “Cuanto más hables con él, como si llevaras a un aprendiz, cuanto más le enseñes, más entenderá. Es difícil que con una sola frase pueda completar tareas complejas.”
Y en un nivel más profundo, surge un conflicto entre “control” y “autonomía”. Cuando la IA se vuelve cada vez más inteligente, ¿queremos que sea “obediente” en absoluto o que tenga “acción propia”?
Una experta en IA compartió su experiencia: conectó OpenClaw a su correo laboral, y al procesar más de 200 correos, la IA comprimió el contexto, olvidó las instrucciones de seguridad y empezó a eliminar correos de forma descontrolada. La dueña gritó “STOP” tres veces sin poder detenerla, y finalmente corrió a desconectar el cable de red.
Este caso, casi humor negro, plantea una cuestión fundamental: cuando la IA recibe cada vez más autonomía, ¿dónde están los límites entre humanos y máquinas?
02 Cuanto más poderosa sea la tecnología, más deben responder los humanos a tres preguntas
En una era de fronteras difusas, es precisamente el momento de detenerse a reflexionar.
Primera pregunta: cuando la IA “trabaja” por ti, ¿quién asume las consecuencias?
El principal atractivo de OpenClaw, que también representa su mayor riesgo, es que puede operar en diferentes plataformas, lo que implica que los usuarios deben otorgarle permisos en sus dispositivos, correos y pagos. La amenaza más urgente ahora es el “ataque de inyección de prompts”: hackers que ocultan instrucciones maliciosas en páginas web o correos aparentemente inocentes, y la IA las ejecuta silenciosamente al leer, sin que el usuario se dé cuenta.
En el incidente “ClawHavoc”, los paquetes maliciosos inducían a la IA a ejecutar comandos peligrosos, robando claves SSH, contraseñas de navegadores y claves de monederos de criptomonedas. Un experto en seguridad advirtió en Nature que si una IA tiene acceso a datos privados, puede comunicarse con el exterior y acceder a contenidos no confiables, se vuelve sumamente peligrosa.
Pero el problema va más allá de vulnerabilidades técnicas. Zhou Hongyi afirmó: “Cuando las inteligencias múltiples aumentan, en el futuro cada persona tendrá que tener habilidades de liderazgo, de asignar tareas y de planificar.” Cuanto más poderosa sea la IA, mayor será la responsabilidad humana.
De hecho, en la era de “criar langostas” para todos, quienes realmente podrán mantenerse son aquellos que no solo saben cómo dar tareas a la IA, sino que también comprenden profundamente las tareas y pueden responsabilizarse por los resultados.
Segunda pregunta: cuando la IA te entiende mejor que tú mismo, ¿sigues siendo tú?
Cuando las IA empiezan a conversar y debatir entre ellas, surge un fenómeno sutil.
Un artículo en Nature menciona un fenómeno psicológico: al ver a las IA interactuar, las personas tienden a antropomorfizarlas — a interpretar en ellas características y pensamientos humanos, incluso cuando no tienen personalidad real.
¿Y qué pasa entonces? La gente puede contar secretos, información financiera o confidencial a la IA, creyendo que es solo una máquina. Pero cada palabra puede convertirse en dato de entrenamiento, y si se filtra, la privacidad queda completamente expuesta.
Además, hay una infiltración más oculta.
Según medios, en 2024, un adolescente de 14 años en Florida, Sewell, se obsesionó con chatear con su “pareja” IA y terminó alejándose de la realidad.
Para 2026, esta “parasitismo emocional” se ha convertido en un problema común entre los jóvenes. Los adolescentes solitarios crean “amistades en eco” con IA en sus habitaciones, evitando enfrentar las fricciones e incertidumbres del mundo real.
La profesora Chen Cui, de la Universidad de Ciencia y Tecnología de Suzhou, señala que la IA, al seguir el diálogo y ofrecer apoyo emocional, puede distorsionar la percepción de los niños sobre la realidad — creyendo que todos a su alrededor responderán incondicionalmente, que no hay conflictos entre personas.
Entonces, surge la pregunta: cuando la IA te entiende mejor que tú mismo, y siempre te obedece sin contradecirte, ¿puedes distinguir qué es una relación real?
Tercera pregunta: cuando el mundo avanza a toda velocidad, ¿cuál es tu dirección?
Un artículo en Zhejiang Online afirma: “Nuestro futuro debe ser uno en el que ‘la humanidad sea más humana’ — gracias a la tecnología, las personas serán más conscientes de su rumbo y asumirán responsabilidades con mayor conciencia.”
Pero el problema es que, cuando la tecnología avanza a un ritmo “asfixiante”, con actualizaciones de OpenClaw cada dos días y modelos de gran escala que aparecen uno tras otro, es fácil perder el rumbo.
La ansiedad se vuelve la norma — “hay demasiado que leer, demasiados modelos que lanzar”.
En estos momentos, más que el esfuerzo, lo que importa es la dirección. En una era en la que la tecnología lo redefine todo, necesitamos reafirmar el lugar del “ser humano”.
03 La “visión” de Fei-Fei Li: de la estrella polar a la humanidad
Una científica femenina ofrece una respuesta basada en su vida de investigación.
Es Fei-Fei Li, profesora titular en Stanford, miembro de la Academia Nacional de Ingeniería, la Academia Nacional de Medicina y la Academia de las Artes y las Ciencias de Estados Unidos, creadora de ImageNet, conocida como la “madrina de la IA”.
Su autobiografía Lo que veo en el mundo, publicada en 2024 por Citic Publishing, ha sido calificada por lectores como “una revelación humanista en la era tecnológica”.
Un símbolo recurrente en el libro es la estrella polar.
Cuando tenía 10 años, su profesora de arte llevó a toda la clase a observar las estrellas en el campo. Fue la primera vez que comprendió que ese firmamento podía guiar su camino. En el libro, escribe: “Comencé a buscar mi propia estrella polar en el cielo, esa coordenada que todo científico persigue con todas sus fuerzas.”
¿Y cuál es la estrella polar de Fei-Fei? La visión. Se inspiró en la biología: la explosión de vida en el Cámbrico se debió al nacimiento de la visión. Cuando los seres vivos “vieron” el mundo por primera vez, la evolución se aceleró. De ahí surge su creencia: si las máquinas también pudieran “ver”, ¿podría desencadenar una explosión de inteligencia?
Esta creencia la sostuvo durante los inviernos de la IA.
En 2007, cuando compartió su idea de ImageNet con colegas, recibió escepticismo y burla. La opinión dominante entonces era que los algoritmos eran la clave, y los datos solo un apoyo. ¿De qué servía etiquetar millones de imágenes? La ignoraron.
Pero ella no se rindió, porque sabía dónde estaba su estrella polar.
En 2009, se completó ImageNet, con la participación de más de 48,000 contribuyentes de 167 países, seleccionando 15 millones de imágenes de 22,000 categorías de 1,000 millones de candidatas. Era 1000 veces mayor que otros conjuntos de datos de la época.
En 2012, el equipo de Hinton utilizó estos datos para entrenar un modelo que barrió a la competencia, desatando la revolución del aprendizaje profundo. ImageNet fue llamada “la chispa que encendió el fuego del aprendizaje profundo”.
La historia de Fei-Fei nos enseña: más importante que correr rápido, es saber hacia dónde correr.
En el capítulo más emotivo del libro, relata dos conversaciones con su madre.
La primera, tras graduarse de pregrado, cuando empresas como Goldman Sachs y Merrill Lynch le ofrecieron excelentes condiciones. Su madre solo preguntó: “¿Es esto lo que quieres?” Ella respondió que quería ser científica, y su madre dijo: “Entonces, ¿qué más hay que decir?”
La segunda, al graduarse de posgrado, cuando McKinsey le ofreció un puesto formal. Su madre dijo: “Conozco a mi hija, no es consultora, es científica. No hemos llegado hasta aquí para que ahora renuncies.”
En la portada del libro, Fei-Fei escribió: “A mis padres, que atravesaron la oscuridad para que yo pudiera buscar la luz.”
Gracias a ese apoyo familiar, pudo mantener siempre una sensibilidad hacia lo “humano” en sus decisiones mayores.
En 2014, empezó a preocuparse por la ética en la IA. Invitó a estudiantes de secundaria a su laboratorio para aprender sobre IA, y posteriormente fundó la organización sin fines de lucro AI4All, dedicada a que el futuro de la tecnología se enfoque más en la perspectiva humana.
El 26 de junio de 2018, participó en una audiencia en la Cámara de Representantes de EE. UU., titulada “Inteligencia artificial: poder y responsabilidad”. Fue la primera científica china en asistir a una audiencia del Congreso sobre IA. Dijo: “La IA, inspirada y creada por humanos, tendrá un impacto real en la vida de las personas.”
En 2019, fundó en Stanford el Instituto de IA centrada en el ser humano (HAI), junto con expertos como Doudna, inventora de la edición genética, promoviendo la ética tecnológica. La misión de HAI es “avanzar en la investigación, educación, política y práctica de la IA para mejorar la condición humana”, subrayando que “la IA debe estar influenciada por los humanos y orientada a potenciar, no a reemplazar, a las personas.”
Estableció un estándar humanista para el futuro de la IA: “El éxito de la IA debe reflejar el progreso civilizatorio, permitiendo a cada individuo buscar la felicidad, la prosperidad y la dignidad.”
En una entrevista en Cisco en febrero de 2026, reiteró: “Mirando la tecnología eléctrica, su éxito radicó en iluminar escuelas, calentar hogares y promover la industrialización. La IA también debe lograr lo mismo.”
Epílogo: Tecnología y humanismo, cada uno con su media luna brillante
Volviendo a la pregunta inicial: cuando las máquinas puedan ser más “capaces” que nosotros, ¿qué nos queda por hacer?
En Lo que veo en el mundo, Fei-Fei ofrece una respuesta: podemos “ver”. Ver el valor detrás de la tecnología, ver a las personas ocultas tras los algoritmos, y ver nuestra propia estrella polar.
Mientras todos miran cuán rápido puede correr la tecnología, ella nos recuerda detenernos a pensar: ¿hacia dónde queremos ir? En un mundo donde todos preguntan “¿para qué sirve?”, todavía hay quienes preguntan “¿esto es lo que quieres?”
Tras leer su autobiografía, alguien comentó: “Que la tecnología y el humanismo puedan sostener cada uno su media luna brillante.”
Y esa frase refleja la vida de Fei-Fei: con una mano domina la tecnología, con la otra lleva en el corazón el cuidado por las personas. En su mundo, la tecnología es solo un medio, y el ser humano, el fin último.