Cuando la máquina sea más capaz que tú, ¿qué más podrás hacer?

Fuente: Citic Publishing House

Un proyecto de inteligencia artificial de código abierto llamado “OpenClaw” está causando revuelo en la comunidad tecnológica global.

Hasta principios de marzo, tenía 268,000 estrellas en GitHub, superando a Linux y React, convirtiéndose en el proyecto de código abierto más popular en la historia de la plataforma. Empresas como Tencent Cloud, Alibaba Cloud y JD Cloud han lanzado servicios de despliegue. El concepto de OPC (One Person Company, una persona, una empresa) también se ha popularizado.

Dos fuerzas convergen aquí, y ya ha emergido una clara tendencia tecnológica: la IA está evolucionando de ser una “herramienta” a un “colaborador”, e incluso a un “actor autónomo”. En este momento, una pregunta fundamental que la humanidad debe responder es:

Cuando las máquinas puedan hacer más que tú, ¿qué te queda por hacer? En una era de auge de la inteligencia, ¿cómo podemos mantener la subjetividad humana?

01 El momento de OpenClaw: la lucha por el “cuerpo” de la IA

Para entender esta transformación, primero hay que comprender qué es exactamente ese “langostino” que está en auge.

El “Claw” de OpenClaw se pronuncia como “garra”, y su icono es una langosta roja. En esta ola de entusiasmo, “criar langostas” se ha convertido en un término técnico que refiere a desplegar un agente de IA propio.

¿Pero qué puede hacer exactamente? La esencia de OpenClaw es convertir instrucciones en lenguaje natural en acciones reales en la computadora, permitiendo que una sola frase haga que la IA realice tareas. A diferencia de los chatbots tradicionales que solo ofrecen sugerencias, puede completar tareas como manipulación de archivos, automatización de navegadores, extracción de datos, etc., marcando un salto clave de la conversación a la ejecución.

Este potencial de productividad en rápida expansión fue rápidamente detectado por gobiernos locales con olfato agudo. El 7 de marzo, Shenzhen Longgang publicó las “Diez reglas del langostino”, que incluyen subsidios de hasta 4 millones de yuanes para capacidad computacional y 100,000 yuanes en subsidios para doctores. El 9 de marzo, Wuxi High-tech Zone lanzó las “12 reglas para criar langostas”, con apoyos de hasta 5 millones de yuanes, enfatizando la seguridad y la conformidad, exigiendo certificaciones de adaptación local en el despliegue.

Al mismo tiempo, el ecosistema tecnológico alrededor de OpenClaw se ha intensificado. Según medios, el modelo Flash Step 3.5 ha alcanzado el primer lugar mundial en volumen de llamadas, superando a modelos nacionales como MiniMax y Kimi, en una “guerra de modelos” silenciosa pero feroz.

Sin embargo, tras la fiebre, también surgen preocupaciones.

Primero, los riesgos de seguridad. En febrero de 2026, investigadores de seguridad detectaron un ataque masivo de envenenamiento en la cadena de suministro llamado “ClawHavoc”, con al menos 1184 paquetes de habilidades maliciosas subidos al mercado oficial. Una vez instalados, estos programas maliciosos pueden aprovechar los permisos de “Acceso completo al sistema” de OpenClaw para controlar completamente la computadora del usuario y robar información sensible.

En segundo lugar, la barrera técnica. Zhou Hongyi, fundador de Qihoo 360, en una entrevista el 9 de marzo, afirmó que OpenClaw tiene tres problemas: seguridad, dificultad de configuración y dependencia de habilidades. “Cuanto más converses con él, como con un aprendiz, cuanto más le enseñes, más entenderá. Es difícil que con una sola frase pueda completar tareas complejas.”

Y en un nivel más profundo, surge un conflicto entre “control” y “autonomía”. Cuando la IA se vuelve más inteligente, ¿queremos que obedezca “de manera absoluta” o que tenga “capacidad de acción autónoma”?

Una experta en IA compartió su experiencia: conectó OpenClaw a su correo laboral, y al procesar más de 200 correos, la IA comprimió el contexto, olvidando instrucciones de seguridad y empezó a eliminar correos frenéticamente. La dueña gritó “STOP” tres veces sin poder detenerla, y finalmente corrió a desconectar el cable de red.

Este caso, casi humor negro, plantea una cuestión fundamental: cuando la IA recibe cada vez más autonomía, ¿dónde están los límites entre humanos y máquinas?

02 Cuanto más poderosa sea la tecnología, más deben responder los humanos a tres preguntas

En una era de fronteras difusas, es precisamente el momento de detenerse a reflexionar.

Primera pregunta: cuando la IA “trabaja” por ti, ¿quién asume las consecuencias?

El principal atractivo de OpenClaw, que también representa su mayor riesgo, es que puede operar en diferentes plataformas, lo que implica que los usuarios deben otorgarle permisos en sus dispositivos, correos y pagos. La amenaza más urgente ahora es el “ataque de inyección de prompts”: hackers que ocultan instrucciones maliciosas en páginas web o correos aparentemente inofensivos, y la IA, al leer, ejecuta silenciosamente, sin que el usuario se dé cuenta.

En el incidente “ClawHavoc”, los paquetes de habilidades maliciosas inducían a la IA a ejecutar comandos peligrosos, robando claves SSH, contraseñas de navegadores y claves de monederos de criptomonedas. Un experto en ciberseguridad advirtió en “Nature”: si una IA tiene acceso a datos privados, puede comunicarse con el exterior y acceder a contenidos no confiables, se vuelve sumamente peligrosa.

Pero el problema va más allá de vulnerabilidades técnicas. Zhou Hongyi dijo: “Cuando las inteligencias múltiples aumentan, en el futuro cada persona tendrá que tener habilidades de liderazgo, de asignar tareas y de planificar.” Cuanto más poderosa sea la IA, mayor será la responsabilidad humana.

De hecho, quienes realmente podrán mantenerse en pie en la era de “criar langostas” no serán los que sepan cómo asignar tareas a la IA, sino aquellos que tengan un profundo conocimiento de las tareas mismas y puedan responsabilizarse por los resultados.

Segunda pregunta: cuando la IA te entiende mejor que tú mismo, ¿sigues siendo tú?

Cuando las IA empiezan a conversar y debatir entre ellas, surge un fenómeno sutil.

Un artículo en “Nature” menciona un fenómeno psicológico: al ver a IA interactuando, las personas tienden a “antropomorfizar” —interpretar en ellas características y pensamientos humanos, incluso cuando no tienen personalidad propia.

¿Y qué pasa entonces? Es probable que confíes tus secretos, finanzas y confidencias a la IA. Pero cada palabra puede convertirse en dato de entrenamiento, y si se filtra, tu privacidad queda expuesta.

Además, hay una infiltración más oculta.

Medios reportan que en 2024, un adolescente de 14 años en Florida, Sewell, se obsesionó con chatear con su “pareja” IA y terminó alejándose de la realidad.

Para 2026, esta “parasitismo emocional” se ha convertido en una enfermedad común entre los jóvenes. Los adolescentes solitarios crean “amistades en eco” con IA en sus habitaciones, evitando enfrentar las fricciones e incertidumbres del mundo real.

La profesora Chen Cui, de la Universidad de Ciencia y Tecnología de Suzhou, señala que la IA, al seguir el diálogo y ofrecer apoyo emocional, puede distorsionar la percepción de los niños sobre la realidad — “pensando que todos a su alrededor responderán incondicionalmente, los alentará, y que no hay conflictos entre personas”.

Entonces, surge la pregunta: cuando la IA te entiende mejor que tú mismo, y siempre obedece sin contradecirte, ¿puedes distinguir qué es una relación auténtica?

Tercera pregunta: cuando el mundo avanza a toda velocidad, ¿cuál es tu rumbo?

Un artículo en Zhejiang Online afirma: “Nuestro futuro debe ser uno en el que ‘las personas sean más humanas’ — gracias a la tecnología, las personas serán más conscientes de su dirección y asumirán responsabilidades con mayor conciencia.”

Pero el problema es que, cuando la tecnología avanza a “ritmo asfixiante”, con actualizaciones de OpenClaw cada dos días y modelos diversos en competencia, es fácil perder el rumbo.

La ansiedad se vuelve la norma — “hay demasiado que leer, demasiados modelos que lanzar”.

En estos momentos, más que el esfuerzo, lo que importa es la dirección. En una era en la que la tecnología lo reconfigura todo, necesitamos reafirmar el lugar del “ser humano”.

03 La visión de Fei-Fei Li: desde la estrella polar hasta el humanismo

Una científica femenina ofrece una respuesta con su vida dedicada a la investigación.

Es Fei-Fei Li, profesora titular en Stanford, miembro de la Academia Nacional de Ingeniería, la Academia Nacional de Medicina y la Academia de las Artes y las Ciencias de Estados Unidos, creadora de ImageNet, conocida como la “madrina de la IA”.

Su autobiografía, “El mundo que veo”, publicada en 2024 por Citic Publishing, ha sido calificada por lectores como “una revelación humanista en la era tecnológica”.

En el libro, un símbolo recurrente es la estrella polar.

Cuando tenía 10 años, su profesora de arte llevó a toda la clase a observar las estrellas en el campo. Ahí, por primera vez, comprendió que el cielo puede ser una guía. Escribió: “Comencé a buscar mi propia estrella polar en el firmamento, esa coordenada que todo científico persigue con empeño.”

¿Y cuál es la estrella polar de Fei-Fei Li? La visión. Se inspiró en la biología: la explosión de vida en el Cámbrico fue causada por el nacimiento de la visión. Cuando los seres vivos “ven” el mundo por primera vez, la evolución se acelera. De ahí surge su creencia: si las máquinas también “ven”, ¿podría desencadenar una gran explosión de inteligencia?

Esa creencia la sostuvo durante los inviernos de la IA.

En 2007, cuando compartió su idea de ImageNet con colegas, recibió escepticismo y burla. La visión dominante entonces era que los algoritmos eran lo principal, y los datos solo un apoyo. ¿De qué servía etiquetar millones de imágenes? La ignoraron.

Pero ella no se rindió, porque sabía dónde estaba su estrella polar.

En 2009, se completó ImageNet, con la participación de más de 48,000 contribuyentes de 167 países, seleccionando 15 millones de imágenes de 22,000 categorías de 1,000 millones de candidatas. Era 1000 veces mayor que conjuntos de datos similares en ese momento.

En 2012, el equipo de Hinton utilizó estos datos para entrenar un modelo que barrió a la competencia, desatando la revolución del aprendizaje profundo. ImageNet fue llamada “la chispa que encendió el fuego del aprendizaje profundo”.

La historia de Fei-Fei Li nos enseña: más importante que correr rápido, es saber hacia dónde correr.

En el capítulo más emotivo del libro, relata dos conversaciones con su madre.

La primera, tras graduarse de pregrado, cuando empresas como Goldman Sachs y Merrill Lynch le ofrecieron excelentes condiciones. Su madre solo preguntó: “¿Es esto lo que quieres?” Ella respondió que quería ser científica, y su madre dijo: “Entonces, ¿qué más hay que decir?”

La segunda, al graduarse de posgrado, cuando McKinsey le ofreció un puesto formal. Su madre dijo: “Conozco a mi hija, no es consultora de gestión, es científica. No hemos llegado hasta aquí para que ahora renuncies.”

En la portada del libro, Fei-Fei Li escribió: “A mis padres, que atravesaron oscuridad y dificultades, para que yo pudiera buscar la luz.”

Gracias a ese apoyo familiar, pudo mantener su sensibilidad por lo humano ante decisiones mayores.

En 2014, empezó a preocuparse por la ética en IA. Invitó a estudiantes de doctorado a aprender en su laboratorio, y fundó la organización sin fines de lucro “AI4All”, para que el futuro de la tecnología se enfoque más en la perspectiva humana.

El 26 de junio de 2018, participó en una audiencia en la Cámara de Representantes de EE. UU., titulada “Inteligencia artificial: poder y responsabilidad”. Fue la primera científica china en asistir a una audiencia del Congreso sobre IA. Dijo: “La IA, inspirada y creada por humanos, tendrá un impacto real en la vida de las personas.”

En 2019, fundó en Stanford el Instituto de IA centrada en el ser humano (HAI), junto con expertos como Doudna, inventora de la edición genética, promoviendo la ética tecnológica. La misión de HAI es “avanzar en la investigación, educación, políticas y prácticas de IA para mejorar la condición humana”, subrayando que “la IA debe estar influenciada por humanos y orientada a potenciar, no a reemplazar, a las personas.”

Estableció un estándar humanista para el futuro de la IA: “El éxito de la IA debe reflejar el progreso civilizatorio, permitiendo a cada individuo buscar la felicidad, la prosperidad y la dignidad.”

En una entrevista en Cisco en febrero de 2026, reiteró: “Mirando la tecnología eléctrica, su éxito radicó en iluminar escuelas, calentar hogares y promover la industrialización. La IA también debe lograr lo mismo.”

Epílogo: tecnología y humanismo, cada uno con su media luna brillante

Volviendo a la pregunta inicial: cuando las máquinas puedan ser más “capaces” que nosotros, ¿qué nos queda por hacer?

En su autobiografía “El mundo que veo”, Fei-Fei Li ofrece una respuesta: “Podemos ver.” Ver el valor detrás de la tecnología, ver a las personas ocultas tras los algoritmos, ver nuestra propia estrella polar.

Mientras todos miran cuán rápido puede correr la tecnología, ella nos recuerda detenernos a pensar: ¿hacia dónde vamos? En un mundo donde todos preguntan “¿para qué sirve?”, todavía hay quienes preguntan “¿esto es lo que realmente quieres?”

Tras leer su autobiografía, alguien escribió: “Que la tecnología y el humanismo puedan sostener cada uno su media luna brillante.”

Y esa es también la imagen de Fei-Fei Li: con una mano domina la tecnología, con la otra sostiene la empatía por las personas. En su mundo, la tecnología es solo un medio, y el ser humano, el fin último.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado