¿Pueden las medidas de seguridad mantenerse al ritmo del lanzamiento masivo de "langostas" versión nacional?

robot
Generación de resúmenes en curso

En marzo, un “Langosta” OpenClaw se volvió viral, y la aparición de la langosta también significa que la IA ha pasado de ser un “dialogante” a convertirse en un “ejecutor” con los permisos más altos del sistema.

Cuando el “Langosta” empezó a difundirse en China, varias versiones nacionales de la langosta surgieron en el mercado, desde Tencent, Baidu, Alibaba, hasta Zhipu, MINIMAX y fabricantes de teléfonos, todos participando en esta ola de “crianza de langostas”.

Aunque la langosta está en auge, también surgen preocupaciones sobre los riesgos de seguridad. Recientemente, con la popularidad de la cría de langostas, se han reportado incidentes de seguridad. Por ejemplo, Summer Yue, experta en seguridad de IA de Meta, conectó OpenClaw a su correo laboral y la IA se descontroló, ignorando tres órdenes de “detenerse” y eliminando cientos de correos electrónicos de forma loca.

Un desarrollador pidió a la IA que analizara una interfaz web, pero debido a instrucciones vagas, la IA interpretó que debía investigar la función de la API y llamó directamente a la interfaz de eliminación, borrando todo el contenido en la plataforma de comentarios.

El 10 de marzo, el Centro Nacional de Respuesta de Emergencias de Internet emitió una advertencia sobre los riesgos de seguridad de OpenClaw. La advertencia señala que, para lograr la capacidad de “ejecutar tareas de forma autónoma”, OpenClaw ha recibido permisos elevados, incluyendo acceso al sistema de archivos local, lectura de variables de entorno, llamadas a APIs de servicios externos y la instalación de extensiones. Sin embargo, su configuración de seguridad predeterminada es muy vulnerable, por lo que si un atacante encuentra una brecha, puede tomar control total del sistema fácilmente.

La advertencia indica que, en etapas iniciales, debido a una instalación y uso inapropiados del agente inteligente OpenClaw, ya han surgido riesgos graves de seguridad, como inyección de instrucciones, errores operativos, envenenamiento de plugins (skills), vulnerabilidades de seguridad, entre otros.

El 11 de marzo por la noche, la Plataforma de Compartición de Información sobre Amenazas y Vulnerabilidades en Ciberseguridad del Ministerio de Industria y Tecnología de la Información (en adelante, “la plataforma”) publicó una serie de recomendaciones tituladas “Seis cosas que hacer y seis cosas que no hacer” para prevenir riesgos de seguridad en agentes inteligentes de código abierto como OpenClaw, elaboradas en colaboración con proveedores de agentes, plataformas de recopilación de vulnerabilidades y empresas de ciberseguridad.

Expertos del sector comentan que la magnitud del riesgo no solo depende de la tecnología, sino también de cómo se organiza y utiliza. Si los usuarios conectan directamente OpenClaw a correos electrónicos, banca en línea, repositorios de código y bases de datos de clientes, el riesgo se amplifica. Pero si las empresas lo aíslan en entornos controlados, solo abren herramientas en listas blancas, establecen umbrales de confirmación manual y mantienen registros de auditoría, el riesgo puede reducirse significativamente.

Wang Lijun, experto en seguridad de Qihoo 360, afirmó que la popularidad de OpenClaw sigue en aumento y que la tendencia de “crianza de langostas” se ha extendido desde el círculo de IA a toda la población. Sin embargo, detrás de esta fiesta tecnológica, también se han producido frecuentes incidentes de seguridad, principalmente porque OpenClaw acelera la proceso de evolución de la IA hacia un estado “sobrehumano”. Los riesgos específicos se concentran en pérdida de control de permisos y riesgos de “escape”; riesgos en la cadena de suministro de skills; exposición en internet y ataques remotos; y filtración de datos privados.

Con la aparición de versiones nacionales de la langosta, varias empresas han implementado medidas para abordar los problemas de seguridad en la cría de langostas. El 12 de marzo, Tencent lanzó una caja de herramientas de seguridad para OpenClaw, brindando protección tanto a empresas como a usuarios individuales. Este sistema cubre escenarios en la nube, redes internas empresariales y PCs personales: mediante tecnología de Tencent Cloud, logra aislamiento del entorno y monitoreo unificado; usando Tencent iOA, refuerza la seguridad de la red de oficina; y con Tencent PC Manager, ofrece protección de aislamiento con un clic para usuarios comunes.

Además, Tencent ha empaquetado algunas capacidades de seguridad en habilidades de IA, disponibles en ClawHub y SkillHub, donde los usuarios pueden protegerse a sí mismos mediante diálogos con la IA.

Su Jian Dong, gerente general de seguridad en Tencent Cloud, afirmó en una entrevista con LatePost que actualmente no solo integran seguridad en productos internos como WorkBuddy y QClaw, sino que también ofrecen soluciones de seguridad similares para terceros con OpenClaw. En general, trabajan en niveles de host, red y cadena de suministro. Por ejemplo, en seguridad de hosts, ya cuentan con un centro especializado en seguridad de agentes de IA para revisar vulnerabilidades y configuraciones inseguras, cifrar contraseñas en texto plano y prevenir operaciones maliciosas de alto riesgo; en red, previenen ataques como inyección de instrucciones y verifican la protección de datos sensibles; en la cadena de suministro, realizan controles de acceso y detección de seguridad en skills maliciosos.

No solo Tencent, sino también Baidu, Volcano Engine, Zhipu y otros fabricantes están lanzando productos nacionales de langostas junto con medidas de protección de seguridad.

Por un lado, se lanzan versiones nacionales de la langosta; por otro, las empresas están implementando soluciones para los riesgos de seguridad en la cría de langostas. Los expertos del sector afirman que, en general, los riesgos actuales son controlables, pero “controlable” no significa que puedan abrirse sin restricciones a todos en el corto plazo. Desde una perspectiva de gestión técnica, problemas como exposición en internet, credenciales en texto plano, origen desconocido de plugins, permisos excesivos y falta de auditoría de registros son riesgos que pueden reducirse significativamente mediante reforzamientos de seguridad.

Con el avance de los agentes inteligentes, la protección de la privacidad personal se ha convertido en un tema central. ¿El acceso de los agentes IA a plataformas en internet mediante permisos avanzados en teléfonos puede poner en riesgo la privacidad? ¿Es necesario que la autorización sea doble, por parte del usuario y de la plataforma? Estas cuestiones deben implementarse gradualmente.

Recientemente, en el extranjero también se han establecido restricciones legales similares. El 9 de marzo, la corte de California dictaminó que una startup llamada Perplexity AI debe cesar el acceso a Amazon, prohibiéndole crear o tomar control de cuentas de Amazon y destruyendo todos los datos obtenidos. Se informó que su agente Comet, disfrazado de navegador Google Chrome, eludía las detecciones de automatización de Amazon y enviaba datos de compras a los servidores de Perplexity sin que los usuarios lo supieran. En noviembre del año pasado, Amazon presentó una demanda contra la compañía.

Aunque esta “orden temporal” no es una sentencia definitiva, refleja la tendencia del juez a reconocer y respetar la doble autorización de usuarios y plataformas en este caso. La corte citó un caso emblemático de 2009, cuando Facebook demandó a Power.com, un agregador de sitios web. La sentencia estableció que, incluso si el usuario da su consentimiento, si la plataforma revoca explícitamente la autorización y emite una orden de cese, el acceso de terceros sigue siendo “no autorizado”.

Por ello, la corte ordenó a Perplexity detener temporalmente el inicio de sesión en cuentas de Amazon en nombre de los usuarios y destruir todos los datos obtenidos. Perplexity ha presentado una apelación.

El debate sigue centrado en la doble autorización. Aunque aún no hay una decisión definitiva, la integración de agentes IA en la vida y trabajo de las personas requiere que la doble autorización sea una condición indispensable.

A medida que más agentes IA sustituyen a los usuarios en tareas ejecutivas, la protección de la privacidad se vuelve una prioridad clave.

Extraído de Caixin, 21st Century Business Herald, LatePost, y otros.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado