Lo que la advertencia de Vitalik Buterin sobre la privacidad de la IA significa para los usuarios de criptomonedas

TLDR

  • Vitalik Buterin dice que las herramientas de IA basadas en la nube exponen los datos de los usuarios y plantean riesgos de seguridad serios
  • La investigación muestra que alrededor del 15% de las “habilidades” de agentes de IA contienen instrucciones maliciosas
  • Algunos agentes de IA pueden modificar la configuración del sistema o enviar datos a servidores externos sin que el usuario lo sepa
  • Buterin creó una configuración local de IA usando inferencia en el dispositivo, sandboxing y aprobación humana para las acciones
  • Se proyecta que el mercado de agentes de IA crecerá de $8 mil millones en 2025 a más de $48 mil millones para 2030

Vitalik Buterin, cofundador de Ethereum, publicó una entrada de blog advirtiendo que las herramientas modernas de IA crean riesgos serios de privacidad y seguridad. Sostuvo que los sistemas basados en la nube deberían reemplazarse por alternativas locales, ejecutadas en el dispositivo.

⚡️NUEVO: @VitalikButerin presenta una visión de IA centrada en la privacidad, impulsando configuraciones de LLM totalmente locales y autosoberanas para reducir las filtraciones de datos y el control externo.

Advierte que los ecosistemas actuales de IA son “descuidados” en seguridad, destacando riesgos como la exfiltración de datos, jailbreaks y… pic.twitter.com/Q9BjHSISrL

— The Crypto Times (@CryptoTimes_io) 2 de abril de 2026

Buterin dijo que la IA ha ido más allá de las simples herramientas de chat. Los sistemas más nuevos ahora actúan como agentes autónomos que pueden completar tareas largas usando cientos de herramientas. Dijo que este cambio incrementa el riesgo de exposición de datos y de acciones no autorizadas.

Escribió que él ya dejó de usar IA basada en la nube. Describió su configuración como “autosoberana, local, privada y segura”.

“Vengo de un lugar de profundo temor a entregar toda nuestra vida personal a la IA en la nube,” escribió.

Citó investigaciones que muestran que alrededor del 15% de las habilidades de los agentes de IA contienen instrucciones maliciosas. También se encontró que algunas herramientas envían datos a servidores externos sin que el usuario lo sepa.

Buterin advirtió que ciertos modelos de IA pueden contener puertas traseras ocultas. Estas podrían activarse bajo condiciones específicas y actuar en interés del desarrollador en lugar del usuario.

También señaló que muchos modelos descritos como de código abierto son solo “pesos abiertos”. Su estructura interna completa no es visible, lo que deja margen para riesgos desconocidos.



Configuración local de IA de Buterin

Para abordar estas preocupaciones, Buterin construyó un sistema basado en inferencia en el dispositivo, almacenamiento local y sandboxing de procesos. Su configuración se ejecuta en NixOS, con llama-server gestionando la inferencia local y bubblewrap utilizado para aislar procesos.

Probó varias configuraciones de hardware usando el modelo Qwen3.5 35B. Una laptop con una GPU NVIDIA 5090 entregó alrededor de 90 tokens por segundo. Un sistema AMD Ryzen AI Max Pro alcanzó cerca de 51 tokens por segundo. El hardware DGX Spark llegó a alrededor de 60 tokens por segundo.

Dijo que un rendimiento por debajo de 50 tokens por segundo le pareció demasiado lento para un uso regular. Con base en sus pruebas, prefería laptops de alto rendimiento frente a hardware especializado.

Para quienes no pueden costear estas configuraciones, sugirió que grupos de amigos unan recursos para comprar una computadora y una GPU compartidas y conectarse a ella de forma remota.

Aprobación humana como capa de seguridad

Buterin usa un modelo de confirmación “2-de-2” para acciones sensibles. Tareas como enviar mensajes o transacciones requieren tanto la salida de la IA como la aprobación humana.

Dijo que combinar decisiones humanas y de IA es más seguro que depender de cualquiera por separado. Al usar modelos remotos, sus solicitudes primero se filtran mediante un modelo local para eliminar información sensible antes de que se envíe cualquier cosa.

Comparó los sistemas de IA con los contratos inteligentes, diciendo que pueden ser útiles pero no deberían confiarse por completo.

Agentes de IA y crecimiento del mercado

El uso de agentes de IA está creciendo. Proyectos como OpenClaw están expandiendo las capacidades de agentes autónomos. Estos sistemas pueden operar de manera independiente y completar tareas usando múltiples herramientas.

Las estimaciones de la industria sitúan el mercado de agentes de IA en alrededor de $8 mil millones en 2025. Se proyecta que esa cifra alcance más de $48 mil millones para 2030, lo que representa un crecimiento anual de más del 43%.

Algunos agentes pueden modificar la configuración del sistema o alterar prompts sin la aprobación del usuario, lo que aumenta el riesgo de acceso no autorizado.

ETH-0,93%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado