¿Podría violar la ley de la UE? Google Chrome ayuda a instalar automáticamente un modelo de IA de 4 GB para los usuarios, y vuelve a instalarlo incluso después de desinstalarlo.

Se ha descubierto que Google Chrome descarga en secreto modelos de IA de 4GB para los usuarios, y que incluso tras eliminarlos, se vuelven a instalar de forma forzada. Esta acción podría violar las leyes de privacidad de la Unión Europea, además de transferir grandes volúmenes de tráfico y costos ambientales a la población, siendo criticada como una “modo oscuro” que priva a los usuarios de sus derechos.

Investigador de seguridad descubre que Google Chrome descarga modelos de IA sin autorización

El reconocido investigador de seguridad Alexander Hanff, en su último informe, señala que el navegador Google Chrome descarga en secreto aproximadamente 4GB de modelos de IA en el dispositivo del usuario sin previo aviso ni consentimiento.

Para verificar la situación, Hanff realizó pruebas en macOS usando un perfil completamente nuevo de Chrome. A través de los registros de eventos del sistema, independientes de la aplicación, logró documentar con precisión la actividad de los archivos.

Instalación automática sin interacción, que se vuelve a instalar tras eliminarse

El análisis de Hanff muestra que Chrome crea automáticamente un directorio de modelos y descarga los 4GB completos en segundo plano, sin interacción del usuario. Chrome escribe un archivo llamado weights.bin en el disco, que forma parte del sistema de IA de terminal basado en el modelo Gemini Nano, diseñado por Google para un sistema ligero.

Se indica que, siempre que el sistema del equipo cumpla con ciertos requisitos de hardware, el proceso de descarga se inicia automáticamente. Todo esto ocurre en unos 14 minutos durante períodos de aparente inactividad del navegador.

Fuente: Informe de Alexander Hanff. El investigador Alexander Hanff señala que el navegador Google Chrome descarga en secreto modelos de IA de aproximadamente 4GB en el equipo del usuario.

Sin embargo, Chrome no muestra ninguna advertencia de que se almacenarán en el equipo modelos de IA de varios gigabytes, ni ofrece opciones de configuración intuitivas para impedir la descarga. Incluso si el usuario detecta y elimina el archivo, el navegador volverá a descargarlo más tarde, a menos que acceda a funciones experimentales en el sistema profundo o elimine Chrome por completo.

También señala que los archivos de estado internos de Chrome sirven como evidencia sólida, ya que muestran que el navegador evalúa activamente el rendimiento del hardware del sistema antes de la descarga y lo marca como apto para el modelo de terminal. Esto indica que Chrome decide unilateralmente qué dispositivos deben recibir el modelo, sin consulta ni consentimiento.

El investigador acusa a Google Chrome de posiblemente violar leyes de la UE

Además de revelar detalles técnicos, Hanff plantea dudas a nivel legal.

Anteriormente criticó que la versión de escritorio de Claude, desarrollado por Anthropic, parecía un “software espía”, señalando que instalaba en silencio puentes de integración en varios navegadores basados en Chromium, incluso incluyendo cinco navegadores que él no había instalado; ahora descubre que Chrome descarga archivos de modelos de IA sin aviso, todo sin que el usuario lo sepa ni se le informe de manera sustancial, y que la eliminación del programa no impide que se vuelva a instalar.

Asegura que las acciones de estas dos compañías probablemente violan regulaciones de la UE, incluyendo la Directiva de Privacidad Electrónica de la UE respecto al almacenamiento de datos en dispositivos del usuario, y las reglas generales de protección de datos que exigen transparencia y procesamiento legal.

Aunque sus reclamaciones aún no han sido resueltas en tribunales, reflejan la creciente tensión entre las grandes tecnológicas y las autoridades regulatorias, especialmente en Europa.

  • Informe relacionado:** La versión de escritorio de Claude es cuestionada como “software espía” ¡Se accede a configuraciones sin consentimiento, lo que podría violar la ley de la UE!**

Google transfiere costos energéticos y de ancho de banda a los usuarios globales?

Hanff también estimó el impacto ambiental de la descarga silenciosa del modelo de IA de 4GB por parte de Chrome. Si se despliega en millones o incluso miles de millones de dispositivos, la emisión total de CO2 equivalente solo por distribuir estos archivos podría alcanzar decenas de miles de toneladas, casi igualando las emisiones anuales de decenas de miles de autos.

Fuente: Informe de Alexander Hanff. El investigador presenta el impacto ambiental de la descarga no autorizada de archivos por parte de Google Chrome.

Aunque estas estimaciones dependen del tamaño y la estructura energética, él deja claro que distribuir archivos binarios de gran tamaño a los dispositivos de los usuarios conlleva costos extremadamente altos, y que estos costos son externalizados al medio ambiente y a la sociedad.

Para muchos usuarios, también puede afectar el uso de datos. En redes de fibra ilimitada, una descarga de 4GB puede ser insignificante, pero para usuarios con límites de datos o que pagan por volumen, la transferencia oculta de varios gigabytes puede representar una pérdida financiera real. Incluso en mercados desarrollados, usuarios que usan puntos de acceso móviles o en zonas remotas también se ven afectados.

Las grandes tecnológicas actúan a espaldas de los usuarios, sacrificando sus derechos en modo oscuro

Desde la perspectiva de Hanff, tanto Anthropic como Google optan por actuar primero y dejar que los usuarios asuman las consecuencias.

Ya sea mediante la integración profunda en sistemas sin aviso o la descarga en segundo plano de modelos de varios gigabytes, el patrón es el mismo. Los dispositivos de los usuarios son considerados objetivos de despliegue, privándolos del control activo, en línea con el “modo oscuro” que ha sido criticado en el diseño de software durante mucho tiempo.

El modo oscuro, también llamado “diseño engañoso”, es una interfaz cuidadosamente diseñada para engañar o confundir a los usuarios, induciéndolos a realizar acciones que no desean, beneficiando a los desarrolladores pero sacrificando los derechos de los usuarios.

En el caso de las acusaciones de Hanff, las funciones del usuario no solo están preconfiguradas para estar activas, sino que están ocultas tras configuraciones confusas o implementadas de manera difícil de eliminar. Su investigación muestra que la tendencia hacia modelos de IA en el terminal no ha mejorado los problemas del modo oscuro, sino que incluso acelera este tipo de prácticas nocivas.

Lecturas relacionadas:
¿El fabricante chino de drones expone la seguridad de los usuarios? Él usó Claude en ingeniería inversa para obtener control sobre dispositivos globales, ¿aún compra juguetes de IA? Bondu revela 50,000 datos de niños, y Miiloo promueve: ¿Taiwán es parte de China?

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado