¿Podría violar la ley de la UE? Google Chrome ayuda a los usuarios a instalar modelos de IA de 4 GB sin su consentimiento, y se vuelve a instalar incluso después de desinstalarlo.

Se ha descubierto que Google Chrome descarga en secreto modelos de IA de 4GB para los usuarios, y que tras eliminarlos, aún se vuelven a instalar de forma forzada. Esta acción podría violar las leyes de privacidad de la Unión Europea, además de transferir grandes volúmenes de tráfico y costos ambientales a la población, siendo criticada como una “modo oscuro” que priva a los usuarios de sus derechos.

Investigador de seguridad descubre que Google Chrome descarga modelos de IA sin autorización

El reconocido investigador de seguridad Alexander Hanff, en su último informe, señala que el navegador Google Chrome descarga en secreto aproximadamente 4GB de modelos de IA en el dispositivo del usuario sin previo aviso ni consentimiento.

Para verificar la situación, Hanff realizó pruebas comparativas en macOS usando un perfil completamente nuevo de Chrome. A través de los registros de eventos del sistema, independientes de la aplicación, logró documentar con precisión la actividad de los archivos.

Instalación automática sin interacción, que se vuelve a instalar tras eliminarse

El análisis de Hanff muestra que Chrome crea automáticamente un directorio de modelos y descarga 4GB completos en segundo plano, sin interacción del usuario. Chrome escribe un archivo llamado weights.bin en el disco, que forma parte del sistema de IA de terminal basado en el modelo Gemini Nano, diseñado por Google para ser liviano.

Se indica que, siempre que el sistema del equipo cumpla con ciertos requisitos de hardware, el proceso de descarga se inicia automáticamente. Todo esto ocurre en unos 14 minutos durante períodos de aparente inactividad del navegador.

Fuente: Informe de Alexander Hanff. Alexander Hanff, investigador, señala que Google Chrome descarga en secreto modelos de IA de aproximadamente 4GB en el equipo del usuario.

Sin embargo, Chrome no muestra ninguna advertencia de que se almacenarán en el equipo modelos de IA de varios gigabytes, ni ofrece opciones de configuración para impedir la descarga. Incluso si el usuario detecta y elimina el archivo, el navegador volverá a descargarlo más tarde, a menos que acceda a funciones experimentales en el sistema profundo o elimine Chrome por completo.

También señala que los archivos de estado internos de Chrome sirven como evidencia sólida, ya que muestran que el navegador evalúa activamente el rendimiento del hardware antes de la descarga y marca los dispositivos como aptos para recibir el modelo. Esto indica que Chrome decide unilateralmente qué dispositivos deben recibir el modelo, sin consulta ni consentimiento.

El investigador acusa a Google Chrome de posiblemente violar leyes de la UE

Además de revelar detalles técnicos, Hanff plantea dudas a nivel legal.

Anteriormente criticó que la versión de escritorio de Claude, desarrollado por Anthropic, parecía un “software espía”, señalando que instalaba en silencio puentes de integración en varios navegadores basados en Chromium, incluso incluyendo cinco navegadores que él no había instalado; ahora descubre que Chrome descarga archivos de modelos de IA sin aviso, todo sin que el usuario lo sepa ni se le informe claramente, y que tras eliminar los programas integrados, vuelven a instalarse.

Asegura que las acciones de estas dos compañías probablemente violan regulaciones de la UE, incluyendo la Directiva de Privacidad Electrónica de la UE respecto al almacenamiento de datos en dispositivos del usuario, y las reglas generales de protección de datos que exigen transparencia y procesamiento legal.

Aunque sus reclamaciones aún no han sido resueltas en tribunales, reflejan la creciente tensión entre las grandes tecnológicas que lanzan nuevas funciones y las expectativas de regulación, especialmente en Europa.

  • **Artículo relacionado:**Claude de escritorio cuestionado como “software espía”! Cambios en la configuración de acceso sin consentimiento, ¿posible violación de la ley de la UE?

Google transfiere costos energéticos y de ancho de banda a usuarios globales

Hanff también estimó el impacto ambiental de la descarga silenciosa del modelo de IA de 4GB por parte de Chrome. Si se despliega en millones o incluso miles de millones de dispositivos, la emisión total de CO2 equivalente por distribuir estos archivos podría alcanzar decenas de miles de toneladas, casi igualando las emisiones anuales de decenas de miles de autos.

Fuente: Informe de Alexander Hanff. Alexander Hanff, investigador, presenta el impacto ambiental de la descarga no autorizada de archivos por parte de Google Chrome.

Aunque la estimación depende del tamaño y la estructura energética, deja claro que distribuir archivos binarios grandes a los dispositivos de los usuarios tiene un costo muy alto, y que estos costos se externalizan al medio ambiente y a la sociedad.

Para muchos usuarios, también puede afectar el uso de datos. En redes de fibra ilimitada, la descarga de 4GB puede ser insignificante, pero para usuarios con límites de datos o que pagan por volumen, la transferencia oculta de varios gigabytes puede traducirse en pérdidas económicas reales. Incluso en mercados desarrollados, quienes usan puntos de acceso móviles o en zonas remotas también se ven afectados.

Gigantes tecnológicos actúan a espaldas de los usuarios, en modo oscuro y a costa de sus derechos

Desde la perspectiva de Hanff, tanto Anthropic como Google optan por actuar primero y dejar que los usuarios asuman las consecuencias.

Ya sea mediante la integración profunda en sistemas sin aviso o la descarga en segundo plano de modelos de varios gigabytes, el patrón es el mismo. Los dispositivos de los usuarios son considerados como objetivos de despliegue, privándolos del control activo, en línea con el “modo oscuro” que ha sido criticado en el diseño de software durante mucho tiempo.

El modo oscuro, también llamado “diseño engañoso”, es una interfaz cuidadosamente diseñada para engañar o confundir a los usuarios, induciéndolos a realizar acciones que no desean, beneficiando a los desarrolladores pero sacrificando los derechos del usuario.

En el caso de las acusaciones de Hanff, las funciones del usuario no solo están preconfiguradas para activarse, sino que están ocultas tras configuraciones confusas o implementadas de forma difícil de eliminar. Su investigación muestra que la tendencia hacia modelos de IA en el terminal no ha mejorado los problemas del modo oscuro, sino que incluso acelera este tipo de prácticas nocivas.

Lecturas adicionales:
¿El fabricante chino de drones expone la seguridad de sus usuarios? Él usó Claude en ingeniería inversa para obtener control sobre dispositivos globales, ¿aún compra juguetes de IA? Bondu revela 50,000 datos de niños, y Miiloo promueve: ¿Taiwán es parte de China?

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado