Antes, el investigador de sostenibilidad de Hugging Face emprendió, para que los números de emisiones de carbono aparecieran junto a cada conversación de ChatGPT.

Hugging Face AI Investigadora de sostenibilidad Sasha Luccioni deja su puesto para fundar Sustainable AI Group, con el objetivo de mostrar datos de consumo energético y emisiones de carbono junto a cada consulta en interfaces de IA como ChatGPT y Claude.
(Resumen previo: La “verdad del consumo energético” de las minas de Bitcoin fue revelada por imágenes térmicas satelitales)
(Información adicional: Estudio de la Universidad de California sobre el fenómeno de “niebla cerebral” en IA: el 14% de los empleados están tan afectados por agentes y automatización que el 40% considera renunciar)

Índice de este artículo

Alternar

  • La línea de presión interna en las empresas, que va en aumento
  • Ella creó un ranking de consumo energético, pero las grandes empresas se niegan a participar
  • Sustainable AI Group: de investigadora a activista de presión

Un ingeniero de software inicia un asistente de IA proporcionado por la empresa y completa una tarea que podría resolverse con una búsqueda tradicional. Nadie sabe con precisión cuánta energía consume esta acción, ni siquiera la propia compañía de IA.

Sasha Luccioni estuvo cuatro años en Hugging Face, intentando hacer visible esa cifra. No logró convencer a la industria. Por eso dejó su puesto, preparándose para seguir presionando desde fuera.

La línea de presión interna en las empresas, que va en aumento

Luccioni describió en una entrevista con WIRED un escenario cada vez más frecuente: empleados de empresas comienzan a preguntar a la gerencia, “¿Nos obligan a usar Copilot, qué impacto tiene esto en nuestros objetivos ESG?”

Actualmente, no hay una respuesta estándar, ya que ninguna empresa de IA líder revela en su interfaz el consumo energético y las emisiones de carbono por consulta. Los usuarios de ChatGPT o Claude no ven ninguna indicación del costo ambiental.

La demanda de Luccioni es clara: que los datos de consumo aparezcan junto a cada diálogo con IA. Ella considera que esto no solo es una cuestión de transparencia, sino también una estrategia competitiva. Su lógica es similar a la de Anthropic, que rechazó el uso militar por parte del gobierno estadounidense para ganar prestigio — ¿qué empresa de IA adoptará primero centros de datos con energía renovable y los divulgará públicamente? Podría obtener una ventaja diferencial en el mercado.

Esta demanda está empezando a encontrar respaldo institucional. La legislación de la UE sobre IA ya incluye cláusulas de sostenibilidad, y las primeras obligaciones de reporte están en marcha. En Asia, países que colaboran con la Agencia Internacional de Energía (IEA) también comienzan a exigir transparencia en los datos de los centros de datos. La regulación pasa de la periferia al núcleo.

Ella creó un ranking de consumo energético, pero las grandes empresas se niegan a participar

Durante su tiempo en Hugging Face, Luccioni desarrolló AIEnergyScore, un ranking de eficiencia energética de modelos de IA de código abierto, que intenta comparar el consumo eléctrico de modelos de diferentes tamaños bajo un mismo estándar.

El problema es que este ranking solo evalúa los modelos dispuestos a participar. OpenAI, Google, Anthropic y otros grandes proveedores de modelos de lenguaje no han presentado datos.

Luccioni no lo ve con indulgencia. Señala que las grandes empresas de IA enfrentan un conflicto de intereses estructural: venden tanto licencias de uso de modelos como recursos computacionales subyacentes. Cuanto más grandes y costosos sean los modelos que promueven, mayor será su ingreso por venta de capacidad de cálculo. En este modelo, impulsar a los usuarios a modelos más pequeños y eficientes equivaldría a reducir sus propios ingresos.

Su crítica tiene fundamentos concretos. Datos que ha seguido durante años muestran que, en la mayoría de los escenarios empresariales, los modelos de clasificación — es decir, modelos ligeros entrenados para tareas específicas — han sido los principales responsables de productividad en IA en los últimos años, en lugar de los grandes modelos de lenguaje general.

Por ejemplo, una tarea de análisis de sentimientos en correos de atención al cliente puede ser realizada con un modelo de clasificación especializado, que requiere menos del 1% del poder de cálculo de GPT-4. Esto implica que las empresas, sin información comparativa, podrían estar usando modelos diez o incluso cien veces más grandes de lo necesario.

Sustainable AI Group: de investigadora a activista de presión

Tras dejar Hugging Face, Luccioni cofundó Sustainable AI Group junto con Boris Gamazaychikov, ex director de sostenibilidad en Salesforce. La combinación es intencionalmente complementaria: una proviene del ámbito de la medición técnica, la otra del gobierno corporativo en sostenibilidad.

Su intersección apunta a uno de los nodos más difíciles de impulsar: traducir las demandas de sostenibilidad desde el lenguaje del CSR corporativo a decisiones de compra de herramientas de IA.

La posición de Luccioni no es en contra del desarrollo de IA. Su argumento central es que establecer una relación entre la complejidad de la tarea y el tamaño del modelo es una decisión técnica que puede reducir costos y emisiones, no solo una cuestión moral. Si una empresa sistemáticamente selecciona modelos adecuados a la tarea, puede ahorrar significativamente en consumo de cálculo.

El objetivo de su nueva organización es ofrecer validación externa y apoyo en la promoción de este marco de decisión, además de seguir presionando a las empresas de IA para que divulguen datos de consumo energético.

El calendario regulatorio de la UE da un punto de anclaje externo a esta iniciativa. Cuando las empresas comiencen a reportar datos de sostenibilidad bajo la ley de IA, la falta de información sobre consumo energético por parte de los proveedores de IA pasará de ser un problema ético a un riesgo de cumplimiento. Este podría ser el punto de presión más cercano a un cambio estructural.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Fijado