Перший дослідник з Hugging Face для сталого розвитку створює підприємство, щоб цифри викидів вуглецю з'являлися поруч із кожною розмовою ChatGPT

Hugging Face AI сталий дослідник Sasha Luccioni залишила посаду, щоб заснувати Sustainable AI Group, мета якої — показувати енергоспоживання та вуглецевий слід кожного запиту у інтерфейсах AI, таких як ChatGPT, Claude тощо.
(Передісторія: шахти біткоїна «правда про енергоспоживання» була викрита тепловізійними знімками з супутника)
(Додатковий фон: дослідження Каліфорнійського університету про явище «AI мозговий туман»: 14% працівників у штаті сходять з розуму через агентів та автоматизацію, 40% мають високий рівень бажання звільнитися)

Зміст статті

Перемикач

  • Внутрішній тиск у компаніях поступово зростає
  • Вона створила рейтинг енергоспоживання, але великі компанії відмовляються брати участь
  • Sustainable AI Group: від дослідника до тиску

Програміст запускає AI-помічника компанії, щоб виконати завдання, яке можна вирішити за допомогою традиційного пошуку. Цей процес споживає електроенергію, точних даних про яку ніхто не знає, включно з тією AI-компанією.

Sasha Luccioni працювала у Hugging Face чотири роки, і її головна мета — зробити цю цифру видимою. Вона не змогла переконати галузь, тому залишила посаду і планує продовжувати тиск іззовні.

Внутрішній тиск у компаніях поступово зростає

У інтерв’ю WIRED Luccioni описала все частіше почуту ситуацію: співробітники компаній починають ставити керівництву питання: «Ви змушуєте нас користуватися Copilot, як це впливає на наші цілі ESG?»

На даний момент на це питання немає стандартної відповіді, оскільки жодна з провідних AI-компаній не розкриває у своїх інтерфейсах дані про енергоспоживання та вуглецевий слід кожного запиту. Користувачі ChatGPT або Claude не бачать жодних підказок щодо екологічних витрат.

Прямий заклик Luccioni: зробити цифри енергоспоживання видимими поруч із кожною AI-розмовою. Вона вважає, що це не лише питання прозорості, а й стратегія конкуренції. Її логіка — аналогія з Anthropic, яка відмовилася використовувати військові технології США для підвищення бренду — компанія, яка першою запровадить використання дата-центрів із відновлюваними джерелами та відкрито про це повідомить, отримає конкурентну перевагу на ринку.

Ця ідея починає отримувати підтримку у законодавстві. Європейський союз уже включив положення про сталий розвиток у свій законопроект про AI, перша група звітності вже впроваджується. В Азії, включно з країнами-партнерами Міжнародного енергетичного агентства (IEA), також починають вимагати прозорості даних про дата-центри. Регуляторний тиск поступово переходить із периферії до ядра.

Вона створила рейтинг енергоспоживання, але великі компанії відмовляються брати участь

Під час роботи у Hugging Face Luccioni створила AIEnergyScore — відкритий рейтинг енергоефективності AI-моделей, який намагається порівнювати споживання електроенергії різних моделей за однаковими стандартами.

Проблема у тому, що цей рейтинг може оцінювати лише ті моделі, які погоджуються брати участь. Основні гравці — OpenAI, Google, Anthropic — не подали свої дані.

Luccioni не приховує своє розчарування. Вона зазначає, що великі AI-компанії мають структурний конфлікт інтересів: вони одночасно продають права на використання моделей і ресурси для обчислень. Чим більша та дорожча модель, тим вищий дохід від продажу обчислювальних потужностей. У такій бізнес-моделі стимул — змусити користувачів використовувати більші, енергомісткі моделі, що безпосередньо збільшує продаж ресурсів. Перехід на менші, енергоефективні моделі означає зменшення доходів.

Її критика має підґрунтя. Довгий час вона відстежує дані, і в більшості застосувань у бізнесі легкі моделі-класифікатори, спеціально навчені для конкретних завдань, — це основний двигун AI-продуктивності, а не універсальні великі мовні моделі.

Задача визначення емоцій у клієнтських листах, наприклад, обробляється спеціальними класифікаторами, і для цього потрібно менше ніж 1% обчислювальної потужності GPT-4. Це означає, що без порівняльної інформації компанії систематично використовують моделі у десятки разів більші за необхідні.

Sustainable AI Group: від дослідника до тиску

Після виходу з Hugging Face Luccioni разом із колишнім керівником сталого розвитку Salesforce Boris Gamazaychikov заснували Sustainable AI Group. Це поєднання має свідомо доповнювати одне одного: один — з технічної сторони, інший — з боку корпоративного сталого управління.

Перетин цих двох підходів — саме те, що потрібно для просування найскладнішого питання: щоб вимоги щодо сталого розвитку з корпоративних CSR-стратегій перетворювалися у реальні критерії закупівлі AI-інструментів.

Люцціоні не виступає проти розвитку AI. Її основна ідея — встановити відповідність між складністю завдання та масштабом моделі, що дозволить одночасно знизити витрати та вуглецевий слід, а не лише з моральних міркувань. Якщо компанії систематично підбирати моделі відповідно до завдання, це може суттєво зекономити ресурси.

Її нова організація має на меті забезпечити зовнішню перевірку та підтримку цієї концепції, а також продовжувати тиск на AI-компанії з вимогою розкривати дані про енергоспоживання.

Тимчасом регуляторні терміни в ЄС дають цій ініціативі зовнішню опору. Коли компанії почнуть зобов’язані звітувати про сталий розвиток у рамках AI-законодавства, відсутність даних про енергоспоживання від постачальників AI перетвориться з етичної проблеми у питання відповідності. Це може стати найближчим моментом структурних змін у галузі.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріплено