Только что наткнулся на интервью Альтмана, где он открыто сравнивает потребление энергии для обучения ИИ-моделей с ресурсами, которые мы, люди, потребляем. И знаете, это очень показательный момент. Получается, что для него обучение одной GPT-4 стоит примерно столько же энергии, сколько нужно на выращивание трех тысяч людей до взрослого возраста. Математика жесткая: человек потребляет около 2000 ккал в день, за 20 лет это примерно 17 000 кВт·ч. А GPT-4 потребила 50 миллионов кВт·ч за один цикл обучения. Но вот в чем парадокс - человек, обученный за эти 17 000 кВт·ч, генерирует отдачу следующие 40-60 лет. А модель устаревает за два года и требует переобучения. Сэм Альтман хочет 7 триллионов долларов и доступ к мощностям, эквивалентным энергопотреблению целого Нью-Йорка для проекта Stargate. И все это обосновывается благом человечества. Типичный ход - любой вопрос о вреде дата-центров, росте цен на электричество, захвате земель встречается одним ответом: это все для вашего же блага, скоро получите лекарство от рака и будете свободны. Когда? Скоро. Между тем люди увольняются десятками тысяч, потому что, мол, ИИ эффективнее. Хотя это давно опровергнуто - просто сокращаются расходы на зарплаты. Те, кто остался, теперь вычищают баги, которые оставляет после себя эта самая система. Вот вам и оптимизация. Я вижу в этом образ мышления, где человеческий опыт - любовь, ошибки, личностный рост - это просто входные данные. Неэффективный способ получить умного юнита на выходе. Для Альтмана и его круга мы просто энергоемкая масса устаревших багов. Нужны мы только до тех пор, пока ИИ не может всё сделать сам. И это то, что они пытаются исправить. Поэтому им нужны гипермасштабные дата-центры. Они готовы сворачивать горы. Но давайте посмотрим на это с точки зрения самого Альтмана - с точки зрения эффективности. Генеративные модели - это самый энергоемкий и быстро устаревающий продукт в истории. Они страдают галлюцинациями и от этого никогда не избавятся - это в их природе. ИИ-компании хронически убыточны. И нет никаких оснований думать, что надежность ИИ когда-либо приблизится к надежности обычного ПО. Так где же здесь благо для человечества? Зачем вообще эта риторика? Потому что нужно, чтобы общество приняло новую нормальность. Если согласиться, что ребенок и серверная стойка - это сопоставимые единицы интеллекта, то рост цен на электроэнергию станет необходимой жертвой. Замена людей алгоритмами - логичным шагом эволюции. Упадок образования перестанет иметь значение. Это напоминает промышленное сельское хозяйство, которое оценивает скот по коэффициенту конверсии корма в продуктивность. Мы приближаемся к точке, когда технология перестает быть инструментом и становится средством переопределения самой человеческой ценности. В киберпанк-антиутопиях корпорации всегда относились к людям как к ресурсу. Сэм Альтман просто делает этот дискурс официальным. Но правда вот в чем: люди - это не промежуточный узел в системе. Мы не тренировочные данные для ИИ. Мы - та самая цель, ради которой ИИ вообще должен существовать. Если системе требуется энергопотребление целого мегаполиса, чтобы симулировать интеллект одного человека, а её создатели утверждают, что это эффективнее, чем растить детей - значит, система сломана. Без философов не останется смысла в гениях кодинга. Потому что без понимания зачем нам прогресс, наша технология становится инструментом высокоэффективного самоуничтожения. Мой вывод: Альтман не просто защищает бизнес-модель. Он предлагает сделку - признать себя устаревшим софтом в обмен на иллюзию эффективности. Мой ответ - нет. Ребенок, на воспитание которого уходит 20 лет - это не затраты. Это сама жизнь. И если ваш ИИ стоит у неё на пути, проблема не в энергии. Проблема в вас.

На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить