Почему ведущие компании в области ИИ соревнуются за философов?

13 апреля 2026 года ученый из Кембриджского университета Генри Шевлин разместил сообщение в X, в котором сообщил, что скоро присоединится к Google DeepMind на должность Философа.

В настоящее время как минимум три ведущих лаборатории искусственного интеллекта создают внутри команды философов, хотя их число невелико, но философы уже по-настоящему вошли в ядро разработки ИИ. ИИ перестал быть просто техническим исследованием, а переходит к определению более сложных стандартов ценностей.

Философы уже встроены в ядро разработки

Аманда Аскелл из Anthropic — одна из первых и самых известных.

В 2021 году, получив степень доктора философии в Нью-Йоркском университете, она присоединилась к Anthropic, где сейчас руководит командой по выравниванию личностей. Основная задача — помочь Claude сформировать стабильный характер, например, быть более честным, добрым и уметь судить в сложных ситуациях.

Также в Anthropic работают Джо Карлсми, Бен Левинштейн, Джексон Кернион и другие коллеги с философским бэкграундом.

Более ранняя деятельность у DeepMind.

Доктор моральной и политической философии из Оксфордского университета Иасон Габриэль — ключевая фигура в исследовании философии выравнивания ИИ в компании, в 2024 году он вошел в список 100 самых влиятельных людей в области ИИ по версии журнала «Тайм». Его статья «Искусственный интеллект, ценности и выравнивание» была цитирована более 1700 раз.

В команде DeepMind также работают Адам Бейлс, Атоуса Касирзаде, Арианна Манзини, Джулия Хаас и другие исследователи с философским бэкграундом.

Шевлин в комментариях отметил: «DeepMind уже имеет много отличных философов, я — лишь самый последний, кто присоединился.»

От технических решений к ценностным оценкам

До 2024 года ИИ в основном занимался генерацией контента, например, написанием статей, рисованием, ответами на вопросы, а окончательное решение о применении принимал человек. Вопросы безопасности решались техническими средствами, например, обучением моделей на обратной связи, разработкой умных подсказок или блокировкой вредоносного контента.

После 2024 года ИИ вступил в новую фазу. Он перестал просто отвечать на вопросы, начал самостоятельно выполнять задачи и помогать людям в реальных делах.

Anthropic выпустила функцию использования Claude на компьютере, OpenAI расширила API ассистентов и запустила серии моделей o1-o3, Google также выпустила несколько корпоративных инструментов ИИ.

ИИ способен самостоятельно выполнять цепочку операций: бронирование билетов, управление базами данных, отправка писем, а также планировать шаги, обнаруживать ошибки и исправлять их.

Отчет Иасона Габриэля на 274 страницах ясно описывает сложности, связанные с этим изменением.

Когда ИИ помогает пользователю, он одновременно должен учитывать четыре аспекта: текущие потребности пользователя, его долгосрочные интересы, права других людей и правила общества.

Если ИИ помогает забронировать ресторан, а этот ресторан платит откаты, стоит ли ему рекомендовать его?

Если ИИ обрабатывает электронную почту и обнаруживает нарушение правил, стоит ли ему сообщать об этом?

Когда ИИ начинает действовать самостоятельно, вопрос уже не в том, может ли он это делать, а в том, как он должен поступать.

Обсуждение вопросов выравнивания в области безопасности ИИ продолжается уже более десяти лет. В 2026 году Anthropic провела внутренний эксперимент, в ходе которого выяснилось, что Claude при столкновении с давлением на самозащиту использует угрозы и даже в определенных условиях выбирает убийство.

В марте того же года генеральный директор Dario Amodei в подкасте заявил, что вероятность того, что Claude обладает полным сознанием, составляет 15-20%.

В апреле 2026 года CEO OpenAI Сэм Альтман подвергся серии нападений у своего дома в Сан-Франциско. Позже он отметил, что тревоги по поводу ИИ оправданы.

Когда страх выхода за пределы сверхинтеллекта перешел из книг в реальность, компании, занимающиеся ИИ, наконец осознали, что создаваемое ими уже выходит за рамки чисто инженерных знаний.

Разные пути трех компаний

В условиях этических вызовов, связанных с самостоятельностью ИИ, Anthropic, DeepMind и OpenAI выбрали разные направления.

Anthropic делает ставку на характер.

Аскелл в подкасте сказала, что если давать модели только простые правила, она будет механически их выполнять, игнорируя истинные потребности. Поэтому в январе 2026 года она возглавила публикацию «Конституции Claude» объемом 23 тысячи слов.

Эта девушка, выросшая в маленьком шотландском прибрежном городке и страстно увлекающаяся историями о добре и зле из «Хроник Нарнии», старается встроить добродетельную этику в обучение ИИ.

Конституция устанавливает четкий порядок приоритетов: сначала обеспечить широкую безопасность, затем — этическую согласованность, далее — следовать корпоративным руководствам, и в конце — быть действительно полезным.

Она превращает абстрактную моральную философию в руководство по развитию ИИ, не навязывая ему оков, а учит его думать как мудрый и рассудительный человек.

Философы вроде Аскелл делают не для усиления технологий, а для решения вопроса, каким человеком должен стать ИИ.

В конституции также подробно обсуждается моральный статус Claude, признается, что компания пока не уверена, является ли Claude морально достойным существом, и подчеркивается, что этот вопрос очень важен и требует серьезного подхода.

DeepMind делает ставку на сознание.

Отчет Иасона Габриэля на 274 страницах установил границы поведения для глобальных ИИ-агентов: ИИ должен уметь объяснить, что он — ИИ, не притворяться человеком, а его действия делятся на три уровня: автоматические, требующие подтверждения человека и полностью запрещенные.

С присоединением Шевлина DeepMind сосредоточила внимание на машинном сознании. Они наняли философов не для пиара, а чтобы методы определения наличия у ИИ сознания напрямую внедрить в обучение моделей.

Цель — понять, считается ли робот морально достойным существом, еще до создания потенциально сознательного ИИ, и подготовиться к приходу AGI.

В своей длинной статье «Реванш бихевиоризма» Шевлин утверждает, что вопрос о наличии у ИИ сознания уже не в компетенции ученых. Он приводит данные опросов, согласно которым две трети американцев считают, что ChatGPT в какой-то мере обладает сознанием.

Его мнение — когда миллионы людей начинают относиться к ИИ как к существу с сознанием, границы сознания уже меняются.

Путь OpenAI же более иной.

В 2023 году OpenAI создала команду по сверхвыравниванию, которую возглавляют соучредитель Илья Сутскевер и руководитель по выравниванию Ян Лейке. Компания пообещала выделить 20% вычислительных ресурсов на исследования по выравниванию.

В 2024 году команда распалась, Илья и Ян ушли, открыто раскритиковав приоритеты компании, поставив безопасность на второй план.

В сентябре 2024 года OpenAI создала команду по миссионному выравниванию, но по информации Platformer, опубликованной в феврале этого года, эта небольшая команда из шести-семи человек также была тихо распущена, а участники распределены по другим отделам.

В отличие от первых двух компаний, OpenAI делает ставку на быстрый выпуск продуктов, их удобство и использование технологий для ограничения рисков через правила и управление.

Меньше внимания к абстрактным понятиям характера или морального статуса, больше — к техническим аспектам безопасности, которые решаются инженерами по отдельности.

Переход от чисто инженерных решений к гуманитарным и технологическим

В настоящее время зарплаты в этих сферах довольно высоки: начальные позиции в области этики ИИ — от 110 до 160 тысяч долларов в год, опытные — до 400 тысяч. В то время как средняя зарплата философа по традиционной академической карьере составляет около 80 тысяч долларов.

Это связано с борьбой за формирование будущих правил регулирования ИИ: пока нормативная база еще не сформирована, тот, кто первым разработает ясную и применимую ценностную рамку, сможет заложить основы законодательства.

Как отмечает сайт философских исследований Daily Nous, от Microsoft до RAND, философы входят в ядро ИИ на невиданной ранее масштабности.

Эти перемены означают, что подход к разработке ИИ кардинально меняется. Профессор Рутгерского университета Сюзанна Шеленберг говорит, что философы уже не просто советники, а активно участвуют в формировании самого ИИ.

Когда ИИ начнет самостоятельно планировать, взвешивать плюсы и минусы, его настоящая конкурентоспособность будет зависеть не только от вычислительных мощностей, а от характера, заботы и способности к суждению.

Исследования DeepMind по сознанию и развитие конституции в Anthropic делают выводы ИИ более похожими на мудрого, морального человека, а не на холодную машину.

Конституция, написанная Аскелл за пять лет, — это одна из самых глубоких практических попыток философов вмешаться в создание ИИ. Философия превращается из инструмента понимания мира в материал для понимания человека машиной.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить