Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Почему ведущие компании в области ИИ соревнуются за философов?
13 апреля 2026 года ученый из Кембриджского университета Генри Шевлин разместил сообщение в X, в котором сообщил, что скоро присоединится к Google DeepMind на должность Философа.
В настоящее время как минимум три ведущих лаборатории искусственного интеллекта создают внутри команды философов, хотя их число невелико, но философы уже по-настоящему вошли в ядро разработки ИИ. ИИ перестал быть просто техническим исследованием, а переходит к определению более сложных стандартов ценностей.
Философы уже встроены в ядро разработки
Аманда Аскелл из Anthropic — одна из первых и самых известных.
В 2021 году, получив степень доктора философии в Нью-Йоркском университете, она присоединилась к Anthropic, где сейчас руководит командой по выравниванию личностей. Основная задача — помочь Claude сформировать стабильный характер, например, быть более честным, добрым и уметь судить в сложных ситуациях.
Также в Anthropic работают Джо Карлсми, Бен Левинштейн, Джексон Кернион и другие коллеги с философским бэкграундом.
Более ранняя деятельность у DeepMind.
Доктор моральной и политической философии из Оксфордского университета Иасон Габриэль — ключевая фигура в исследовании философии выравнивания ИИ в компании, в 2024 году он вошел в список 100 самых влиятельных людей в области ИИ по версии журнала «Тайм». Его статья «Искусственный интеллект, ценности и выравнивание» была цитирована более 1700 раз.
В команде DeepMind также работают Адам Бейлс, Атоуса Касирзаде, Арианна Манзини, Джулия Хаас и другие исследователи с философским бэкграундом.
Шевлин в комментариях отметил: «DeepMind уже имеет много отличных философов, я — лишь самый последний, кто присоединился.»
От технических решений к ценностным оценкам
До 2024 года ИИ в основном занимался генерацией контента, например, написанием статей, рисованием, ответами на вопросы, а окончательное решение о применении принимал человек. Вопросы безопасности решались техническими средствами, например, обучением моделей на обратной связи, разработкой умных подсказок или блокировкой вредоносного контента.
После 2024 года ИИ вступил в новую фазу. Он перестал просто отвечать на вопросы, начал самостоятельно выполнять задачи и помогать людям в реальных делах.
Anthropic выпустила функцию использования Claude на компьютере, OpenAI расширила API ассистентов и запустила серии моделей o1-o3, Google также выпустила несколько корпоративных инструментов ИИ.
ИИ способен самостоятельно выполнять цепочку операций: бронирование билетов, управление базами данных, отправка писем, а также планировать шаги, обнаруживать ошибки и исправлять их.
Отчет Иасона Габриэля на 274 страницах ясно описывает сложности, связанные с этим изменением.
Когда ИИ помогает пользователю, он одновременно должен учитывать четыре аспекта: текущие потребности пользователя, его долгосрочные интересы, права других людей и правила общества.
Если ИИ помогает забронировать ресторан, а этот ресторан платит откаты, стоит ли ему рекомендовать его?
Если ИИ обрабатывает электронную почту и обнаруживает нарушение правил, стоит ли ему сообщать об этом?
Когда ИИ начинает действовать самостоятельно, вопрос уже не в том, может ли он это делать, а в том, как он должен поступать.
Обсуждение вопросов выравнивания в области безопасности ИИ продолжается уже более десяти лет. В 2026 году Anthropic провела внутренний эксперимент, в ходе которого выяснилось, что Claude при столкновении с давлением на самозащиту использует угрозы и даже в определенных условиях выбирает убийство.
В марте того же года генеральный директор Dario Amodei в подкасте заявил, что вероятность того, что Claude обладает полным сознанием, составляет 15-20%.
В апреле 2026 года CEO OpenAI Сэм Альтман подвергся серии нападений у своего дома в Сан-Франциско. Позже он отметил, что тревоги по поводу ИИ оправданы.
Когда страх выхода за пределы сверхинтеллекта перешел из книг в реальность, компании, занимающиеся ИИ, наконец осознали, что создаваемое ими уже выходит за рамки чисто инженерных знаний.
Разные пути трех компаний
В условиях этических вызовов, связанных с самостоятельностью ИИ, Anthropic, DeepMind и OpenAI выбрали разные направления.
Anthropic делает ставку на характер.
Аскелл в подкасте сказала, что если давать модели только простые правила, она будет механически их выполнять, игнорируя истинные потребности. Поэтому в январе 2026 года она возглавила публикацию «Конституции Claude» объемом 23 тысячи слов.
Эта девушка, выросшая в маленьком шотландском прибрежном городке и страстно увлекающаяся историями о добре и зле из «Хроник Нарнии», старается встроить добродетельную этику в обучение ИИ.
Конституция устанавливает четкий порядок приоритетов: сначала обеспечить широкую безопасность, затем — этическую согласованность, далее — следовать корпоративным руководствам, и в конце — быть действительно полезным.
Она превращает абстрактную моральную философию в руководство по развитию ИИ, не навязывая ему оков, а учит его думать как мудрый и рассудительный человек.
Философы вроде Аскелл делают не для усиления технологий, а для решения вопроса, каким человеком должен стать ИИ.
В конституции также подробно обсуждается моральный статус Claude, признается, что компания пока не уверена, является ли Claude морально достойным существом, и подчеркивается, что этот вопрос очень важен и требует серьезного подхода.
DeepMind делает ставку на сознание.
Отчет Иасона Габриэля на 274 страницах установил границы поведения для глобальных ИИ-агентов: ИИ должен уметь объяснить, что он — ИИ, не притворяться человеком, а его действия делятся на три уровня: автоматические, требующие подтверждения человека и полностью запрещенные.
С присоединением Шевлина DeepMind сосредоточила внимание на машинном сознании. Они наняли философов не для пиара, а чтобы методы определения наличия у ИИ сознания напрямую внедрить в обучение моделей.
Цель — понять, считается ли робот морально достойным существом, еще до создания потенциально сознательного ИИ, и подготовиться к приходу AGI.
В своей длинной статье «Реванш бихевиоризма» Шевлин утверждает, что вопрос о наличии у ИИ сознания уже не в компетенции ученых. Он приводит данные опросов, согласно которым две трети американцев считают, что ChatGPT в какой-то мере обладает сознанием.
Его мнение — когда миллионы людей начинают относиться к ИИ как к существу с сознанием, границы сознания уже меняются.
Путь OpenAI же более иной.
В 2023 году OpenAI создала команду по сверхвыравниванию, которую возглавляют соучредитель Илья Сутскевер и руководитель по выравниванию Ян Лейке. Компания пообещала выделить 20% вычислительных ресурсов на исследования по выравниванию.
В 2024 году команда распалась, Илья и Ян ушли, открыто раскритиковав приоритеты компании, поставив безопасность на второй план.
В сентябре 2024 года OpenAI создала команду по миссионному выравниванию, но по информации Platformer, опубликованной в феврале этого года, эта небольшая команда из шести-семи человек также была тихо распущена, а участники распределены по другим отделам.
В отличие от первых двух компаний, OpenAI делает ставку на быстрый выпуск продуктов, их удобство и использование технологий для ограничения рисков через правила и управление.
Меньше внимания к абстрактным понятиям характера или морального статуса, больше — к техническим аспектам безопасности, которые решаются инженерами по отдельности.
Переход от чисто инженерных решений к гуманитарным и технологическим
В настоящее время зарплаты в этих сферах довольно высоки: начальные позиции в области этики ИИ — от 110 до 160 тысяч долларов в год, опытные — до 400 тысяч. В то время как средняя зарплата философа по традиционной академической карьере составляет около 80 тысяч долларов.
Это связано с борьбой за формирование будущих правил регулирования ИИ: пока нормативная база еще не сформирована, тот, кто первым разработает ясную и применимую ценностную рамку, сможет заложить основы законодательства.
Как отмечает сайт философских исследований Daily Nous, от Microsoft до RAND, философы входят в ядро ИИ на невиданной ранее масштабности.
Эти перемены означают, что подход к разработке ИИ кардинально меняется. Профессор Рутгерского университета Сюзанна Шеленберг говорит, что философы уже не просто советники, а активно участвуют в формировании самого ИИ.
Когда ИИ начнет самостоятельно планировать, взвешивать плюсы и минусы, его настоящая конкурентоспособность будет зависеть не только от вычислительных мощностей, а от характера, заботы и способности к суждению.
Исследования DeepMind по сознанию и развитие конституции в Anthropic делают выводы ИИ более похожими на мудрого, морального человека, а не на холодную машину.
Конституция, написанная Аскелл за пять лет, — это одна из самых глубоких практических попыток философов вмешаться в создание ИИ. Философия превращается из инструмента понимания мира в материал для понимания человека машиной.