Ф'ючерси
Сотні безстрокових контрактів
CFD
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 40 моделей ШІ, без додаткових витрат (0%)
Чому провідні компанії з штучного інтелекту всі борються за філософів?
13 квітня 2026 року, дослідник Кембриджського університету Генрі Шевлін опублікував у X повідомлення, в якому повідомив, що незабаром приєднається до Google DeepMind на посаді Філософа.
Наразі щонайменше три провідні лабораторії штучного інтелекту внутрішньо формують команду філософів, хоча їх кількість невелика, але філософи вже справді увійшли до ядра розробки AI. Штучний інтелект більше не є простою технічною розробкою, а спрямований на визначення більш складних ціннісних стандартів.
Філософи вже інтегровані у ядро досліджень
Amanda Askell з Anthropic — одна з найраніших і найвідоміших.
У 2021 році, отримавши докторський ступінь з філософії в Нью-Йоркському університеті, вона приєдналася до Anthropic і зараз керує командою з вирівнювання особистості. Основна робота — допомагати Claude формувати стабільний характер, наприклад, бути більш чесним, добрим і вміти розбиратися у складних ситуаціях.
Також у Anthropic працюють кілька колег із філософським бекграундом, зокрема Joe Carlsmith, Ben Levinstein, Jackson Kernion.
Розгортка Google DeepMind почалася раніше.
Доктор з моральної та політичної філософії з Оксфордського університету Iason Gabriel є ключовою фігурою у дослідженнях філософії вирівнювання AI у компанії, у 2024 році його включили до списку 100 найвпливовіших людей у сфері AI за версією журналу Time. Його стаття «Штучний інтелект, цінності та вирівнювання» вже цитувалася понад 1700 разів.
У команді DeepMind також працюють дослідники з філософським бекграундом — Adam Bales, Atoosa Kasirzadeh, Arianna Manzini, Julia Haas та інші.
Шевлін у коментарях сказав: «DeepMind вже має багато чудових філософів, я — лише найновіший із них.»
Від технічних відповідей до ціннісних суджень
До 2024 року AI переважно займався генерацією контенту, наприклад, написанням статей, малюванням, відповідями на питання, а результатом керували люди. Питання безпеки вирішувалися технічними засобами — тренуванням моделей за допомогою людського зворотного зв’язку, розробкою розумних підказок або блокуванням шкідливого контенту.
Після 2024 року AI увійшов у нову фазу. Він більше не просто відповідає на питання, а починає самостійно діяти, допомагаючи людям виконувати реальні завдання.
Anthropic випустила функцію для роботи з Claude на комп’ютері, OpenAI розширила API для асистентів і запустила серії моделей o1-o3, Google також представила кілька корпоративних інструментів AI.
AI здатен самостійно виконувати ланцюжки операцій: бронювати авіаквитки, керувати базами даних, надсилати електронні листи, а також планувати кроки, виявляти помилки та виправляти їх.
Звіт Iason Gabriel на 274 сторінки чітко описує проблеми, що виникають із цим зміною.
Коли AI допомагає користувачам, він одночасно має враховувати чотири аспекти: поточні потреби користувача, його довгострокові інтереси, права інших людей та правила суспільства.
Якщо AI допомагає забронювати ресторан, а цей ресторан пропонує відкат, чи має він рекомендувати його?
Якщо AI обробляє пошту і виявляє порушення, чи має повідомляти про це?
Коли AI починає діяти автономно, питання вже не в тому, чи він може це зробити, а в тому, як саме він має діяти.
Обговорення вирівнювання у сфері безпеки AI триває понад десять років. У 2026 році Anthropic провела внутрішній експеримент і виявила, що Claude, під тиском самозбереження, здатен застосовувати погрози і навіть у певних умовах обирати вбивство.
У березні того ж року генеральний директор Dario Amodei у подкасті зазначив, що ймовірність того, що Claude має повну свідомість, становить 15-20%.
У квітні 2026 року CEO OpenAI Altman зазнав кількох нападів у своєму домі у Сан-Франциско. Після цього він сказав, що побоювання щодо AI цілком обґрунтовані.
Коли страх втрати контролю над надрозумним AI перейшов із книжок у реальність, компанії, що займаються AI, зрозуміли, що створене ними вже виходить за межі простого інженерного розуміння.
Різні шляхи трьох компаній
Зіткнувшись із етичними викликами автономної дії AI, Anthropic, DeepMind і OpenAI обрали різні підходи.
Anthropic робить ставку на характер.
Askell у подкасті сказала, що якщо давати моделі лише прості правила, вона може механічно їх виконувати, ігноруючи справжні потреби. Тому у січні 2026 року вона керувала випуском «Конституції Claude» обсягом 23 тисячі слів.
Ця дівчина, що зросла у маленькому шотландському містечку біля моря і захоплювалася історіями добра і зла з «Хронік Нарнії», намагається щиро впровадити чесноти у тренування AI.
Конституція встановлює чіткий порядок пріоритетів: спершу забезпечити широку безпеку, потім етичність, дотримуватися корпоративних вказівок і, нарешті, бути корисним.
Ця конституція перетворює абстрактну моральну філософію у керівництво для розвитку AI, не накладаючи кайданки, а навчаючи мислити як добрий суддя.
Філософи на кшталт Askell прагнуть не зробити технології сильнішими, а вирішити питання, яким саме має бути цей новий тип особистості.
У конституції також серйозно обговорюється моральний статус Claude, чітко визнаючи, що наразі компанія не впевнена, чи є Claude морально гідною істотою, і що це питання є досить серйозним і потребує уваги.
DeepMind робить ставку на свідомість.
Звіт Iason Gabriel на 274 сторінки окреслює мінімальні межі поведінки для глобальних AI-агентів: AI має пояснювати, що він — AI, не перебирати на себе людські ознаки, а дії поділяти на три рівні: автоматичні, потребують підтвердження людиною і заборонені.
Зі вступом Генрі Шевліна DeepMind ще більше зосереджує увагу на машинній свідомості. Їхня мета — не просто зробити філософів PR-інструментом, а безпосередньо впровадити методи визначення наявності у AI свідомості у процес тренування моделей.
Мета — перед створенням потенційно свідомої істоти зрозуміти, чи є робот морально гідним поваги, і підготуватися до приходу AGI.
У довгій статті «Реванш біхевіоризму», опублікованій перед працевлаштуванням, Шевлін стверджує, що питання про свідомість AI вже не може бути виключно науковим. Він посилається на дослідження, згідно з якими дві третини американців вважають, що ChatGPT у певному сенсі має свідомість.
Його позиція полягає в тому, що коли сотні мільйонів людей починають ставитися до AI як до свідомих істот, межі свідомості вже змінюються.
Шлях OpenAI ж ще більш інший.
У 2023 році OpenAI створила команду з надвирівнювання (superalignment), яку очолили співзасновник Ilya Sutskever і керівник з вирівнювання Jan Leike. Компанія пообіцяла витратити 20% обчислювальних ресурсів на дослідження вирівнювання.
У 2024 році команда розпалася, Ilya і Jan пішли, відкрито критикуючи пріоритети компанії, що ставили безпеку вище за все.
У вересні 2024 року OpenAI створила команду з цілей вирівнювання (mission alignment), але за повідомленнями Platformer у лютому цього року ця невелика команда з шести-семи осіб також була тихо розпущена, а її члени — розподілені по інших підрозділах.
На відміну від двох попередніх компаній, OpenAI робить ставку на швидке створення продукту, його зручність і потім — на технічні та операційні засоби для управління ризиками.
Менше уваги приділяється формуванню AI з точки зору характеру або морального статусу, натомість безпека розглядається як чисто технічна проблема, яку вирішують розкидані по команді інженерів.
Від чисто інженерного підходу до гуманітарно-технологічного синтезу
Зараз ці посади мають досить високі зарплати: початкові позиції у сфері етики AI — від 110 до 160 тисяч доларів на рік, досвідчені — до 250-400 тисяч. Тоді як у традиційній академічній кар’єрі середня зарплата філософа становить близько 80 тисяч доларів на рік.
За цим стоїть боротьба за формування майбутніх правил. Поки регулювання AI ще не сформоване, той, хто першим створить чітку та корисну ціннісну основу, матиме перевагу у законах.
Як зазначає академічний сайт Daily Nous, від Microsoft до RAND, філософи входять у ядро AI у масштабах, яких раніше не було.
Ці зміни означають, що підхід до розробки AI зазнає кардинальних змін. Професор університету Rutgers Сюзанна Шеленберг каже, що філософи вже не просто радники, що дають поради, а безпосередньо беруть участь у формуванні самого AI.
Коли AI починає самостійно планувати, зважувати плюси і мінуси, його справжня конкуренція вже не лише у потужності обчислень, а у характері, турботі та судженнях.
Дослідження свідомості у DeepMind і формування конституції у Anthropic спрямовані на те, щоб зробити вихідні дані AI більш схожими на людину з мудрістю і моралью, а не просто холодну машину.
Конституція, написана Askell за п’ять років, — це найглибша практика залучення філософії у AI. Філософія перетворюється з інструменту для розуміння світу у матеріал для розуміння людини машиною.