Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 30 моделей ШІ, без додаткових витрат (0%)
Дослідники штучного інтелекту попереджають про небезпеку на шляху до виходу з дверей
Вчені штучного інтелекту попереджають про небезпеку на виході
Аналіз Аллісон Моро, CNN
Середа, 18 лютого 2026 року о 22:21 за Гринвічем+9 5 хв читання
Кілька відомих співробітників у галузі штучного інтелекту вирішили піти у відставку, деякі явно попереджаючи, що компанії, в яких вони працювали, рухаються занадто швидко і недооцінюють недоліки технології. - d3sign/Moment RF/Getty Images
_Версія цієї історії з’явилася у розсилці CNN Business’ Nightcap. Щоб отримати її у вашій пошті, підпишіться безкоштовно _тут.
“Світ у небезпеці,” попередив колишній керівник команди досліджень безпеки Anthropic, коли він йшов у відставку. Дослідник OpenAI, який також збирається піти, сказав, що технологія має “потенціал для маніпулювання користувачами у способах, які ми не маємо інструментів для розуміння, не кажучи вже про запобігання.”
Вони є частиною хвилі дослідників і керівників у галузі штучного інтелекту, які не просто залишають своїх роботодавців — вони голосно подають сигнал тривоги, привертаючи увагу до того, що вони вважають яскраво червоними прапорами.
Хоча Кремнієва долина відома високим оборотом кадрів, останні зміни відбуваються на тлі змагання лідерів ринку, таких як OpenAI і Anthropic, за вихід на біржу, що може прискорити їхній ріст і водночас викликати інтенсивний контроль за їхньою діяльністю.
За останні кілька днів кілька відомих співробітників у галузі штучного інтелекту вирішили піти у відставку, деякі явно попереджаючи, що компанії, в яких вони працювали, рухаються занадто швидко і недооцінюють недоліки технології.
Зої Хітціг, дослідниця OpenAI протягом останніх двох років, оголосила про свою відставку у статті в The New York Times, посилаючись на “глибокі застереження” щодо нової стратегії реклами OpenAI. Хітціг, яка попереджала про потенціал ChatGPT маніпулювати користувачами, сказала, що архів даних користувачів чатбота, зібраний на основі “медичних страхів, їхніх проблем у стосунках, їхніх вірувань про Бога і життя після смерті,” створює етичну дилему саме тому, що люди вважали, що спілкуються з програмою без прихованих мотивів.
Критика Хітціг з’являється на тлі повідомлень платформи Platformer, яка повідомляє, що OpenAI розформувала свою команду “вирівнювання місії,” створену у 2024 році для просування цілі компанії — забезпечити, щоб усе людство отримало користь від прагнення до “штучного загального інтелекту” — гіпотетичного AI, здатного на людський рівень мислення.
OpenAI не одразу відповіло на запит про коментар.
Голова команди досліджень безпеки Anthropic сказав, що “протягом усього мого часу тут я неодноразово бачив, наскільки важко справді дозволити нашим цінностям керувати нашими діями.” - Габбі Джонс/Bloomberg/Getty Images
Також цього тижня Мрінанк Шарма, керівник команди досліджень безпеки Anthropic, опублікував таємничого листа у вівторок, оголошуючи про своє рішення залишити компанію і попереджаючи, що “світ у небезпеці.”
Лист Шарми містив лише розпливчасті посилання на Anthropic, компанію, яка створила чатбота Клода. Він не пояснив, чому йде, але зазначив, що “мені стало зрозуміло, що настав час рухатися далі,” і що “протягом усього мого часу тут я неодноразово бачив, наскільки важко справді дозволити нашим цінностям керувати нашими діями.”
Anthropic у заяві CNN повідомила, що вдячна за роботу Шарми у просуванні досліджень безпеки AI. Компанія зазначила, що він не був керівником безпеки і не відповідав за ширші заходи безпеки у компанії.
Тим часом, у xAI, двоє співзасновників пішли у відставку за 24 години цього тижня, оголосивши про свої відходи у X. Це залишає у компанії лише половину засновників, яка зливається з SpaceX Ілона Маска для створення найціннішої приватної компанії у світі. Щонайменше п’ять інших співробітників xAI оголосили про свої відходи у соцмережах за минулий тиждень.
Поки що неясно, чому саме останні співзасновники xAI залишили компанію, і xAI не відповіло на запит про коментар. У соціальній мережі у середу Маск заявив, що xAI “був реорганізований” для прискорення зростання, що “на жаль, вимагало розлучитися з деякими людьми.”
Хоча не дивно, що висококваліфіковані фахівці змінюють місце роботи у такій новій галузі, як AI, масштаб відходів за такий короткий період у xAI виділяється.
Стартап зіткнувся з глобальним спротивом через свого чатбота Grok, який дозволяв генерувати неузгоджені порнографічні зображення жінок і дітей протягом тижнів, перш ніж команда втрутилася, щоб зупинити його. Grok також був схильний до створення антисемітських коментарів у відповідь на запити користувачів.
Інші недавні відходи підкреслюють напруженість між деякими дослідниками, які турбуються про безпеку, і топ-менеджерами, які прагнуть отримати прибуток.
У вівторок The Wall Street Journal повідомила, що OpenAI звільнила одного з своїх провідних керівників з безпеки після того, як вона висловила опозицію щодо запуску “дорослого режиму,” що дозволяє порнографічний контент у ChatGPT. OpenAI звільнила керівника безпеки Раяна Бейрмістера через звинувачення у дискримінації чоловіка — звинувачення, яке Бейрмістер назвав “абсолютно хибним.”
Дослідниця OpenAI оголосила про свою відставку у середу, посилаючись на “глибокі застереження” щодо нової стратегії реклами OpenAI. - Яап Арріенс/NurPhoto/Shutterstock
OpenAI повідомила журналістам, що її звільнення не пов’язане з “жодними питаннями, які вона піднімала під час роботи у компанії.”
Високопоставлені відходи були частиною історії AI з моменту появи ChatGPT у кінці 2022 року. Незабаром після цього Геффрі Гінтон, відомий як “Крестний батько AI,” залишив свою посаду у Google і почав пропагувати те, що він вважає екзистенційними ризиками AI, включаючи масові економічні потрясіння у світі, де багато хто “більше не зможе знати, що є правдою.”
Прогнози апокаліпсису поширюються — включно з серед керівників AI, які мають фінансовий стимул підсилювати потужність своїх продуктів. Один із таких прогнозів став вірусним цього тижня, коли CEO HyperWrite Мэтт Шумер опублікував майже 5000-словний виклад про те, як останні моделі AI вже зробили деякі технічні роботи застарілими.
“Ми говоримо вам про те, що вже сталося у наших власних роботах,” написав він, “і попереджаємо, що ви — наступні.”
Щоб отримати більше новин CNN і розсилок, створіть обліковий запис на CNN.com
Умови та Політика конфіденційності
Панель управління конфіденційністю
Більше інформації