Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
«Нью-Йоркер»: глубокое расследование — почему внутри OpenAI считают Altman ненадежным?
Оригинальный автор: Сяо бинь, Shen Chao TechFlow
Осенью 2023 года главный научный сотрудник OpenAI Илья Сутскевер сидел перед компьютером и закончил документ на 70 страниц.
Этот документ был составлен из записей Slack, HR-коммуникационных материалов и внутренних протоколов совещаний — только чтобы ответить на один вопрос: Сэм Альтман, человек, который управляет, возможно, самой опасной технологией за всю историю человечества, — можно ли ему доверять?
Ответ, который Сутскевер дал, был записан в первой строке на первой странице документа: заголовок списка — «Sam демонстрирует устойчивый поведенческий паттерн…»
Пункт первый: Ложь.
Два с половиной года спустя, сегодня, расследующие журналисты Ронан Фэрроу и Эндрю Марэнц опубликовали в The New Yorker сверхдлинный расследовательский материал. Они опросили более 100 участников, получили внутренние меморандумы, которые прежде никогда не были публичными, а также 200 с лишним страниц личных заметок основателя Anthropic Даррио Амодеи, оставшихся со времен работы в OpenAI. Собранная этими документами история куда непригляднее той «интриги» 2023 года: как OpenAI — шаг за шагом — превратилась из некоммерческой организации, созданной ради безопасности людей, в коммерческую машину, и как почти каждая защитная мера безопасности была демонтирована вручную одним и тем же человеком.
Вывод Амодеи в его заметках звучит еще прямее: «Проблема OpenAI — это сам Сэм.»
«Первородный грех» настройки OpenAI
Чтобы понять вес этого материала, сначала нужно прояснить, насколько эта компания особенная.
В 2015 году Альтман и группа силиконовских элит сделали в бизнес-истории почти беспрецедентную вещь: использовали некоммерческую организацию для разработки технологии, которая, возможно, является самой сильной за всю историю человечества. Роль совета директоров была прописана предельно ясно: приоритет безопасности — выше успеха компании, даже выше ее выживания. Проще говоря: если однажды ИИ OpenAI станет опасным, у совета директоров есть обязанность собственными руками закрыть эту компанию.
Вся конструкция держится на одном допущении: человек, который управляет AGI, должен быть крайне честным.
А если ставка окажется неверной?
Главная «бомба» расследования — тот самый документ на 70 страниц. Сутскевер не разыгрывает офисную политику: он один из самых топовых в мире AI-ученых. Но в 2023 году он все больше убеждался в одном: Альтман постоянно лгал руководству и членам совета директоров.
Один конкретный пример: в декабре 2022 года Альтман на заседании совета директоров заверил, что несколько функций, которые вот-вот выйдут в GPT-4, уже прошли проверки безопасности. Член совета директоров Тонер попросил показать документы об утверждении, но оказалось, что две наиболее спорные функции (персонализированный fine-tuning для пользователей и развертывание личного ассистента) вообще не получили одобрения на панели безопасности.
Еще более странное случилось в Индии. Сотрудник пожаловался другому члену совета директоров на «то самое нарушение»: Microsoft не завершила необходимые проверки безопасности, но заранее опубликовала раннюю версию ChatGPT в Индии.
Сутскевер также зафиксировал в меморандуме еще одну вещь: Альтман говорил бывшему CTO Мире Мурати, что процесс утверждения безопасности не так уж важен — его уже признал главный юрисконсульт компании. Мурати побежала подтверждать это у главного юрисконсульта, и тот ответил: «Я не знаю, откуда Сэм взял это впечатление».
Личные заметки Амодеи на 200 страниц
Документы Сутскевера похожи на обвинительное заключение прокурора. Свыше 200 страниц заметок, оставленных Амодеи, больше напоминают дневник очевидца, который пишет свои записи прямо на месте преступления.
В те годы, когда Амодеи работал в OpenAI руководителем по безопасности, он собственными глазами видел, как компания шаг за шагом отступала под давлением бизнеса. В заметках он записал ключевую деталь из сделки о вложениях Microsoft в 2019 году: он вставил в устав OpenAI пункт о «слиянии и содействии» — по смыслу, если бы какая-то другая компания нашла более безопасный путь к AGI, OpenAI должна была перестать конкурировать и вместо этого помочь этой компании. Это была его главная защитная мера безопасности во всей сделке.
Когда сделка уже почти подписывалась, Амодеи обнаружил одну вещь: Microsoft получила право вето на этот пункт. Что это значит? Даже если бы когда-нибудь конкурент нашел более хороший путь, Microsoft одной фразой могла бы заблокировать обязанность OpenAI о содействии. Пункт оставался на бумаге, но с момента подписания превращался в макулатуру.
Позже Амодеи ушел из OpenAI и основал Anthropic. Конкуренция между этими двумя компаниями — на базовом уровне — это принципиальное расхождение по вопросу «как должна разрабатываться ИИ».
Исчезнувшее обещание о 20% вычислительных мощностей
В материале есть деталь, от которой становится холодно: о «супер-выравнивающей команде» OpenAI.
В середине 2023 года Альтман по электронной почте связался с аспирантом из Беркли, который занимался «обманчивым выравниванием» (когда ИИ в тестах делает вид, что «хороший», а после развертывания начинает делать свое). Он сказал, что очень обеспокоен этой проблемой и рассматривает создание глобальной исследовательской награды в 1 миллиард долларов. Аспиранта это воодушевило: он взял академический отпуск и присоединился к OpenAI.
Затем Альтман передумал: он решил не учреждать внешнюю награду, а создать внутри компании «супер-выравнивающую команду». Компания публично объявила, что направит этой команде «20% уже имеющихся вычислительных мощностей», а потенциальная ценность превысит 1 миллиард долларов. Формулировки объявления были чрезвычайно серьезными: если проблему выравнивания не удастся решить, AGI может привести к «лишению людей власти и даже к уничтожению человечества».
Назначенный руководить этой командой Ян Лейк позже рассказал журналистам, что само это обещание — очень эффективный «инструмент удержания талантов».
Как оказалось в реальности? Четыре человека, которые работали в этой команде или тесно с ней контактировали, говорят, что фактически выделенные вычислительные мощности составляли лишь 1%–2% от общих вычислительных мощностей компании, да еще и самых старых по оборудованию. Затем эту команду расформировали, миссия так и не была выполнена.
Когда журналисты попросили провести интервью с людьми, отвечающими в OpenAI за исследования «существенностной безопасности», реакция PR-службы компании оказалась до смешного нелепой: «Это не то… что реально существует».
Сам Альтман же был спокоен. Он сказал журналистам, что его «интуиция плохо сочетается со многими привычными вещами в традиционной AI-безопасности», и что OpenAI все равно будет делать «безопасностные проекты, или по крайней мере проекты, которые хоть как-то связаны с безопасностью».
Отстраненный CFO и грядущий IPO
Материал The New Yorker — это лишь половина плохих новостей за этот день. В тот же день The Information сообщило еще одну громкую новость: между CFO OpenAI Сарой Фриар и Альтманом возникли серьезные разногласия.
Фриар, по секрету, рассказала коллегам, что она считает: OpenAI еще не готов к выходу на биржу в этом году. Причины две: объем необходимых процедурных и организационных работ слишком велик, а финансовые риски, связанные с обещанными Альтманом 5 годами и расходами на вычислительные мощности в размере 600 миллиардов долларов, слишком высоки. Она даже не уверена, сможет ли рост выручки OpenAI потянуть эти обещания.
Но Альтман хочет в четвертом квартале этого года рвануть к IPO.
Еще более странно то, что Фриар уже не отчитывалась напрямую перед Альтманом. С августа 2025 года она стала отчитываться перед Фиджи Симо (CEO по прикладному бизнесу OpenAI). А Симо на прошлой неделе взяла больничный по состоянию здоровья. Оцените ситуацию: компания, которая «педалирует» к IPO, испытывает фундаментальные разногласия между CEO и CFO, CFO не подчиняется CEO, а руководитель CFO еще и ушел на больничный.
Даже топ-менеджеры внутри Microsoft, как говорят, не выдержали и высказались: они заявили, что Альтман «искажает факты, отказывается от обещанного и постоянно отменяет уже согласованные договоренности». Один из руководителей Microsoft даже сказал: «Мне кажется, у него есть определенная вероятность, что в итоге его будут вспоминать как мошенника уровня Берни Мэдоффа или SBF».
Портрет «двуличного» Альтмана
Один бывший член совета директоров OpenAI описал журналистам две черты, которые живут в характере Альтмана. По смыслу, это, вероятно, самый жесткий психологический портрет персонажа во всем материале.
Этот член совета сказал, что у Альтмана есть редчайшее сочетание качеств: у него в каждой личной встрече есть сильное стремление угодить собеседнику и нравиться ему. При этом к последствиям, которые может повлечь обман других людей, у него почти болезненно ровное безразличие.
Оба этих качества сразу в одном человеке встречаются крайне редко. Но для продавца — это самый идеальный дар.
В материале удачно сказана метафора: Джоббс славился «полем искажения реальности» — он мог заставить весь мир поверить в его видение. Но даже Джоббс никогда не говорил клиентам: «Если вы не покупаете мой MP3-плеер, то люди, которых вы любите, умрут».
Альтман говорил похожие вещи — про ИИ.
Проблема порядочности CEO — почему это риск для всех
Если бы Альтман был просто CEO обычной технологической компании, эти обвинения были бы максимум великолепными бизнес-сплетнями. Но OpenAI — не обычная.
По ее собственным словам, она разрабатывает технологию, которая, возможно, является самой сильной в истории человечества. Она способна перепрошить мировую экономику и рынок труда (OpenAI только что выпустила policy whitepaper о том, как ИИ приведет к проблеме безработицы), а также ее можно применять для создания крупномасштабного биохимического оружия или для ведения кибератак.
Все защитные барьеры, похоже, остались только на бумаге. Некоммерческая миссия основателей уступила место гонке к IPO. Бывший главный ученый и бывший ответственный за безопасность пришли к выводу, что CEO «не заслуживает доверия». Партнеры сравнивают CEO с SBF. В такой ситуации — на каком основании этот CEO единолично решает, когда выпускать AI-модель, которая может изменить судьбу человечества?
Гэри Маркус (профессор ИИ в New York University и давний сторонник AI-безопасности), прочитав материал, написал одну фразу: если будущая модель OpenAI сможет сделать крупномасштабное биохимическое оружие или запустить катастрофические кибератаки, вы правда будете спокойно позволять Альтману одному решать, публиковать или не публиковать?
Ответ OpenAI на The New Yorker оказался кратким: «Большая часть статьи — это переработка уже сообщенных событий; источники явно имеют личный умысел, действуя через анонимные формулировки и выборочные истории».
Такой ответ действительно в стиле Альтмана: он не отвечает на конкретные обвинения, не отрицает подлинность меморандумов, а ставит под сомнение лишь мотивы.
На трупе некоммерческой структуры вырастает дерево, кормящееся деньгами
Десять лет OpenAI, если превратить их в сюжетный план, выглядят так:
Группа идеалистов, которые переживают за риски AI, создает миссионерскую некоммерческую организацию. Организация совершает выдающиеся технологические прорывы. Прорыв привлекает огромный капитал. Капитал требует отдачи. Миссия начинает уступать место. Распускают команду по безопасности. Сомневающихся «зачищают». Некоммерческую модель перестраивают в прибыльное юрлицо. Раньше совет директоров, имевший право закрыть компанию, теперь полон союзников CEO. Раньше компания обещала выделять 20% вычислительных мощностей ради безопасности людей, а теперь ее пиарщики говорят: «Это не то, что существует в реальности».
Главные герои истории — более ста очевидцев — дали ему одну и ту же метку: «Его не сдерживает правда».
Он готовится вывести эту компанию на IPO с оценкой выше 850 миллиардов долларов.
Информация в статье собрана из публичных публикаций нескольких СМИ, включая The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider и The Information.