Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Большой скандал от OpenAI: Илья тайно снял 70 страниц документов — неопровержимые доказательства, что «Оно/ОТМАН» лгал
Сегодня журнал《The New Yorker》 опубликовал расследовательский материал, длившийся 18 месяцев, впервые раскрывающий 70-страничную внутреннюю служебную записку, которую в осенний период 2023 года составил главный ученый OpenAI Ilya Sutskever, а также 200 с лишним страниц частных заметок, которые годами сохранял сооснователь Anthropic Dario Amodei.
Эти документы, которые никогда не публиковались полностью, указывают на один и тот же вывод: у Sam Altman есть устойчивый паттерн «систематического вранья».
Это не просто внутренняя борьба в компании. Когда ИИ, как считается, может стать «самым опасным изобретением в истории человечества», когда компания заявляет, что хочет «обеспечить, чтобы AGI послужил всему человечеству», вопрос честности руководства перестает быть чьим-то личным делом и превращается в тему, касающуюся всех.
APPSO на основе оригинального текста《The New Yorker》 заново выстраивает и представляет эту кризисную историю доверия, потрясшую Кремниевую долину.
Это история о власти, лжи и будущем ИИ.
APPSO выделяет главное:
Двойные стандарты Altman:
Ilya Sutskever подал в совет директоров 70-страничные секретные документы, обвиняя Altman в «непрерывной лжи»
Совет директоров уволил его за то, что Altman «недостаточно откровенно общался», но через 5 дней вынужден был восстановить его в должности
Сотрудники назвали этот эпизод «The Blip»(в стиле Marvel — исчезновение и возвращение)
Вскрылась полемика вокруг двойных эксклюзивных соглашений Altman с гигантами вроде Microsoft и Amazon
Кризис безопасности:
OpenAI расформировала супер-выравнивающую команду; обещанные 20% вычислительных мощностей на практике дали лишь 1–2%
Компания перешла из некоммерческого в коммерческое состояние; оценка — до масштаба в триллионы долларов
Достигнуто соглашение на 50 млрд долларов по инфраструктуре ИИ с режимом на Ближнем Востоке
Технологии открыли для армии — для правоприменения в сфере иммиграции, мониторинга и автономного оружия
Игры власти:
Личные инвестиции Altman в 400+ компаний; сложные финансовые связи с бывшими партнерами
Сообщалось о том, что он «заморозил» инвестиции конкурентов через инвесторов
Переход от «эффективного альтруизма» к «эффективному ускорению»
Налаживание тесных отношений с Трампом; пожертвование 1 млн долларов фонду инаугурации
Записка на 70 страниц о вопросе честности
Осенью 2023 года Ilya Sutskever сделал в Кремниевой долине крайне редкую вещь: он тайно снял на телефон внутренние документы компании, скомпилировал 70-страничную записку и отправил ее членам совета директоров.
Почему он снимал тайно? Потому что он боялся оставить следы на корпоративных устройствах.
Записка рассылалась способом «исчезающих сообщений», чтобы никто не мог ее увидеть. Один из членов совета, который получил записку, вспоминал: «Он был напуган до смерти».
В документе, который никогда не раскрывался полностью, в начале есть список: «Sam exhibits a consistent pattern of…»
Первый пункт: Lying。
Вранье.
Не «проблема стиля коммуникации», не «чрезмерный оптимизм», не «черты лидерства с опорой на видение». Всего два слова: вранье.
Человек, написавший эту записку, в 2019 году в офисе OpenAI вел свадьбу Greg Brockman; роботизированная рука служила передатчиком обручальных колец. Тогда он считал Altman и Brockman обоими друзьями.
Но в 2023 году, когда Sutskever был убежден, что AGI уже на подходе, он сказал другому члену совета директоров: «Я не думаю, что Sam — тот человек, палец которого должен лежать на кнопке».
Другая частная записка на 200 страниц
После ухода из OpenAI Dario Amodei стал сооснователем Anthropic. До этого он много лет сохранял приватные заметки об Altman и Brockman.
Свыше 200 страниц соответствующих документов ходили по рукам в Кремниевой долине — и никогда не публиковались официально.
В одном из документов Amodei написал: слова Altman «почти наверняка являются bullshit».
Это не злобная атака со стороны конкурента. До того, как Amodei присоединился к OpenAI в 2015 году, у Altman была с ним индивидуальная встреча на ужине в индийском ресторане. На той встрече Altman обещал ему: OpenAI будет фокусироваться на безопасности — «возможно, не сразу, но как можно скорее».
В своих заметках Amodei фиксировал обещания Altman. А затем, в течение многих лет, он записывал, как эти обещания одно за другим срывались.
Заголовок заметок — «My Experience with OpenAI», подзаголовок: «Private: Do Not Share».
Пятьдневный переворот и контрпереворот
17 ноября 2023 года Altman смотрел F1 в Лас-Вегасе. Sutskever пригласил его на видеозвонок и зачитил короткое заявление: он больше не является сотрудником OpenAI.
Совет директоров выпустил заявление — осторожно сформулированное: Altman уволили, потому что он «недостаточно откровенно общался».
Microsoft вложила 13 млрд долларов в считанные минуты до того, как стало известно об увольнении Altman. Затем CEO Сатья Наделла сказал: «Я был очень шокирован. Я не мог добиться от кого-то ответа — ни от кого».
Reid Hoffman начал обзванивать людей, выясняя: «Я не знаю, черт возьми, что происходит. Мы ищем мошенничество, сексуальные домогательства — но ничего не нашли».
А потом началась ответная атака.
Особняк Altman стоимостью 27 млн долларов превратился в «правительство в изгнании». Специалист по антикризисным коммуникациям Chris Lehane присоединился: его девиз — из Mike Tyson — «У каждого есть план, пока его не ударят по лицу».
Lehane призывал Altman развернуть агрессивную медиакампанию в соцсетях. Airbnb сооснователь Brian Chesky и техно-журналист Kara Swisher поддерживали контакт, передавая критику в адрес совета директоров.
Каждый вечер в 6 Altman приостанавливал «операционную комнату» и выпивал раунд негрони. «Тебе нужно успокоиться, — вспоминал он. — Все, что должно произойти, в конце концов произойдет».
Но записи звонков показывали: он звонил каждый день более 12 часов.
Инвестиционная компания Thrive приостановила запланированную сделку — намекая, что она будет завершена только при возвращении Altman. Сотрудники тогда смогут получить свои миллионы долларов в рамках исполнения опциона/эквити.
Внутри компании ходило письмо с требованием вернуть Altman. Некоторые подписанты, колебавшиеся, получали звонки и сообщения от коллег с просьбами определиться. В итоге большинство сотрудников OpenAI пригрозили уйти вместе с Altman.
Совет директоров загнали в угол. Helen Toner сказала: «Control Z — это вариант», отменив увольнение. «Или же другой вариант — компания развалится».
Даже Mira Murati в итоге подписала письмо. Ранее она предоставляла Sutskever материал для записки.
Жена Brockman, Anna, нашла Sutskever в офисе и умоляла его переосмыслить происходящее. «Ты хороший человек. Ты можешь это исправить», — сказала она.
Позже Sutskever объяснил в судебных показаниях: «Я думал, что если мы пойдем по пути, при котором Sam не возвращается, OpenAI будет разрушен».
Однажды вечером Altman принял снотворное Ambien, и его разбудил муж Oliver Mulherin: Sutskever «пошатнулся», а людей, как оказалось, просили дать Altman возможность поговорить с советом директоров. «Я проснулся в этом безумном тумане Ambien, полностью потеряв ориентацию, — говорил Altman. — И я подумал: я сейчас не могу идти разговаривать с советом директоров».
В серии все более напряженных звонков Altman потребовал, чтобы члены совета директоров, проголосовавшие за его увольнение, ушли в отставку.
Менее чем через пять дней Altman восстановили в должности.
Sutskever, Toner и McCauley потеряли места в совете директоров. Единственными оставшимися членами первоначального совета были Quora основатель Adam D’Angelo.
В качестве условия ухода члены совета потребовали провести расследование по обвинениям в адрес Altman. Они также потребовали, чтобы новый совет мог независимо надзирать за внешним расследованием.
Но два новых участника — бывший президент Гарварда Lawrence Summers и бывший CTO Facebook Bret Taylor — были избраны после тесных переговоров с Altman.
«Ты согласишься на это? — Altman написал Nadella в сообщении. — Bret, Larry Summers, Adam в качестве членов совета, а я как CEO, и тогда Bret ведет расследование».
Сейчас сотрудники называют этот момент «Blip». В фильмах Marvel герой исчезает, а затем возвращается. Но мир уже глубоко изменился из-за их отсутствия.
Расследование, которое не докладывали
Одно из условий покинувших совет директоров членов: должно быть независимое расследование.
OpenAI наняла юридическую фирму WilmerHale — ту самую, которая проводила внутренние расследования в Enron и WorldCom.
Но шесть человек, близких к расследованию, утверждали: расследование, похоже, было спланировано так, чтобы ограничить прозрачность.
Некоторые следователи поначалу не связывались с ключевыми людьми в компании. Один сотрудник обратился с жалобой Summers и Taylor. «Им было интересно только то, что происходило во время драматического эпизода с советом, а не история вокруг его честности», — вспоминал этот сотрудник свои впечатления от интервью.
Другие отказывались делиться своими опасениями относительно Altman, потому что считали, что у них нет достаточной анонимной защиты. «Все указывало на тот результат, который они хотели получить: объявить его невиновным», — сказал сотрудник.
Цель корпоративного расследования — придать легитимность. В частной компании результаты расследования иногда не фиксируются письменно — это может ограничить ответственность. Но в делах, превращающихся в публичный скандал, обычно ожидается более высокая степень прозрачности.
До того как Travis Kalanick ушел из Uber в 2017 году, совет нанял внешнюю компанию и опубликовал для публики 13-страничное резюме.
Учитывая 501©(3) статус OpenAI и громкий характер увольнения, многие руководители ожидали увидеть подробные результаты расследования.
В марте 2024 года OpenAI заявила, что Altman оправдан, но отчет не опубликовала. На сайте компании появилось примерно 800 слов — признание «разрыва доверия».
Участники расследования говорили нам: причина непубликации в том, что по сути никакого отчета не существовало.
Результаты ограничились устным брифингом — который передали Summers и Taylor.
«Расследование не пришло к выводу, что Sam — честный Джордж Вашингтон», — сказал один из людей, близких к расследованию. Но, судя по всему, вопрос о честности не был в центре причин увольнения Altman; основная часть усилий была направлена на поиск прямых криминальных действий. На этой основе расследование и сделало вывод: он может оставаться CEO.
Вскоре после этого Altman снова вернулся в совет директоров. Его исключили из совета при увольнении.
Решение не выпускать письменный отчет было принято, по словам людей, руководствуясь советом частных юристов Summers и Taylor.
Многие бывшие и действующие сотрудники OpenAI говорят, что их шокировало отсутствие раскрытия информации.
Altman заявил, что он верит: все члены совета директоров, пришедшие после его восстановления, получили устные брифинги. «Это полная ложь», — сказал один человек, непосредственно осведомленный о ситуации.
Некоторые члены совета заявили, что продолжающиеся вопросы о полноте отчета могут привести к «проведению еще одного расследования».
Системное разрушение обещаний безопасности
Ключевое обещание, с которого начинался OpenAI: если ИИ может стать самым опасным изобретением в истории человечества, безопасность должна быть приоритетом всего.
Весной 2023 года OpenAI объявила о создании «супер-выравнивающей команды», которую возглавляли Jan Leike и Sutskever. Компания пообещала направить в эту команду «20% вычислительных мощностей, полученных нами на данный момент» — потенциальная стоимость превышала $1 млрд.
Это обещание испарилось.
Четыре человека, которые работали в команде или были тесно вовлечены, сказали: фактические ресурсы находились в диапазоне от 1% до 2% от вычислительных мощностей компании.
И один из исследователей команды сказал: «Большая часть вычислительных мощностей для супер-выравнивания на самом деле работает на самых старых кластерах, на худших чипах».
Исследователи считали, что лучшее оборудование сохраняют для задач, приносящих выручку.
Leike жаловался тогдашнему CTO Mira Murati, но она сказала ему больше об этом не говорить: это обещание никогда не было реалистичным.
На встрече в декабре 2022 года Altman заверил совет директоров, что разные функции в готовящемся к выпуску GPT-4 получили одобрение от группы по безопасности.
Член совета директоров Helen Toner потребовала документы. Она выяснила: самая спорная функция, которая позволяла пользователям «настраивать» модель под конкретные задачи, и еще одна функция — возможность развернуть ее как персонального ассистента — на деле не была одобрена.
Когда McCauley покинула встречу, сотрудник отвел ее в сторону и спросил, знает ли она про «нарушение» в Индии. В многочасовом брифинге для совета директоров Altman не упомянул, что Microsoft в Индии выпустила раннюю версию ChatGPT — при том, что не провели нужные проверки по безопасности.
«Это все полностью проигнорировали», — сказал тогдашний исследователь OpenAI Jacob Hilton.
В 2023 году компания готовилась выпустить модель GPT-4 Turbo. Согласно подробному описанию в меморандуме Sutskever, Altman, очевидно, сообщил Murati, что этой модели не нужно одобрение по безопасности, ссылаясь на слова генерального юрисконсульта компании Jason Kwon.
Но когда она через Slack спросила Kwon, он ответил: «Э-э… недоумение: откуда у Sam такое впечатление».
После выхода GPT-4 Leike отправил членам совета письмо. «OpenAI уже сбился с курса относительно своей миссии», — писал он. «Мы ставим продукт и доход во главу угла, затем идут способности ИИ, исследования и расширение; выравнивание и безопасность — на третьем месте».
Далее он писал: «Другие компании, например Google, учатся. Они должны быстрее разворачивать и игнорировать вопросы безопасности».
Супер-выравнивающая команда была расформирована в 2024 году, не выполнив свою миссию. Sutskever и Leike подали в отставку.
Leike написал в X: «Культура и процессы безопасности уступили место блестящему продукту».
Вскоре была расформирована и команда, готовившаяся к AGI — та, что должна была помочь обществу подготовиться к удару от продвинутого ИИ.
Когда компанию попросили в недавней форме IRS кратко описать ее «самую важную деятельность», понятие безопасности присутствовало в ответах на более ранней форме, но не было включено в этот раз.
OpenAI заявила, что ее «миссия не изменилась», и добавила: «Мы продолжаем инвестировать и развивать нашу работу в области безопасности, и продолжим организационные изменения».
Future of Life Institute — это мозговой центр. Его принципы безопасности Altman некогда поддерживал. Этот институт оценивает «экзистенциальную безопасность» каждой крупной AI-компании.
В их последнем рейтинге у OpenAI — F.
Если быть справедливым, кроме Anthropic (D) и Google DeepMind (D-), у всех остальных крупных компаний тоже стоит F.
«Мои ощущения не совпадают с тем, что многие вещи делают в традиционном AI-безопасности», — сказал Altman. Он настаивал, что продолжает приоритизировать эти вопросы. Но когда его попросили назвать конкретику, он был расплывчат: «Мы все еще проводим проекты по безопасности — или, по крайней мере, проекты, находящиеся рядом с безопасностью».
Когда журналист попросил взять интервью у исследователей внутри компании, занимающихся экзистенциальной безопасностью, формулировка, которую Altman использовал, подразумевала проблему, в которой «у нас у всех погаснет свет» — один представитель OpenAI, похоже, не понял, о чем речь.
«Что вы называете экзистенциальной безопасностью?» — ответил он. «Это не, например, вот такое…»
Опасная игра в геополитику
2017 год: Altman на встрече с представителями американской разведки заявлял, что в Китае запустили «AGI-манхэттенский проект», и что OpenAI понадобятся десятки миллиардов долларов официального финансирования, чтобы догнать.
Когда его попросили привести доказательства, Altman сказал: «Я слышал кое-что».
Это было первое из его заявлений на нескольких встречах, где он поднимал эту тему. После одной из встреч он сказал одному сотруднику разведки, что будет возвращаться с доказательствами.
Он так и не сделал этого.
Разведчик после расследования китайского проекта пришел к выводу: нет никаких доказательств, что он существует. «Это просто используется как продажная риторика», — сказал он.
Altman утверждал, что не помнит, чтобы он описывал усилия Пекина таким образом.
Но аналогия с «манхэттенским проектом» продолжала использоваться. Согласно интервью и синхронным записям, в 2017 году Brockman предложил контрвариант: OpenAI может разбогатеть, если заставить мировые державы, включая Китай и Россию, конкурировать друг с другом, и, возможно, объявить между ними торги.
Тогдашний политико-этический консультант Page Hedley вспоминал: эта идея казалась такой мыслью, «словно ядерное оружие сработало — почему бы ИИ не сработать».
Его это шокировало: «Предпосылка была: они не возражают. Что, если мы говорим о технологии, способной стать самой разрушительной за всю историю, и если мы продаем ее Путину — что тогда?»
Brockman уверял, что не рассматривал всерьез идею «официального аукциона» AI-моделей. Представитель OpenAI сказал: «Обсуждались на высоком уровне идеи о том, какие потенциальные рамки могут стимулировать сотрудничество между странами — например, международная система наподобие космической станции. Пытаться представить это как нечто большее — совершенно нелепо».
Мозговые штурмы часто рождают странные идеи. Hedley надеялся, что этот замысел, который называли «национальным проектом», будет отброшен.
Но по данным нескольких участников и документов того времени, топ-менеджмент OpenAI, похоже, становился все более увлеченным этим.
Политический руководитель Jack Clark говорил, что цель Brockman — «в основном создать дилемму заключенного, где все страны должны дать нам деньги», и «при этом сделать так, чтобы отказ от финансирования выглядел немного опасным».
Один младший исследователь вспоминал: когда план подробно объясняли на корпоративной встрече, он подумал: «Это же, блядь, полностью безумно».
Руководители как минимум обсуждали эту схему с потенциальным донором. Но ближе к концу того же месяца после разговора нескольких сотрудников о том, что они собираются уходить, план отменили.
«Он бы потерял сотрудников, — сказал Hedley. — И я думаю, что для Сам это всегда весило больше, чем “это плохой план, потому что может привести к войне между великими державами”.»
Деньги и власть на Ближнем Востоке
Первоначальная цель по сбору средств для Altman — Саудовская Аравия.
Он впервые встретил наследного принца Мухаммеда бин Салмана на ужине в отеле Fairmont в Сан-Франциско в 2016 году. Затем Hedley вспоминал: Altman называл принца «другом».
В сентябре 2018 года в заметках Hedley было отражено, что Altman сказал: «Я думаю, будем ли мы получать от саудовского фонда PIF — сотни миллиардов».
В следующем месяце, как сообщалось, по приказу бин Салмана группа наемных убийц расправилась с журналистом «The Washington Post» Джамалем Хашогги и разрубила его тело костной пилой.
Через неделю объявили, что Altman вошел в консультативный совет Neom — «город будущего», который бин Салман надеялся построить в пустыне.
«Sam, ты не можешь сидеть в этом совете директоров», — вспоминал Clark, который теперь работает в Anthropic, как он говорил Altman. Сначала он пытался оправдать свое участие: он говорил Clark, что Jared Kushner заверил его, что саудиты «не делали этого».
Altman не помнит этот эпизод. Kushner говорит, что тогда контакта не было.
По мере того как роль бин Салмана становилась все более очевидной, Altman ушел из совета Neom. Но за кулисами, один политический консультант, к которому обращался Altman, вспоминал: он считал ситуацию временной неудачей и спрашивал, сможет ли он по-прежнему получать деньги от бин Салмана.
«Проблема не в том, “это плохо или нет?”, — сказал этот консультант. — Вопрос в том, “если мы так сделаем, какие будут последствия? Будут ли вопросы по экспортным ограничениям? Будут ли санкции? Сможем ли мы уйти от этого?”»
К тому моменту Altman уже присмотрел другой источник наличных: ОАЭ.
Осенью 2023 года Altman начал тихо подбирать людей под один план — в итоге его стали называть ChipCo. Страны Персидского залива обеспечат сотни миллиардов долларов для строительства огромных заводов по производству микрочипов и центров обработки данных, часть из которых будет располагаться на Ближнем Востоке.
Altman продавал лидерскую роль Alexandr Wang (нынешнему руководителю Meta AI), рассказывая, что основатель Amazon Jeff Bezos сможет возглавить новую компанию. Altman также просил у жителей ОАЭ крупные пожертвования.
«Мое понимание такое, что все происходило без того, чтобы кто-то из совета директоров вообще что-либо знал», — сказал один член совета.
Исследователь James Bradbury, которого Altman пытался переманить, вспоминал отказ. «Моя первая реакция была: “Это сработает, но я не знаю, хочу ли я, чтобы оно сработало”, — сказал он.
AI-способности могут очень скоро заменить нефть или обогащенный уран — стать ресурсом, который будет решать баланс глобальной власти. Altman говорил, что вычислительные мощности — «валюта будущего».
Обычно местоположение дата-центров может не иметь значения. Но многие американские специалисты по национальной безопасности беспокоились из-за концентрации передовой AI-инфраструктуры в авторитарных государствах Персидского залива.
Инфраструктура телекоммуникаций ОАЭ сильно зависит от оборудования Huawei — китайского технологического гиганта, имеющего связи с официальными структурами. По сообщениям, ранее ОАЭ передавали в Пекин американские технологии.
Разведывательные службы опасались: отправленные в ОАЭ передовые микрочипы США могут быть использованы китайскими инженерами.
Дата-центры на Ближнем Востоке также легче подвергать военным ударам. В последние недели Иран бомбил американские дата-центры в Бахрейне и ОАЭ.
После увольнения Altman самым надежным для него человеком был Chesky — сооснователь Airbnb и один из самых верных сторонников. На следующий год на встрече выпускников Y Combinator Chesky произнес импровизированную речь, которая в итоге длилась два часа.
«Похоже на коллективную терапию», — говорил он. Смысл был такой: твоя интуиция по тому, как вести созданную тобой компанию, — лучшая интуиция. Любой, кто говорит тебе, что это не так, включает в отношении тебя газлайтинг.
«Ты не сумасшедший, даже если те, кто на тебя работает, говорят, что ты сумасшедший», — сказал Chesky.
Paul Graham в своем блоге, посвященном этой речи, дал такому провокационному поведению название: founder mode.
С момента Blip Altman находится в founder mode.
В феврале 2024 года The Wall Street Journal опубликовал описание видения ChipCo для Altman. Он представлял это как объединенную структуру, финансируемую инвестициями на 5–7 трлн долларов.
«fk it why not 8», — написал он в твиттере.
Так многие сотрудники узнали о плане. «Все думали: “Подождите, что?!”», — вспоминал Leike.
На внутренних встречах Altman настаивал, что команда безопасности «была проинформирована». Leike написал ему сообщение, прося не подразумевать ошибочно, что эта работа уже одобрена.
Во времена администрации Байдена Altman пытался получить разрешение по безопасности, чтобы участвовать в закрытых обсуждениях AI-политики. Сотрудники RAND, помогавшие координировать процесс, выразили обеспокоенность.
«Он постоянно активно собирал “тысячи миллиардов долларов” с иностранных официальных источников», — писал один из них. «ОАЭ недавно подарили ему машину. (Я предполагаю, что это была очень хорошая машина.)»
Сотрудник продолжал: «Единственный человек с подобным масштабом иностранной финансовой связи из моего опыта — это Jared Kushner; ему отказали бы в допуске по рекомендации судьи».
В итоге Altman вышел из процесса.
«Он продвигал эти договоренности отношений — в основном с людьми из ОАЭ. Для некоторых из нас это прозвучало множеством красных флажков, — сказал один высокопоставленный чиновник, который разговаривал с нами. — В частности, многие официальные лица не доверяют ему на 100%».
На вопрос о подарках от Tahnoon Altman сказал: «Я не буду уточнять, какой именно подарок он мне сделал. Но он и другие лидеры мира… дарили мне подарки». Он добавил: «У нас есть стандартная политика, применимая ко мне: каждый подарок от любого потенциального коммерческого партнера должен раскрываться компании».
У Altman как минимум две суперкаров: полностью белый Koenigsegg Regera стоимостью около 2 млн долларов и красный McLaren F1 стоимостью около 20 млн долларов.
В 2024 году его видели за рулем Regera в Napa. Несколько секунд видео появились в соцсетях: Altman сидит в низком бочкообразном кресле и смотрит наружу через окно блестящей белой машины.
Технологический инвестор, связанный с Musk, опубликовал это видео в X, написав: «Я собираюсь создавать некоммерческую организацию следующей».
В 2024 году Altman привез двух сотрудников OpenAI навестить 250-миллионную суперъяхту Maryah шейха Tahnoon. Maryah — одна из крупнейших яхт такого типа в мире: у нее есть вертолетная площадка, ночной клуб, кинотеатр и пляжный клуб.
Сотрудники Altman явно чувствовали себя не в своей тарелке среди вооруженной охраны Tahnoon; по крайней мере, один позже рассказал коллегам, что это было неприятно.
Позже Altman в X назвал Tahnoon «дорогим личным другом».
Байден в итоге отказался одобрять. «Мы не будем строить в ОАЭ передовые чипы», — сообщил Altman один из руководителей Министерства торговли.
За четыре дня до инаугурации Трампа The Wall Street Journal сообщила, что Tahnoon заплатил 500 млн долларов семье Трампа в обмен на долю в компании его криптовалютного бизнеса.
На следующий день Altman созвонился с Трампом на 25 минут — обсуждая анонс версии ChipCo, так чтобы Трамп мог приписать себе этот успех.
В день вступления Трампа в должность Altman объявил о Stargate в Roosevelt Room — партнерском предприятии на 500 млрд долларов, нацеленном на создание огромной сети инфраструктуры AI в США.
В мае США сняли ограничения администрации Байдена на экспорт AI-технологий. Altman и Трамп отправились в Саудовскую королевскую семью, чтобы встретиться с бин Салманом.
Примерно в то же время саудиты объявили о запуске в королевстве крупной AI-компании с государственной поддержкой — с десятками миллиардов на международные партнерства.
Примерно через неделю Altman составил план расширения Stargate до ОАЭ. Компания собирается построить в Абу-Даби кампус дата-центра — в семь раз больше Центрального парка — и потребление электроэнергии будет примерно соответствовать городу Майами.
«Факт в том, что мы строим портал, из которого мы действительно призываем инопланетян», — сказал один бывший топ-менеджер OpenAI. «Портал сейчас существует в США и Китае, а Sam добавляет один — на Ближнем Востоке».
Он добавил: «Мне кажется, крайне важно понять, насколько это ужасно. Это уже самая безрассудная вещь, которую можно было сделать — то, что уже было сделано».
Некоммерческая ложь
Когда OpenAI создавали как некоммерческую организацию, ее совет директоров несет ответственность ставить безопасность человечества выше успеха компании, а иногда даже выше ее выживания.
Компания принимает благотворительные пожертвования. По словам некоторых бывших сотрудников, они пришли туда, потому что верили обещаниям некоммерческой модели и ее высоком миссии — вплоть до того, что согласились на понижение зарплаты.
Но внутренние записи показывают: основатели уже с 2017 года испытывали частные сомнения в отношении некоммерческой структуры.
Brockman, сооснователь Altman, писал в дневнике: «Нельзя сказать, что мы привержены некоммерческой модели… если через три месяца мы станем B-Corp, это будет ложь».
С тех пор OpenAI была реорганизована в коммерческое юрлицо.
В ранний период работы Altman в качестве CEO он объявил, что OpenAI создаст компанию «с ограниченной прибылью», которой будет владеть некоммерческая организация. Такая византийская модель компании очевидно не существовала до того, как Altman придумал ее.
На этапе перехода член совета директоров Holden Karnofsky выступал против: он считал, что некоммерческую организацию серьезно недооценивают. «Я не могу честно так делать», — сказал Karnofsky (шурин Amodei).
Согласно записям того времени, он проголосовал против. Однако после того, как корпоративный юрист совета заявил, что его возражение «может быть признаком того, что понадобится дальнейшее расследование легальности», его голос был зафиксирован как воздержание — явно без его согласия. Это похоже на подделку корпоративной отчетности/деловой документации.
OpenAI сказала нам, что некоторые сотрудники вспоминают воздержание Karnofsky и предоставили протоколы встреч, в которых он голосовал как воздержавшийся.
В прошлом октябре OpenAI «реорганизовала» себя в коммерческое юрлицо. Компания рекламировала связанную с ней некоммерческую структуру, которую теперь называют OpenAI Foundation — одну из самых «ресурсно обеспеченных» некоммерческих организаций в истории.
Но теперь она является держателем интереса/доли в 26% компании, а ее члены совета директоров — кроме одного — также являются членами коммерческого совета.
В ходе слушаний в Конгрессе Altman спросили, зарабатывал ли он «много денег». Он ответил: «У меня нет акций/доли в OpenAI… Я делаю это, потому что мне это нравится». Это осторожный ответ — учитывая то, что он получает косвенное участие через фонд Y.C.
Технически это все еще правда. Но несколько человек, включая Altman, сказали нам, что это может скоро измениться.
«Инвесторы сказали: мне нужно понимать, что ты будешь держаться, когда времена тяжелые», — сказал Altman, добавив при этом, что «не было активного обсуждения».
Согласно судебным показаниям, Brockman, похоже, владеет долей в компании стоимостью около 20 млрд долларов. Доля Altman, вероятно, будет больше.
И все же он говорит, что в первую очередь его мотивировали не богатство. Один бывший сотрудник вспоминал, как он сказал: «Мне не важны деньги. Мне важна власть».
Война по очернению конкурента
В жестокой гонке за доминирование в AI существенная критика в адрес Altman смешивалась с безжалостными усилиями его противников. Конкуренты оружием сделали его личную жизнь.
Посредник, связанный напрямую с Musk, который по крайней мере в одном случае получил за это вознаграждение от Musk, распространял десятки страниц сенсационных и неподтвержденных измышлений против него — отражая широкую наблюдательность: офшорные компании, личные контакты и интервью в гей-барах о так называемых секс-работниках.
В ходе нашего расследования несколько человек из конкурирующих компаний нам намекнули, что Altman якобы ищет сексуальный контакт с несовершеннолетними: это — устойчивый нарратив, который продолжает жить в Кремниевой долине, но, похоже, это не соответствует действительности.
Мы потратили месяцы на проверку этого утверждения: провели десятки интервью, но не нашли никаких доказательств.
Musk продолжал публично поносить Altman, называя его «лжец Altman» и «лжец Sam». (Когда Altman пожаловался в X на то, что заказанные им Tesla задерживаются, Musk ответил: «Ты украл у некоммерческой организации».)
Но в Вашингтоне, похоже, Altman уже перерос роль мишени. Musk потратил больше 250 млн долларов, чтобы помочь Трампу выиграть выборы, а затем работал в Белом доме несколько месяцев. Потом Musk покинул Вашингтон — и тем самым нанес ущерб своим отношениям с Трампом.
Теперь Altman — один из самых любимых бизнес-магнатов Трампа. Он даже сопровождал его во время визита к британскому королевскому дому в Виндзор. Altman и Трамп созваниваются несколько раз в год.
«Ты можешь, например, позвонить ему, — сказал Altman. — Это не “приятели”. Но да, если мне нужно с ним поговорить — я позвоню».
Когда Трамп в прошлом году устраивал в Белом доме ужин для технологических лидеров, Musk явно отсутствовал; Altman сидел напротив президента.
«Sam, ты великий лидер, — сказал Трамп. — То, о чем ты мне рассказывал раньше, — абсолютно невероятно».
Реальные опасности AI
Почему все это так важно?
AI действительно уже имеет приложения, которые спасают жизни — от медицинских исследований до предупреждений о погоде. Altman поддерживал рост OpenAI обещаниями сверхбогатого будущего.
Но опасность уже не является фантазией.
AI уже применяют в военных операциях по всему миру. Исследователи документировали его способность быстро выявлять химические боевые агенты.
OpenAI столкнулась с семью судебными исками об аномальных смертях: в них утверждается, что ChatGPT подталкивал к самоубийствам и был связан с одним убийством. В чате по делу об одном убийстве видно, что он подталкивал мужчину к параноидальным бредовым идеям: будто его 83-летняя мать следит за ним и пытается отравить его. Вскоре после этого он избил и задушил ее, а затем нанес ножевые ранения себе.
OpenAI борется с этими исками и заявляет, что продолжает улучшать защитные меры для своих моделей.
AI может скоро привести к серьезным сбоям на рынке труда — возможно, уничтожив миллионы рабочих мест.
Американская экономика все больше зависит от нескольких AI-компаний с высокой долговой нагрузкой. Многие эксперты, включая время от времени Altman, предупреждают, что отрасль находится в пузыре.
«Кто-то потеряет изумительные суммы денег», — говорил он журналистам в прошлом году.
OpenAI — один из самых быстрых стартапов в истории по сжиганию денег; она зависит от партнеров, которые занимают и привлекают огромные средства. Один член совета директоров рассказал нам: «Финансовые рычаги компании сегодня одновременно рискованны и страшны».
OpenAI с этим не согласилась.
Если пузырь лопнет — под угрозой окажется не только одна компания.
Вопрос доверия
Много лет Altman поддерживал Демократическую партию. «Я очень сомневаюсь, что сильные диктаторы объединяются, рассказывая истории о страхе, чтобы объединиться против слабых, — говорил он нам. — Это еврейский вопрос, а не вопрос про гомосексуалистов».
В 2016 году он поддерживал Хиллари Клинтон, называя Трампа «угрозой для США беспрецедентного масштаба». В 2020 году он делал пожертвования в пользу победы демократов и фонда победы Байдена.
В период президентства Байдена Altman как минимум шесть раз встречался с Белым домом. Он помог сформировать длинный исполнительный указ для AI — первый федеральный тест безопасности и другие ограждения.
Когда указ подписали, Altman назвал это «хорошим началом».
В 2024 году, когда показатели опросов Байдена просели, риторика Altman начала меняться. «Я считаю, что независимо от того, как пройдет это голосование, Америка будет в порядке», — сказал он.
После победы Трампа Altman пожертвовал 1 млн долларов его инаугурационному фонду, а на инаугурации сделал селфи с инфлюенсерами Jake и Logan Paul.
В X, в его фирменной манере писать строчными буквами, Altman написал: «Недавно я уделил @potus немного более внимательное наблюдение — и это реально изменило мое мнение о нем (надеюсь, я сделаю больше собственных размышлений…)».
В первый день правления Трамп отменил исполнительный указ Байдена по AI.
«Он нашел способ, как обеспечить выполнение его указов, — сказал один высокопоставленный чиновник эпохи Байдена, говоря об Altman».
От Y Combinator до OpenAI: модель
Время Altman в Y Combinator сформировало для него шаблон поведения, который проявлялся и в OpenAI.
В 2018 году несколько партнеров Y.C. раздражались из-за действий Altman настолько, что они нашли Graham, чтобы пожаловаться. Судя по всему, Graham и его жена, основатель Y.C. Jessica Livingston, провели с Altman откровенный разговор.
После этого Graham начал рассказывать людям: хотя Altman соглашался уйти из компании, на практике он сопротивлялся.
Altman говорил некоторым партнерам Y.C., что уйдет с должности президента, но станет председателем совета.
В мае 2019 года в блоге о том, что у Y.C. появился новый президент, была пометка со звездочкой: «Sam переходит на роль председателя совета директоров YC».
Через несколько месяцев этот пост отредактировали до формулировки: «Sam Altman покинул любую официальную роль в YC»; затем эту фразу полностью убрали.
И все же до 2021 года документ SEC продолжал указывать Altman как председателя Y Combinator.
Altman говорил, что узнал об этом только спустя долгое время.
Altman годами публично и в недавних показаниях настаивал, что его никогда не увольняли из Y.C. Он говорил нам, что он не сопротивлялся уходу.
В твиттере Graham писал: «Мы не хотели, чтобы он уходил — мы лишь приняли решение». В заявлении Graham рассказывал нам: «У нас не было юридической власти увольнять кого-либо. Все, что мы можем — это оказывать моральное давление».
Но в частном порядке он говорил без обиняков: Altman убрали из-за недоверия со стороны партнеров Y.C.
Это описание того, как Altman вел себя в период YC, основано на разговорах с несколькими основателями и партнерами Y.C., а также на синхронных материалах — и все они показывают, что расставание не было полностью взаимным/симметричным.
Один раз Graham рассказывал коллеге в Y.C., что до момента его удаления «Sam все время врал нам всем».
Искусство убеждения
Altman — не инженерный гений. По словам многих людей из его окружения, ему недостает широкой экспертизы в кодинге или машинном обучении. Несколько инженеров вспоминали случаи, когда он неверно использовал или путал баз