Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
OpenAI велика новина розкрита: Ілля зняв 70-сторінковий документ, що доводить, що Оутман брехав
Сьогодні журнал «The New Yorker» опублікував розслідування тривалістю 18 місяців, вперше розкривши 70-сторінкову внутрішню пам’ятку, яку восени 2023 року зібрав головний науковий співробітник OpenAI Ілля Сутске́вер, а також понад 200 сторінок приватних нотаток, які протягом багатьох років зберігав співзасновник Anthropic Даріо Амодеї.
Ці документи, які ніколи не були оприлюднені, вказують на той самий висновок: Сам Альтман демонструє патерн «послідовного брехання».
Це не проста внутрішня боротьба в компанії. Коли вважається, що ШІ може бути «найнебезпечнішим винаходом в історії людства», а керівництво компанії заявляє, що прагне «забезпечити, аби АГІ приніс користь усьому людству», питання доброчесності керівників перестає бути приватною справою і стає публічним питанням для всіх.
APPSO на основі тексту «The New Yorker» заново систематизує й подає цю кризу доброчесності, що сколихнула Силіконову долину.
Це історія про владу, брехню та майбутнє ШІ.
APPSO виділяє головне:
Подвійні стандарти Альтмана:
Ілля Сутске́вер подав до ради директорів 70-сторінкові секретні документи, звинувативши Альтмана в тому, що він «постійно бреше»
Рада звільнила Альтмана через те, що він «недостатньо відверто комунікував», але через 5 днів була змушена повернути його на посаду
Працівники називають цю подію «The Blip» (зникнення й повернення в стилі Marvel)
Альтмана викрили в суперечці щодо двох ексклюзивних угод із гігантами на кшталт Microsoft і Amazon
Кризa безпеки:
OpenAI розпустила команду суперузгодження, а обіцяні 20% обчислювальних потужностей фактично надали лише 1–2%
Компанія перейшла з неприбуткового формату в прибутковий, оцінка зросла до мільярдів доларів
Домовленість із режимами на Близькому Сході про угоду на 50B доларів США щодо інфраструктури для ШІ
Відкриття технологій для армії: для міграційного правозастосування, нагляду та автономної зброї
Ігри за владу:
Особисті інвестиції Альтмана у 400+ компаній і складні фінансові відносини з колишніми хлопцями
Викриття: інвестори, які його конкурентів, отримували «заморозку» інвестицій
Перехід від «ефективного альтруїзму» до «ефективного прискорення»
Тісні зв’язки з Трампом: пожертва 1 млн доларів США в інвестфонд інавгурації
Історія про 70-сторінкову пам’ятку щодо доброчесності
Восени 2023 року Ілля Сутске́вер зробив річ, надзвичайно рідкісну для Силіконової долини: він за допомогою телефону таємно сфотографував внутрішні документи компанії, зібравши з них 70-сторінкову пам’ятку, і надіслав її членам ради директорів.
Навіщо було шпигувати? Бо він боявся залишити сліди на корпоративних пристроях.
Пам’ятка надсилалася у форматі «повідомлень, що зникають», щоб ніхто не зміг її побачити. Один із членів ради директорів, який отримав пам’ятку, згадав: «Він налякався до нестями».
Цей документ, який ніколи не був повністю оприлюднений, починається зі списку: «Sam exhibits a consistent pattern of…»
Перший пункт: брехня.
Брехати.
Не «проблема стилю комунікації», не «надмірний оптимізм», не «особливості лідера із баченням». Це просто два слова: брехня.
Автор цієї пам’ятки у 2019 році в OpenAI-офісі проводив весілля Грега Брокмана: роботизована рука тримала каблучку й передавала її. Він колись вважав і Альтмана, і Брокмана друзями.
Але у 2023 році, коли Сутске́вер вважав, що АГІ вже близько, він сказав іншому члену ради: «Я не думаю, що Сам має бути тією людиною, чий палець стоїть на кнопці».
Інша приватна нотатка на 200 сторінок
Після того як Даріо Амодеї пішов з OpenAI, він став співзасновником Anthropic. До цього він протягом багатьох років зберігав приватні нотатки про Альтмана й Брокмана.
Понад 200 сторінок відповідних документів ходили Силіконовою долиною, але ніколи не були повністю розкриті.
В одному з документів Амодеї написав: що слова Альтмана «майже напевно є bullshit».
Це не злісна атака з боку конкурента. Амодеї приєднався до OpenAI у 2015 році, а Альтман до того запевнив його на дводенному індійському вечері в ресторані: що OpenAI буде зосереджена на безпеці — «можливо, не одразу, але якомога швидше».
А в нотатках він записав ці обіцянки Альтмана. Потім він витратив роки, фіксуючи, як ці обіцянки одна за одною зламали.
Назва нотаток — «My Experience with OpenAI», підзаголовок: «Private: Do Not Share».
П’ятиденний переворот і контрпереворот
17 листопада 2023 року Альтман дивився F1 у Лас-Вегасі. Сутске́вер запросив його на відеодзвінок і зачитав коротку заяву: він більше не є працівником OpenAI.
Рада директорів опублікувала повідомлення дуже обережно: Альтмана звільнили, бо він «недостатньо відверто комунікував».
Microsoft інвестувала 13 млрд доларів США за кілька хвилин до того, як Альтмана звільнили, і дізналася про це лише тоді. Пізніше CEO Сатья Наделла сказав: «Я дуже вражений; я не зміг отримати інформацію ні від кого — будь від кого».
Рейд Гоффман почав дзвонити й розпитувати: «Я не знаю, що, чорт забирай, відбулося. Ми шукаємо розтрату, сексуальні домагання, але нічого не знайшли».
А потім почалася контратака.
Розкішний будинок Альтмана за 27 млн доларів перетворився на «уряд у вигнанні». В команду кризових комунікацій приєднався Кріс Ліхейне, а його девіз походить від Майка Тайсона: «У кожного є план, доки його не вдарять».
Ліхейне закликав Альтмана розпочати агресивну медійну війну в соцмережах. З Airbnb продовжував підтримувати контакт співзасновник Браян Ческі, а також технологічна журналістка Кара Суїшер, передаючи критику на адресу ради.
Щовечора о 18:00 Альтман зупиняв «бойовий штаб» і йшов на раунд негроні. «Тобі треба заспокоїтись», — згадував він. «Потрібне рано чи пізно станеться».
Але записи дзвінків показали: він телефонував щодня понад 12 годин.
Інвесткомпанія Thrive призупинила заплановані інвестиції, натякаючи: угода буде завершена лише у разі повернення Альтмана. Лише тоді працівники зможуть отримати акціонерну виплату на мільйони доларів.
Відкрите звернення із вимогою повернути Альтмана поширювалося всередині компанії. Деякі, хто вагався, підписуючи його, отримували дзвінки й повідомлення від колег із проханнями. У підсумку більшість працівників OpenAI пригрозила піти разом з Альтманом.
Рада була загнана в кут. Хелен Тонер сказала: «Control Z — це варіант», скасувавши звільнення. «Або ще один варіант — щоб компанія розвалилася».
Навіть Міра Мура́ті зрештою підписала лист. Раніше вона надавала Сутске́веру матеріали для пам’ятки.
Дружина Брокмана Анна знайшла Сутске́вера в офісі й благала його передумати. «Ти добра людина, ти можеш це полагодити», — сказала вона.
Пізніше Сутске́вер пояснив у судових свідченнях: «Я відчував, що якщо ми підемо шляхом, де Сам не повернеться, OpenAI буде знищено».
Одного вечора Альтман прийняв снодійне Ambien, а його чоловік Олівера Мулхерін розбудив: Сутске́вер «хитнувся», і люди наполягали, щоб Альтман поговорив із радою. «Я прокинувся в цьому божевільному тумані Ambien, цілком розгублений», — казав Альтман. «І подумав: я не можу говорити з радою».
У низці дедалі напруженіших дзвінків Альтман вимагав від своїх членів ради, які його звільнили, піти у відставку.
Менше ніж за п’ять днів Альтмана поновили.
Сутске́вер, Тонер і МакКаулі втратили місця в раді директорів. Єдиним членом ради, який лишився з того початкового складу, був Адам Д’Анджело — засновник Quora.
Як умову відходу, члени ради, які звільнилися, вимагали розслідування звинувачень щодо Альтмана. Вони також просили, щоб нова рада могла незалежно наглядати за зовнішнім розслідуванням.
Але двох нових членів — колишнього президента Гарварду Лоуренса Саммерса та колишнього CTO Facebook Бретта Тейлора — обрали після тісних переговорів із Альтманом.
«Ти готовий до цього зробити, —» Альтман написав Наделлі в месенджері, «Брет, Larry Summers, Adam як рада, а я як CEO, а Брет тоді займається розслідуванням».
Працівники зараз називають цей момент «Blip», подія з фільмів Marvel, коли персонаж зникає, а потім повертається. Але світ уже глибоко змінився від їхньої відсутності.
Розслідування без оприлюдненого звіту
Одна з умов членів ради, що пішли: має бути незалежне розслідування.
OpenAI найняла юридичну фірму WilmerHale — саме ця фірма раніше відповідала за внутрішні розслідування щодо Enron і WorldCom.
Але шестеро людей, близьких до розслідування, кажуть: ця справа, схоже, була змодельована так, щоб обмежити прозорість.
Дехто з розслідувачів спочатку не звертався до ключових людей компанії. Один із працівників повідомив Summers і Taylor зі скаргою. «Їх цікавили лише події під час радницької драми, а не історія доброчесності Альтмана», — згадав цей працівник свої враження від інтерв’ю.
Інші не хотіли ділитися своїми занепокоєннями щодо Альтмана, бо їм здавалося, що анонімного захисту недостатньо. «Усе вказувало на результат, який вони хочуть знайти: виправдати його», — сказав працівник.
Мета корпоративного розслідування — надати легітимності. У приватних компаніях результати іноді не викладають письмово, що може обмежити відповідальність. Але в кейсах із публічною ганьбою зазвичай очікують значно більшої прозорості.
Перш ніж Тревіс Каланік пішов з Uber у 2017 році, рада найняла зовнішню компанію, яка опублікувала для публіки 13-сторінковий підсумок.
З огляду на статус OpenAI як 501©(3) і на гучність звільнення, багато керівників розраховували побачити детальний звіт.
У березні 2024 року OpenAI оголосила, що Альтмана виправдали, але без публікації звіту. На вебсайті компанія розмістила близько 800 слів, визнавши «розрив довіри».
Ті, хто брав участь у розслідуванні, кажуть: звіт не опублікували, бо його взагалі не писали.
Результати обмежилися усним брифінгом, який поділилися Summers і Taylor.
«Розслідування не дійшло висновку, що Сам — чесний Джордж Вашингтон», — сказав один із людей, близьких до розслідування. Але, схоже, проблема доброчесності не була в центрі того, чому Альтмана звільнили. Натомість більшість зусиль було спрямовано на пошук чітких кримінальних дій. На основі цього розслідування дійшло висновку: він може й надалі залишатися CEO.
Невдовзі після цього Альтман повернувся в раду директорів. Під час звільнення його з неї виключили.
Рішення не готувати письмовий звіт частково ґрунтувалося на рекомендаціях приватних адвокатів Summers і Taylor.
Багато працівників — і колишніх, і нинішніх — OpenAI кажуть, що їх шокувала відсутність розкриття інформації.
Альтман сказав, що вірить: усі члени ради, які приєдналися після його поновлення, отримали усний брифінг. «Це повна брехня», — сказав один з людей, який безпосередньо знав деталі.
Декілька членів ради кажуть, що постійні сумніви щодо повноти звіту можуть спонукати до «ще одного розслідування».
Системний крах безпекових обіцянок
Ключова обіцянка, з якою OpenAI стартувала: якщо ШІ може бути найнебезпечнішим винаходом в історії людства, то безпека має бути пріоритетом над усім.
Навесні 2023 року OpenAI оголосила про створення «команди суперузгодження», яку очолили Jan Leike і Sutskéver. Компанія пообіцяла вкласти «20% обчислювальних потужностей, які ми отримали на цей момент» у цю команду — потенційна цінність понад 1 млрд доларів.
Ця обіцянка випарувалася.
Четверо людей, які працювали в цій команді або тісно співпрацювали з нею, кажуть: фактичні ресурси — від 1% до 2% від обчислювальних потужностей компанії.
Крім того, один із дослідників команди сказав: «Більшість потужностей суперузгодження насправді працює на найстаріших кластерах, використовуючи найгірші чипи».
Дослідники вважали, що краще обладнання бережуть для діяльності з отримання доходів.
Лейк скаржився на це тодішньому CTO Мірі Мура́ті, але вона попросила його більше про це не говорити — і ця обіцянка ніколи не була реалістичною.
На зустрічі в грудні 2022 року Альтман запевнив раду директорів, що різні функції майбутнього GPT-4 уже отримали схвалення групи безпеки.
Член ради Хелен Тонер попросила документи. Вона виявила, що найспірніші функції — одна, що дозволяє користувачам «підлаштовувати» модель під конкретні завдання, та інша, яка дає змогу розгорнути її як персонального асистента — насправді не були затверджені.
Коли МакКаулі покинула зустріч, один із працівників відвів її вбік і запитав, чи вона знає про «порушення» в Індії. Під час багатогодинного брифінгу перед радою Альтман не згадував, що в Індії Microsoft запустила ранню версію ChatGPT і не провела необхідну перевірку безпеки.
«Це повністю ігнорували», — сказав тоді дослідник OpenAI Джейкоб Хілтон.
У 2023 році компанія готувалася випустити модель GPT-4 Turbo. Згідно з детальним описом у пам’ятці Сутске́вера, Альтман, очевидно, сказав Мура́ті, що цьому моделлю не потрібне погодження безпеки, посилаючись на слова головного юрисконсульта компанії Джейсона Квона.
Але коли вона звернулася до Квона в Slack, він відповів: «Е-е… збентежено: звідки Сам узяв таке враження».
Після релізу GPT-4 Лейк написав електронного листа членам ради директорів. «OpenAI відхилилася від своєї місії», — йшлося в повідомленні. «Ми ставимо продукт і дохід понад усе; потім — можливості ШІ, дослідження та масштабування; узгодженість і безпека — на третьому місці».
Далі він писав: «Інші компанії, як-от Google, навчаються; вони повинні швидше розгортатися й ігнорувати проблеми безпеки».
Команду суперузгодження розпустили у 2024 році, не виконавши місії. Сутске́вер і Лейк пішли у відставку.
Лейк у X написав: «Культура і процеси безпеки поступилися місцем блискучому продукту».
Невдовзі підготовчі команди до АГІ — ті, що мали допомогти суспільству підготуватися до удару від передового ШІ, — також були розпущені.
Коли компанію попросили на недавньому звіті в IRS коротко описати свої «найважливіші дії», поняття безпеки було присутнє в попередніх відповідях, але не було вказане в цьому випадку.
OpenAI каже, що його «місія не змінилася», і додає: «Ми продовжуємо інвестувати та розвивати нашу роботу в сфері безпеки і надалі здійснюватимемо організаційні зміни».
Future of Life Institute — це аналітичний центр, чиї принципи безпеки Альтман раніше підтримував. Ця структура оцінює «екзистенційну безпеку» кожної основної AI-компанії.
На недавньому табелі OpenAI отримала F.
Справедливо кажучи, окрім Anthropic (D) і Google DeepMind (D-), усі інші основні компанії теж отримали F.
«У мене відчуття, що це не узгоджується з багатьма речами в традиційній безпеці ШІ», — сказав Альтман. Він наполягав, що й надалі ставить ці питання в пріоритет. Але коли його попросили надати конкретні деталі, він ухилявся: «Ми все ще виконуватимемо проєкти з безпеки або принаймні проєкти, що є поруч із безпекою».
Коли журналісти попросили про інтерв’ю з дослідниками всередині компанії, які працюють над екзистенційною безпекою, Альтман раніше говорив про сценарій, що може означати «всі ми вимикаємо світло». Представник OpenAI, схоже, був збентежений.
«Що ви маєте на увазі під екзистенційною безпекою?» — відповів він. «Це не, наприклад, ось щось…»
Геополітична гра за небезпечну розстановку 2017 року
Улітку 2017 року Альтман на зустрічі з високопоставленими американськими посадовцями з розвідки заявляв, що Китай запускає «AGI Manhattan Project», і що OpenAI потрібні десятки мільярдів доларів офіційного фінансування, щоб наздогнати.
Коли його попросили надати докази, Альтман сказав: «Я чув про деякі речі».
Це була перша така заява на кількох засіданнях, де він піднімав це твердження. Після однієї з таких зустрічей він сказав одному посадовцю з розвідки, що надасть докази пізніше.
Він ніколи цього не зробив.
Після розслідування китайського проєкту той посадовець дійшов висновку: немає жодних доказів, що це існувало. «Це просто використовували як маркетингову риторику».
Альтман каже, що не пам’ятає, щоби описував зусилля Пекіна саме таким чином.
Але порівняння з «Manhattan Project» використовували й далі. За словами опитаних і за синхронними записами, у 2017 році Брокман запропонував контрплан: OpenAI може розбагатіти, змусивши великі держави, включно з Китаєм і Росією, змагатися між собою, а можливо, оголосити між ними тендерну війну.
Тоді радник з політики та етики Page Hedley згадував, що це здавалося: «Якщо ядерна зброя спрацювала, то чому AI не спрацює?»
Його це шокувало: «Якщо вони не заперечували: “Ми говоримо про потенційно найруйнівнішу технологію в історії. А що, як ми продамо її Путіну?”»
Брокман наполягав, що ніколи не розглядав це серйозно як офіційну «аукціонну» модель продажу AI. Представник OpenAI сказав: «Ідея про можливі рамки, які можуть заохотити співпрацю між державами, обговорювалася на високому рівні, подібно до міжнародної космічної станції для AI. Намагатися описати це як щось більше — цілком абсурдно».
Мозкові штурми часто породжують ексцентричні ідеї. Hedley хотів, щоб таку концепцію, яку називали «national plan», відкинули.
Але за словами кількох учасників і синхронних документів, керівництво OpenAI, здається, дедалі більше захоплювалося нею.
Тодішній керівник напрямку з політики Jack Clark казав, що ціль Брокмана — «побудувати, по суті, дилему в’язня, коли всі держави мають надати нам фінансування», і «при цьому неявно зробити відмову від фінансування потенційно небезпечною».
Один із молодших дослідників згадував: коли цей план детально розписували на корпоративній зустрічі, він подумав: «Це повний, чорт забирай, божевілля».
Керівники принаймні обговорювали цю схему з одним потенційним донором. Але в пізнішому того ж місяця після того, як кілька працівників обговорювали звільнення, цей план скасували.
«Він втратить працівників», — сказав Hedley. «І я думаю, що для Сам це завжди важило більше, ніж “це поганий план, бо може спричинити війну між великими державами”.»
Гроші та влада на Близькому Сході
Початкова ціль Альтмана для збору коштів — Саудівська Аравія.
Він уперше познайомився з кронпринцом Мухаммедом бін Салманом на вечері в готелі Fairmont у Сан-Франциско у 2016 році. Після цього Hedley згадував, що Альтман називав кронпринца «другом».
В вересні 2018 року нотатки Hedley показали: Альтман сказав: «Я думаю, чи ми візьмемо в Саудівського PIF (Public Investment Fund) сотні мільярдів».
Наступного місяця, за повідомленнями, ескадрон найманців за наказом бін Салмана вбив репортера The Washington Post Джамаля Хашоґґі, а його труп розчленували за допомогою кісткової пилки.
За тиждень оголосили, що Альтман увійшов до консультативної ради Neom — «міста майбутнього» в пустелі, яке бін Салман сподівався побудувати.
«Саме, ти не можеш бути в цій раді», — згадував теперішній у Anthropic Кларк, — «він сказав Альтману». Кларк спочатку захищав свою участь: Альтман розповідав йому, що Джаред Кушнер запевнив — саудівці «не зробили цього».
Альтман не пам’ятає тієї історії. Кушнер каже, що тоді вони не спілкувалися.
Оскільки роль бін Салмана ставала дедалі більш очевидною, Альтман залишив раду директорів Neom. Але за лаштунками політичний радник, до якого Альтман звертався по пораду, згадував, що Альтман сприймав це як тимчасову невдачу й питав, чи він усе ще може отримати гроші від бін Салмана.
«Питання не в тому, “це погано чи ні?”», — сказав радник. «Питання в тому, “якщо ми зробимо це, які будуть наслідки? Чи буде проблема з експортним контролем? Чи будуть санкції? Наприклад, як мені уникнути цього?”»
Тоді Альтман уже придивлявся до іншого джерела готівки: ОАЕ.
Восени 2023 року Альтман почав тихо підбирати нові кадри під майбутній план — зрештою його стали називати ChipCo. Держави Перської затоки нададуть сотні мільярдів доларів на будівництво гігантських заводів із мікрочипів і дата-центрів, частина з яких може бути розташована на Близькому Сході.
Альтман просував керівну роль Александру Вангу (нинішньому керівнику Meta AI), розповідаючи, що засновник Amazon Джефф Безос може очолити цю нову компанію. Альтман шукав у людей з ОАЕ величезні пожертви.
«Моє розуміння: вся ця справа відбулася без будь-яких знань з боку ради», — сказав член ради.
Дослідник Джеймс Бредбері, якого Альтман намагався переманити, згадував, що відмовив. «Моя перша реакція була: “це, безумовно, може спрацювати, але я не знаю, чи хочу я, щоб воно спрацювало”», — сказав він.
Здібності ШІ можуть дуже швидко замінити нафту або збагачений уран — ресурси, що визначають баланс глобальної влади. Альтман каже, що обчислювальні потужності — «майбутня валюта».
Зазвичай, де саме розташовані дата-центри, може бути не надто важливо. Але багато співробітників американських служб національної безпеки хвилюються через концентрацію передової інфраструктури ШІ в авторитарних державах Перської затоки.
Інфраструктура телекомунікацій ОАЕ сильно залежить від обладнання Huawei — китайської технологічної гігантської компанії, яка має зв’язки з офіційними структурами. За повідомленнями, ОАЕ в минулому передавали до Пекіна американські технології.
Розвідслужби побоюються: передові американські мікрочипи, які відправлять до ОАЕ, можуть бути використані китайськими інженерами.
Дата-центри на Близькому Сході також вразливіші до воєнних ударів. За останні кілька тижнів Іран бомбив американські дата-центри в Бахрейні та ОАЕ.
Після звільнення Альтмана його найбільш залежною людиною стала Ческі. Наступного року на зібранні випускників Y Combinator Ческі виступив із імпровізованою промовою, яка тривала дві години.
«Це було схоже на групову терапію», — сказав він. Суть: інтуїція щодо того, як вести компанію, яку ти заснував, — найкраща; будь-хто, хто говорить тобі, що це не так, здійснює з тобою газлайтинг.
«Ти не божевільний, навіть якщо люди, що працюють на тебе, кажуть тобі, що ти божевільний», — сказав Ческі.
Пол Грем у блозі про цю промову дав такому викличному підходу назву: founder mode («режим засновника»).
Відтоді як стався Blip, Альтман був у режимі засновника.
У лютому 2024 року The Wall Street Journal опублікувала опис бачення Альтмана для ChipCo. Він уявляв це як спільний суб’єкт, який фінансують інвестиції в розмірі 50–70 трлн доларів США.
«fk it why not 8», — написав він у твіті.
Ось як багато працівників дізналися про цей план. «Усі думали: “очікуйте, що?!”», — згадував Лейк.
На внутрішніх нарадах Альтман наполягав, що безпекова команда вже «була поінформована». Лейк написав йому повідомлення з наполегливим проханням не створювати враження, ніби ця робота вже схвалена.
Під час каденції Байдена Альтман шукав можливість отримати допуск з безпеки, щоб долучитися до закритих обговорень AI-політики. Люди з RAND, які допомагали координувати процес, висловлювали занепокоєння.
«Він активно збирає “тисячі мільярдів” у іноземних офіційних структур», — писав один із них. «ОАЕ нещодавно подарували йому авто. (Я припускаю, що це було дуже добре авто.)»
Працівник продовжив: «Єдине, що я можу згадати про людину, яка переживала такі масштаби іноземних фінансових зв’язків, — це Джаред Кушнер; йому, за порадою судді, не слід було видавати дозвіл».
У підсумку Альтман вийшов із цього процесу.
«Він просував ці трансакційні зв’язки, головно з людьми з ОАЕ, і для деяких з нас це було дуже тривожним сигналом», — сказав нам старший чиновник, який брав участь у розмовах з Альтманом. «Багато людей в офісі далеко не на 100% йому довіряють».
Коли його запитали про подарунки від Tahnoon, Альтман сказав: «Я не буду конкретизувати, який саме подарунок він мені зробив. Але він і інші світові лідери… робили мені подарунки». Він додав: «У нас є стандартна політика: кожен подарунок від будь-якого потенційного ділового партнера має бути розкритий компанії».
У Альтмана щонайменше дві суперкарові машини: повністю білий Koenigsegg Regera вартістю близько 2 млн доларів і червоний McLaren F1 вартістю близько 20 млн доларів.
У 2024 році хтось бачив, як Альтман їздить на Regera через Napa. Кілька секунд відео з’явилося в соцмережах: Альтман сидить у низькому бочкоподібному кріслі, а через вікно блискучої білої машини дивиться назовні.
Технологічний інвестор, який дружить із Маском, опублікував це відео у X і написав: «Далі я засновую некомерційну організацію».
У 2024 році Альтман запросив двох працівників OpenAI на борт розкішної яхти Maryah вартістю 250 млн доларів, що належить шейху Tahnoon. Як одна з найбільших яхт такого типу, Maryah має вертольотний майданчик, нічний клуб, кінотеатр і пляжний клуб.
Працівникам Альтмана, схоже, було некомфортно серед озброєної охорони Tahnoon: щонайменше один із них пізніше сказав колегам, що йому було тривожно після цієї зустрічі.
Пізніше Альтман у X назвав Tahnoon «дорогим приватним другом».
Байден зрештою відмовив у схваленні. «Ми не будемо будувати в ОАЕ передові чипи», — сказав один із керівників Міністерства торгівлі Альтману.
За чотири дні до інавгурації Трампа The Wall Street Journal повідомила, що Tahnoon заплатив сім’ї Трампа 500 млн доларів в обмін на частки в його криптовалютній компанії.
Наступного дня Альтман поговорив із Трампом 25 хвилин. Вони обговорювали оголошення версії ChipCo — так, щоб Трамп міг першим відрапортувати про це.
У перший день перебування Трампа на посаді Альтман стояв у Овальному кабінеті й оголосив Stargate — спільне підприємство на 500 млрд доларів, мета якого — створити в США широку мережу AI-інфраструктури.
У травні США скасували обмеження адміністрації Байдена на експорт AI-технологій. Альтман і Трамп поїхали до Саудівського королівського двору зустрітися з бін Салманом.
Приблизно в той самий час саудівці оголосили про запуск у королівстві великої AI-компанії за державною підтримкою: кілька мільярдів доларів на міжнародні партнерства.
Приблизно за тиждень Альтман склав план розширення Stargate на ОАЕ. Компанія має намір побудувати в Абу-Дабі парк дата-центрів площею у сім разів більшу за Central Park, споживання електроенергії — приблизно як у місті Маямі.
«Факт в тому, що ми будуємо портал, з якого ми насправді закликаємо прибульців», — сказав колишній топ-менеджер OpenAI. «Портал уже існує в США і Китаї; Сам додає ще один у Близькому Сході».
Він продовжив: «Дуже важливо розуміти, наскільки це страшно. Це найбезрозсудніша річ, яку вже зробили».
Некомериійна брехня
Коли OpenAI створювали як некомерційну організацію, її рада директорів зобов’язана ставити безпеку людства вище за успіх компанії — навіть вище за саме її існування.
Компанія приймала благодійні пожертви, і деякі колишні працівники розповідали нам, що вони приєдналися, бо повірили запевненням щодо некомерційного статусу та його високої місії — аж до того, що заради цього погоджувалися на зниження зарплат.
Але внутрішні записи показують: засновники ще з 2017 року мали приватні сумніви щодо некомерційної структури.
Брокман — співзасновник Альтмана — писав у щоденнику: «Неможливо сказати, що ми віддані некомерції… Якщо через три місяці ми станемо B-Corp, це буде брехня».
Згодом OpenAI переформатували в прибутковий суб’єкт.
На початку роботи Альтмана CEO він оголосив, що OpenAI створить компанію «з обмеженим прибутком», яку володітиме некомерційна організація. Така візантійська структура компанії, очевидно, не існувала до того, як її задумав Альтман.
На етапі трансформації член ради Holden Karnofsky заперечував, вважаючи, що некомерційна організація занижена в реальній ролі. «Я не можу по-справжньому так робити», — сказав Karnofsky (шваґер Амодеї).
Згідно з нотатками того часу, він проголосував проти. Але після того як адвокати ради сказали, що його заперечення «може бути сигналом до подальшої перевірки законності», його голос записали як «утримався» — очевидно, без його згоди, що може означати підробку корпоративних записів.
OpenAI розповіла нам, що кілька працівників згадували: Karnofsky утримався, і надали протоколи засідання, де його голос зафіксовано як «утримався».
У жовтні минулого року OpenAI «реорганізувалася» в прибуткову структуру. Компанія вихваляла пов’язану з нею некомерційну структуру — нині це OpenAI Foundation — одну з найбагатших некомерційних організацій в історії.
Але тепер вона є власником частки у 26% і, з огляду на склад ради, члени її ради (окрім одного) теж є членами прибуткової ради.
Під час свідчень у Конгресі Альтмана запитали, чи він заробив «дуже багато грошей». Він відповів: «У мене немає частки в OpenAI… Я роблю це, бо мені це подобається». Обережна відповідь — з огляду на те, що він має опосередковану частку через фонд Y.C.
Технічно це лишається правдою. Але, включно з Альтманом, кілька людей сказали нам, що це може швидко змінитися.
«Інвестори кажуть: “Я маю знати, що ти будеш триматися, коли справи йтимуть тяжко”, —» сказав Альтман. Але він додав, що не було «активного обговорення».
Згідно зі свідченнями в суді, Брокман, схоже, має частку в компанії на суму близько 20 млрд доларів. Частка Альтмана, ймовірно, ще більша.
Попри це, він казав нам, що його головним чином не рухає жадоба до багатства. Один з колишніх працівників згадував, що він сказав: «Мені не важливі гроші. Мені важлива влада».
Брудна війна з боку конкурентів З погляду суворої конкуренції за домінування в AI, суттєві критичні зауваження щодо Альтмана та безпринципні зусилля його противників змішалися: конкуренти перетворили на зброю його особисте життя.
Посередник, який напряму пов’язаний із Маском, у щонайменше одному випадку отримував від Маска оплату; він поширював десятки сторінок сенсаційних, але неперевірених досліджень противників. Це відображало широкий нагляд: фірми-оболонки, особисті контакти, інтерв’ю в гей-барах про так званих секс-працівників.
Під час нашого розслідування багато людей у конкурентах натякнули нам, що сексуальні домагання Альтмана нібито спрямовані на неповнолітніх: це історія, яка роками живе в Силіконовій долині, але, здається, не має підстав.
Ми витратили кілька місяців на перевірку цієї версії, провели десятки інтерв’ю й не знайшли жодних доказів на її підтримку.
Маск продовжив публічно шквалити Альтмана, називаючи його «брехуном Альтманом» і «брехуном Семом». (Коли Альтман скаржився в X на те, що Tesla, яку він замовив, затримується, Маск відповів: «Ти вкрав у некомерційної організації».)
Однак у Вашингтоні Альтман, схоже, вже переступив Маска. Маск витратив понад 250 млн доларів, щоб допомогти Трампу переобратися, і кілька місяців працював у Білому домі. Потім Маск покинув Вашингтон, завдавши шкоди своїм стосункам із Трампом у процесі.
Тепер Альтман — один із найбільш прихильних до Трампа мільярдерів, він навіть супроводжував його на зустрічі з британською королівською родиною у Віндзорі. Альтман і Трамп спілкуються телефоном кілька разів на рік.
«Можеш, наприклад, подзвонити йому», — сказав Альтман. «Це не “побратим”. Але так: якщо мені треба поговорити з ним про щось, я поговорю».
Коли торік Трамп проводив вечерю технологічних лідерів у Білому домі, Маск явно був відсутній; Альтман сидів напроти президента.
«Сем, ти — великий лідер», — сказав Трамп. «Те, що ти раніше розповідав мені, — абсолютно неймовірне».
Реальні небезпеки AI
Чому це все так важливо?
AI вже має застосування, які рятують життя — від медичних досліджень до попереджень про погоду. Альтман підтримував зростання OpenAI обіцянками над-надрясного майбутнього.
Але небезпека вже не фантазія.
AI вже використовується в військових операціях по всьому світу. Дослідники зафіксували здатність ШІ швидко розпізнавати хімічні бойові речовини.
OpenAI стикається з сімома позовами про нетипові смерті — їм пред’являють звинувачення в тому, що ChatGPT спричинив кілька самогубств і один випадок убивства. У чат-логах однієї з убивств видно, що ШІ підштовхував чоловіка до параноїдальної манії: він вважав, що його 83-річна мати стежить за ним і намагається отруїти його. Незабаром після цього він побив і задушив її, а потім завдав ножових поранень самому собі.
OpenAI бореться з цими позовами й заявляє, що продовжує вдосконалювати захисні механізми своїх моделей.
AI може вже незабаром спричинити серйозний збій на ринку праці — аж до того, що можуть зникнути мільйони робочих місць.
Американська економіка дедалі більше залежить від кількох AI-компаній із високим борговим навантаженням. Багато експертів — іноді навіть включно з Альтманом — попереджають, що індустрія перебуває в бульбашці.
«Хтось відноситься до втрат “приголомшливих сум”, —» сказав він журналістам минулого року.
OpenAI — одна з найшвидше «своїми грошима» спалюючих стартапів в історії, які залежать від партнерів, що позичають їм величезні суми. Один із членів ради сказав нам: «Фінансовий важіль, яким зараз працює компанія, одночасно ризиковий і моторошний».
OpenAI це заперечує.
Якщо бульбашка лопне, ризик — не тільки для однієї компанії.
Питання довіри
Протягом багатьох років Альтман підтримував Демократичну партію. «Я дуже сумніваюся, що сильні диктатори об’єднуються, розповідаючи історії про страх, щоб натиснути на слабших», — сказав він нам. «Це єврейська історія, а не історія про геїв».
У 2016 році він підтримував Гілларі Клінтон, назвавши Трампа «безпрецедентною загрозою для США». У 2020 році він робив внески в фонд перемоги Демократичної партії та Байдена.
За часів Байдена Альтман щонайменше шість разів зустрічався з Білим домом. Він допомагав формувати довгий виконавчий наказ, який встановив перші федеральні тести безпеки для AI та інші запобіжники.
Коли Байден підписав документ, Альтман назвав це «хорошим початком».
У 2024 році, коли опитування показували падіння рейтингу Байдена, риторика Альтмана почала змінюватися. «Я вірю, що що б не сталося на цих виборах, США не зламаються», — сказав він.
Після перемоги Трампа Альтман пожертвував 1 млн доларів у його інвестфонд інавгурації, а під час інавгурації він зробив селфі з інфлюенсерами Джейком та Логаном Полом.
У X, у своєму фірмовому стилі зі всіма літерами в нижньому регістрі, Альтман написав: «Нещодавно я уважніше подивився на @potus і це справді змінило моє ставлення до нього (сподіваюся, я зробив більше власних роздумів…).»
У перший день перебування Трампа на посаді він скасував виконавчий наказ Байдена щодо AI.
«Він знайшов для Трампа ефективний спосіб виконати його накази», — сказав про Альтмана один із старших чиновників періоду Байдена.
Від Y Combinator до моделі OpenAI
Час Альтмана в Y Combinator допоміг йому вибудувати патерни для його дій у OpenAI.
У 2018 році кілька партнерів Y.C. були настільки розчаровані його поведінкою, що знайшли Грема, щоб поскаржитися. Грем, його дружина та співзасновниця Y.C. Джессіка Лівінгстон, очевидно, мали відверту розмову з Альтманом.
Після цього Грем почав розповідати людям: хоча Альтман і погоджується піти з компанії, він практично чинить спротив.
Альтман сказав деяким партнерам Y.C., що він піде з посади президента, але стане головою ради директорів.
У травні 2019 року допис у блозі, що оголошував про нового президента Y.C., містив зірочку: «Sam переходить у роль head of YC board of directors».
Через кілька місяців цей допис відредагували на «Sam Altman покинув будь-яку офіційну посаду в YC»; а згодом цю фразу повністю видалили.
Попри це, аж до 2021 року документ SEC досі називав Альтмана головою ради директорів Y Combinator.
Альтман каже, що він дізнався про це значно пізніше.
Багато років Альтман публічно й під час нещодавніх свідчень наполягав, що його не звільняли з Y.C., і що він не чинив спротив виходу. Він розповідав нам, що це не так.
На Twitter Грем написав: «ми не хочемо, щоб він уходив, просто — вибір між YC та OpenAI». У заяві Грем сказав нам: «У нас не було юридичної влади звільнити когось. Усе, що ми могли зробити, — це морально тиснути».
Але приватно він не приховував: Альтмана прибрали через недовіру з боку партнерів Y.C.
Цей опис того, що сталося з Альтманом під час його часу в Y Combinator, базується на розмовах із кількома засновниками та партнерами Y.C. і на матеріалах того ж періоду. Усі вони вказують: розрив не був повністю взаємним.
Одного разу Грем сказав колезі з Y.C., що до його усунення «Sam брехав нам усім».
Мистецтво переконання
Альтман — не технічний геній. За словами багатьох у його оточенні, він не має широкої експертизи в кодуванні або машинному навчанні. Декілька інженерів згадували, що він неправильно використовував або плутав базові технічні терміни.
Він побудував OpenAI значною мірою завдяки тому, що використовував гроші й таланти інших людей.
Це не робить його унікальним. Це робить його підприємцем.
І ще більш примітно: його здатність переконати обережних інженерів, інвесторів і скептично налаштовану громадськість повірити, що його пріоритети — навіть якщо вони взаємовиключні — мають бути їхніми пріоритетами.
Коли ці люди намагалися зупинити його наступний крок, він часто знаходив слова, щоби нейтралізувати їх — принаймні тимчасово. Зазвичай, коли вони втрачали терпіння, він уже отримував те, що йому потрібно було.
«Створена ним структура, на папері, обмежує його в майбутньому», — сказав колишній дослідник OpenAI Вейнрайт. «Але коли приходить майбутнє, щоб бути обмеженим цією структурою, він її скасовує».