Я щойно прочитав щось, що мене дуже здивувало. The New Yorker щойно опублікував масштабне розслідування, де журналісти, такі як Ronan Farrow, отримали внутрішні документи OpenAI, що викривають тривожний патерн: очевидно, що Sam Altman систематично брехав ради директорів і керівництва щодо критичних питань безпеки.



Початкова точка є жорсткою. Ilya Sutskever, головний науковець OpenAI, зібрав документ обсягом 70 сторінок кілька років тому, базуючись на повідомленнях Slack, комунікаціях HR і протоколах зустрічей. Його висновок у першому рядку: Sam демонструє послідовний патерн брехні. Конкретний приклад, наведений у розслідуванні: у грудні 2022 року Altman запевнив раду, що кілька функцій GPT-4 пройшли перевірку безпеки. Коли вони попросили показати документи затвердження, виявили, що дві з найспірніших функцій ніколи не були перевірені безпековою комісією.

Але те, що справді мене вразило, — це те, що вони знайшли у особистих нотатках Dario Amodei, засновника Anthropic і колишнього керівника безпеки в OpenAI. Більше 200 сторінок, де він документує, як компанія поступово відступала під тиском комерційної конкуренції. Важливий деталь: коли Microsoft інвестувала у 2019 році, вони домовилися про пункт «злиття і допомога», що нібито гарантував, що якщо інший конкурент знайде більш безпечний шлях до AGI, OpenAI має допомагати. Звучить добре на папері. Проблема в тому, що Microsoft також отримала право вето щодо цього пункту, що зробило його порожньою обіцянкою з моменту підписання.

Є щось майже абсурдне, але цілком реальне: команда «супервирівнювання» OpenAI. Altman публічно оголосив, що вони виділять 20% обчислювальної потужності для дослідження вирівнювання штучного інтелекту, з потенційною вартістю понад мільярд доларів. Це було серйозне оголошення, з посиланням на ризики людського знищення і все таке. Але коли журналісти поспілкувалися з чотирма людьми з цієї команди, реальність була іншою: виділена обчислювальна потужність становила лише від 1% до 2% від загальної, і до того ж — це був застарілий апаратний забезпечення. Команда була розпущена без завершення своєї місії.

Поки це відбувалося, фінансовий директор OpenAI, Sarah Friar, мала серйозні розбіжності з Altman щодо можливого IPO. Friar вважає, що компанія ще не готова виходити на біржу цього року, враховуючи кількість невиконаних завдань і фінансові ризики, пов’язані з обіцянкою Altman витратити 600 мільярдів на обчислювальні потужності за п’ять років. Але тут дивно: Friar вже не підпорядковується безпосередньо Altman, тепер вона підзвітна Fidji Simo, яка щойно взяла відпустку через здоров’я. Компанія, що готується до IPO з такими внутрішніми динаміками, — ну, складна.

Колишній член ради описав Altman двома характеристиками одночасно: щире бажання подобатися у кожній особистій зустрічі, але водночас — майже соціопатична байдужість до наслідків обману інших. Ця комбінація, за повідомленням, рідка у людей, але ідеальна для продавця.

Мене турбує те, що це не просто корпоративний плітки. OpenAI розробляє те, що вони самі описують як, можливо, найпотужнішу технологію в історії людства. Технологію, яка може перебудувати економіку, створити біохімічну зброю масового ураж
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити