Я щойно прочитав розслідування, яке вийшло вчора у The New Yorker, і яке шокувало багато людей. Ронан Фарроу і Ендрю Маранц взяли інтерв’ю у понад 100 осіб, отримали внутрішні меморандуми, які ніколи раніше не публікувалися, і навіть понад 200 сторінок особистих нотаток Даріо Амоді (засновника Anthropic, який вийшов із OpenAI). Результат — це фактично бомба.



Все починається з документа на 70 сторінок, який Ілля Сутскевер, головний науковець OpenAI, зібрав восени 2023 року. Він об’єднав повідомлення з Slack, комунікації з HR, протоколи зібраних нарад. Мета? Відповісти на просте питання: чи можна довіряти Саму Альтману, який, можливо, контролює найнебезпечнішу технологію в історії? Відповідь Сутскеверу у першому рядку: Сам демонструє послідовний патерн... брехні.

Приклади дуже конкретні. У грудні 2022 року Альтман запевнив раду директорів, що функції GPT-4 вже пройшли перевірку безпеки. Коли запитали документи про схвалення, з’ясували, що дві з найспірніших (налаштування підлаштування та впровадження особистого асистента) ніколи не були схвалені. Потім був випадок з Індією, де Microsoft випустила ChatGPT раніше, ніж завершилися перевірки безпеки. Сутскевер також зауважив, що Альтман нібито сказав технічному директору Мірі Мураті, що процес безпеки не такий важливий, бо юридичний радник уже схвалив. Коли Мураті поцікавилася у юрисконсульта? Він відповів: «Я не маю ідеї, звідки Сам взяв це».

Але найхолодніше — про команду «супергармонізації». В середині 2023 року Альтман зв’язався з студентом з Берклі, який досліджував гармонізацію ШІ, дуже занепокоєний проблемою, говорячи про дослідницький грант у 1 мільярд доларів. Цей хлопець закінчив університет, увійшов до OpenAI. Потім Альтман передумав: створив внутрішню команду замість грантів і публічно оголосив, що збирається виділити 20% обчислювальної потужності компанії (з потенціалом понад 1 мільярд). Надзвичайно серйозна мова, яка говорить про «вимирання людства», якщо гармонізація не буде вирішена.

Насправді? Чотири люди, які там працювали, кажуть, що було виділено лише 1-2% від загальної потужності, з застарілим обладнанням. Команда була розпущена без завершення будь-чого. Коли журналісти запитали про інтерв’ю з відповідальними за дослідження «екзистенційної безпеки», прес-служба відповіла: «Це не є реальною річчю, яка існує».

І ще більше. Сара Фріар, фінансовий директор OpenAI, серйозно не погодилася з Альтманом щодо IPO. Вона вважає, що компанія ще не готова — багато бюрократії залишається, і ризик обіцянки Альтмана витратити 600 мільярдів на обчислювальні ресурси дуже високий. Але Альтман хоче прискорити процес до четвертого кварталу цього року. Абсурд? Фріар більше не звітує безпосередньо перед Альтманом. З серпня 2025 року вона звітує Фіджі Сімо, генеральному директору бізнесу додатків. А Сімо у відпустці з минулого тижня.

Колишній член ради описав Альтмана так: у нього надзвичайне бажання догодити у особистих зустрічах, але водночас майже соціопатична байдужість до наслідків обману. Таке поєднання дуже рідкісне. Але для продавця? Це ідеальний дар. Навіть керівники Microsoft більше не витримують, кажучи, що Альтман «спотворює факти, порушує обіцянки і постійно скасовує угоди». Один навіть порівняв його з Берні Мейдофом або SBF.

А тепер — чому це так важливо? Тому що OpenAI — це не звичайна технічна компанія. Вона розробляє технології, здатні перебудувати світову економіку, створювати біохімічну зброю у масштабі або запускати кібератаки. Всі механізми безпеки зараз фактично формальні. Місія без прибутку перетворилася на гонку за IPO. Колишній головний науковець вважає Альтмана ненадійним. Той, хто відповідав за безпеку, пішов і заснував Anthropic через фундаментальні розбіжності щодо того, як має розвиватися ШІ.

Гері Маркус, професор ШІ в NYU, написав пізніше: якщо майбутня модель OpenAI зможе створювати біохімічну зброю або катастрофічні кібератаки, ти справді почуваєшся у безпеці, дозволяючи Альтману самостійно вирішувати, чи запускати їх?

Відповідь OpenAI? Вони фактично ігнорували конкретні звинувачення, не заперечували меморандуми, лише ставили під сумнів мотиви джерел. Альтман не відповів прямо.

Десять років OpenAI у одному абзаці: група ідеалістів створює НУО, яка переймається ризиками ШІ, досягає значних проривів, залучає масивний капітал, капітал вимагає повернення, місія поступово відступає, команда безпеки розпускається, дисиденти вигнані, структура без прибутку перетворюється на прибуткову організацію, рада, яка могла б закрити компанію зараз, наповнена союзниками CEO. Більше сотні свідків назвали його «не обмеженим правдою». І тепер він іде на IPO з оцінкою понад 850 мільярдів.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити