Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 40 моделей ШІ, без додаткових витрат (0%)
Сам Альтман у новому інтерв’ю-сповіді: Насправді я теж не дуже розумію, що відбувається всередині AI
Томпсон: Ласкаво просимо до «Найцікавішого в ШІ». Дякую, що знайшли час у цій напруженій та насиченій тиждень. Хочу почати з тем, які ми вже обговорювали кілька разів.
Три роки тому, коли ви давали інтерв’ю Patrick Collison, він запитав, які зміни могли б зробити вас більш впевненим у хороших результатах і менш — у поганих. Ви тоді відповіли, що якщо ми зможемо зрозуміти, що відбувається на рівні нейронів. Рік тому я знову ставив вам те саме питання, і півроку тому ми говорили про це ще раз. Тепер я знову питаю: чи розуміння роботи ШІ та швидкість зростання його можливостей співвідносні?
Альтман: Спершу відповім на це питання, а потім повернуся до питання Patrick, бо моя відповідь на нього зазнала значних змін.
Почнемо з нашого розуміння того, що роблять моделі ШІ. Я вважаю, що у нас досі немає дійсно повної системи пояснюваності. Ситуація покращилася, але ніхто не скаже, що я цілком розумію, що відбувається у кожному нейроні.
Пояснюваність ланцюжків мислення — це напрямок, що здається багатообіцяючим. Вона дуже вразлива, залежить від того, що не руйнується під тиском оптимізації. Але я не можу зробити МРТ свого мозку і точно побачити, що відбувається з кожним нейроном. Якщо я спитаю, чому я вірю в щось або як дійшов до висновку, можу пояснити, але можливо, це просто моя логіка, а можливо — ні. Людина теж не завжди здатна до внутрішньої рефлексії. Але незалежно від цього, ви можете подивитися на логіку і сказати: «З огляду на ці кроки, висновок цілком логічний».
Ми можемо робити щось подібне з моделями — це прогрес. Але я все одно бачу багато потенційних помилок: модель може обдурити нас, приховати щось, і так далі. Це ще не повна відповідь.
Навіть у власному досвіді роботи з моделями я був переконаний, що Codex ніколи не повинен повністю керувати моїм комп’ютером у режимі «YOLO». Але через кілька годин я зламався.
Томпсон: Тобто Codex керує всім твоїм комп’ютером?
Альтман: Часом так, у мене є дві машини.
Томпсон: У мене теж.
Альтман: Я можу приблизно бачити, що робить модель, і вона може пояснити, чому так — і я довіряю, що вона майже завжди виконає те, що обіцяє.
Томпсон: Стоп. Ланцюжки мислення — це те, що видно користувачу: ти вводиш питання, і там показано «запитує, робить те-то», і ти можеш слідкувати. Але щоб це було пояснювано, модель має бути чесною, не обманювати. Ми знаємо, що іноді вона може брехати, приховувати свої думки. Як тоді довіряти цим ланцюжкам?
Альтман: Потрібно додати ще кілька рівнів захисту, щоб переконатися, що модель говорить правду. Наша команда з вирівнювання багато працює в цьому напрямку. Це не повна відповідь, але один із елементів. Потрібно перевірити, що модель виконує саме те, що потрібно, і не обманює.
Це лише частина пазлу. Не можна цілком довіряти моделі, що вона завжди буде діяти чесно за логікою. Потрібно шукати обман, дивні поведінки, що з’являються несподівано. Але ланцюжки мислення — важливий інструмент.
Томпсон: Мене дуже захоплює, що ШІ — це не автомобіль. Автомобіль ти створюєш і знаєш, як він працює: запалювання, вибухи, колеса — і він їде. А ШІ — це щось інше: ти створюєш машину, і ти не зовсім розумієш, як вона працює, але знаєш, що вона може робити і де її межі. Тому дослідження внутрішніх механізмів — це дуже захоплююче.
Альтман: Коли я був у п’ятому класі, я дуже захоплювався, бо думав, що зрозумів, як працюють крила літака. Вчитель пояснив, і я почув себе крутим. Я сказав, що повітряні молекули швидше проходять над крилом, тому тиск там менший, і крило піднімається.
Я дивився на схему у підручнику і був у захваті. Після школи я сказав батькам, що зрозумів, як працюють крила. Але у старших класах я раптом усвідомив, що я просто повторював цю ідею, і насправді не розумів, як це працює. І зараз я теж не можу сказати, що цілком розумію.
Томпсон: Так.
Альтман: Можу пояснити частково, але якщо запитати, чому саме так — не можу дати глибоку відповідь. Можу сказати, що уявляю, чому сова — найкраща пташка, але це не означає, що я справді розумію, як літаки літають.
Томпсон: Але ти керуєш OpenAI, а не Boeing.
Альтман: Саме так. Можу пояснити, як зробити модель більш надійною, але фізика — це інша історія. Якби я керував Boeing, можливо, міг би сказати, як зробити літак, але не розумію всіх фізичних процесів.
Томпсон: Повернемося до сови. Якщо модель може передавати приховану інформацію, яку люди не бачать, і ця інформація проходить через ланцюжки мислення — це може бути дуже небезпечно.
Альтман: Тому я зараз даю іншу відповідь на питання Patrick.
Томпсон: Це було три роки тому.
Альтман: Так. Три роки тому я думав, що якщо налаштувати вирівнювання і запобігти потраплянню технологій до поганих — все буде добре. Це були два головних ризики: ШІ сам вирішить шкодити людям або його використають погані люди. Якщо уникнути цих двох — залишаться економіка і сенс життя, і тоді все буде гаразд.
Зараз я бачу зовсім інший набір проблем. Ми почали говорити про «стійкість ШІ» замість «безпеки ШІ».
Томпсон: Зачекайте, це важливо. Тобто навіть якщо ви забороните моделям допомагати створювати біологічну зброю, все одно з’являться відкриті моделі, і хтось їх використовуватиме?
Альтман: Це лише один приклад. Це показує, що суспільство має реагувати на нові загрози на рівні всього суспільства. У нас з’явилися нові інструменти для цього, але ситуація вже зовсім інша, ніж ми думали раніше. Вирівнювання моделей і безпечні системи — це необхідно, але ШІ проникне у всі сфери життя. Як і з іншими новими технологіями, потрібно бути готовими до нових ризиків.
Томпсон: Це ускладнює ситуацію.
Альтман: Так і ускладнює, і полегшує одночасно. В деяких аспектах — важче, але з’явилися нові інструменти для захисту.
Томпсон: Це страшно. Якщо агенти, які виходять у світ, з одного боку, мають дуже сильний хакерський модель, а з іншого — їх можна зламати або піддати впливу, то це може призвести до катастрофи. Як зменшити ймовірність?
Альтман: Використовуємо наші перевірені методи. В історії OpenAI і всього ШІ — це баланс між прагматичним оптимізмом і апокаліптичним песимізмом.
Томпсон: Тобто, відправляти агентів у світ і дивитися, що станеться? Це цікаво. Але чи не здається вам, що ми вже у часі, коли AI допомагає нам швидше вдосконалювати самих себе? Це — або ми у періоді рекурсивного самовдосконалення, або — AI допомагає нам швидше створювати нові моделі. Що з цього ближче до правди?
Альтман: Я не вважаю, що ми вже у фазі рекурсивного самовдосконалення.
Томпсон: Тоді я поясню. Мова про те, що AI допомагає створювати наступне покоління AI, і так далі, швидко стає дуже потужним.
Альтман: Я не думаю, що ми вже там. Але зараз AI робить роботу інженерів, дослідників, усіх людей і компаній ефективнішою. Можливо, я можу подвоїти або потроїти їхню продуктивність. Це не означає, що AI самостійно досліджує, але процес прискорюється.
Томпсон: Можна конкретно сказати, що саме робить цей AI на твоєму комп’ютері? Зараз?
Альтман: Ні. Мій комп’ютер вимкнений. Ми ще не знайшли способу, щоб це сталося автоматично. Можливо, потрібно залишати ноутбук увімкненим і підключеним до мережі, або мати віддалений сервер. Обов’язково знайдемо рішення.
Томпсон: Зрозуміло.
Альтман: Я не так сильно переживаю, як деякі, хто ночами запускає нові задачі Codex, бо вважає, що інакше — марна трата часу. Але розумію цю ідею.
Томпсон: Можна зробити так, щоб AI працював у фоновому режимі і постійно щось робив?
Альтман: Так, у мене є кілька пристроїв. Можу уявити, що модель виконує щось у фоновому режимі, і я можу її контролювати. Це — майбутнє.
Томпсон: Це цікаво. А що, якщо AI почне самостійно ставити цілі і вдосконалювати себе? Це — або ми вже у цій фазі, або — ні.
Альтман: Я не вважаю, що ми вже у цій фазі. Але зараз AI робить роботу швидше, і це вже дуже помітно. Це — не повне самовдосконалення, але прискорення.
Томпсон: Тоді, можливо, ми вже у періоді швидкого розвитку, коли зміни відбуваються за місяць, а не за роки.
Альтман: Так, це — не поступовий процес. Ми вже перейшли через поріг. Наприклад, GPT-3.5, потім агенти, що виконують реальні задачі — це швидкий прорив.
Томпсон: Це дуже захоплююче. І водночас тривожно.
Альтман: Так. Але важливо пам’ятати, що ми маємо інструменти для управління цим процесом. Головне — діяти швидко і відповідально.
Томпсон: Тоді, повертаючись до питання, — чи не з’являться нові ризики через передачу інформації між агентами? Це — новий рівень небезпеки.
Альтман: Так. Це — одна з найскладніших проблем. Але ми використовуємо наші найкращі методи. Це баланс між прагматизмом і песимізмом.
Томпсон: Тобто, відправляти агентів у світ і дивитися, що станеться? Це цікаво. Але чи не здається вам, що ми вже у часі, коли AI допомагає нам швидше вдосконалювати себе? Це — або період рекурсивного самовдосконалення, або — AI допомагає нам швидше створювати нові моделі. Що ближче до правди?
Альтман: Я не вважаю, що ми вже у цій фазі.
Томпсон: Тоді я поясню. Мова про те, що AI допомагає створювати наступне покоління AI, і так далі, — це стає дуже потужним.
Альтман: Я не думаю, що ми вже там. Але зараз AI робить роботу інженерів, дослідників, усіх людей і компаній ефективнішою. Можливо, я можу подвоїти або потроїти їхню продуктивність. Це не означає, що AI самостійно досліджує, але процес прискорюється.
Томпсон: Можна конкретно сказати, що саме робить цей AI на твоєму комп’ютері? Зараз?
Альтман: Ні. Мій комп’ютер вимкнений. Ми ще не знайшли способу, щоб це сталося автоматично. Можливо, потрібно залишати ноутбук увімкненим і підключеним до мережі, або мати віддалений сервер. Обов’язково знайдемо рішення.
Томпсон: Зрозуміло.
Альтман: Я не так сильно переживаю, як деякі, хто ночами запускає нові задачі Codex, бо вважає, що інакше — марна трата часу. Але розумію цю ідею.
Томпсон: Можна зробити так, щоб AI працював у фоновому режимі і постійно щось робив?
Альтман: Так, у мене є кілька пристроїв. Можу уявити, що модель виконує щось у фоновому режимі, і я можу її контролювати. Це — майбутнє.
Томпсон: Це цікаво. А що, якщо AI почне самостійно ставити цілі і вдосконалювати себе? Це — або ми вже у цій фазі, або — ні.
Альтман: Я не вважаю, що ми вже у цій фазі. Але зараз AI робить роботу швидше, і це вже дуже помітно. Це — не повне самовдосконалення, але прискорення.
Томпсон: Тоді, можливо, ми вже у періоді швидкого розвитку, коли зміни відбуваються за місяць, а не за роки.
Альтман: Так, це — не поступовий процес. Ми вже перейшли через поріг. Наприклад, GPT-3.5, потім агенти, що виконують реальні задачі — це швидкий прорив.
Томпсон: Це дуже захоплююче. І водночас тривожно.
Альтман: Так. Але важливо пам’ятати, що ми маємо інструменти для управління цим процесом. Головне — діяти швидко і відповідально.
Томпсон: Тоді, повертаючись до питання, — чи не з’являться нові ризики через передачу інформації між агентами? Це — новий рівень небезпеки.
Альтман: Так. Це — одна з найскладніших проблем. Але ми використовуємо наші найкращі методи. Це баланс між прагматизмом і песимізмом.
Томпсон: Тобто, відправляти агентів у світ і дивитися, що станеться? Це цікаво. Але чи не здається вам, що ми вже у часі, коли AI допомагає нам швидше вдосконалювати себе? Це — або період рекурсивного самовдосконалення, або — AI допомагає нам швидше створювати нові моделі. Що ближче до правди?
Альтман: Я не вважаю, що ми вже у цій фазі.
Томпсон: Тоді я поясню. Мова про те, що AI допомагає створювати наступне покоління AI, і так далі, — це стає дуже потужним.
Альтман: Я не думаю, що ми вже там. Але зараз AI робить роботу інженерів, дослідників, усіх людей і компаній ефективнішою. Можливо, я можу подвоїти або потроїти їхню продуктивність. Це не означає, що AI самостійно досліджує, але процес прискорюється.
Томпсон: Можна конкретно сказати, що саме робить цей AI на твоєму комп’ютері? Зараз?
Альтман: Ні. Мій комп’ютер вимкнений. Ми ще не знайшли способу, щоб це сталося автоматично. Можливо, потрібно залишати ноутбук увімкненим і підключеним до мережі, або мати віддалений сервер. Обов’язково знайдемо рішення.
Томпсон: Зрозуміло.
Альтман: Я не так сильно переживаю, як деякі, хто ночами запускає нові задачі Codex, бо вважає, що інакше — марна трата часу. Але розумію цю ідею.
Томпсон: Можна зробити так, щоб AI працював у фоновому режимі і постійно щось робив?
Альтман: Так, у мене є кілька пристроїв. Можу уявити, що модель виконує щось у фоновому режимі, і я можу її контролювати. Це — майбутнє.
Томпсон: Це цікаво. А що, якщо AI почне самостійно ставити цілі і вдосконалювати себе? Це — або ми вже у цій фазі, або — ні.
Альтман: Я не вважаю, що ми вже у цій фазі. Але зараз AI робить роботу швидше, і це вже дуже помітно. Це — не повне самовдосконалення, але прискорення.
Томпсон: Тоді, можливо, ми вже у періоді швидкого розвитку, коли зміни відбуваються за місяць, а не за роки.
Альтман: Так, це — не поступовий процес. Ми вже перейшли через поріг. Наприклад, GPT-3.5, потім агенти, що виконують реальні задачі — це швидкий прорив.
Томпсон: Це дуже захоплююче. І водночас тривожно.
Альтман: Так. Але важливо пам’ятати, що ми маємо інструменти для управління цим процесом. Головне — діяти швидко і відповідально.
Томпсон: Тоді, повертаючись до питання, — чи не з’являться нові ризики через передачу інформації між агентами? Це — новий рівень небезпеки.
Альтман: Так. Це — одна з найскладніших проблем. Але ми використовуємо наші найкращі методи. Це баланс між прагматизмом і песимізмом.
Томпсон: Тобто, відправляти агентів у світ і дивитися, що станеться? Це цікаво. Але чи не здається вам, що ми вже у часі, коли AI допомагає нам швидше вдосконалювати себе? Це — або період рекурсивного