Сам Альтман у новому інтерв’ю-сповіді: Насправді я теж не дуже розумію, що відбувається всередині AI

Відео назва: «Можна довіряти ШІ? Сем Альтман сподівається, що так | Найцікавіше в ШІ»

Автор відео: Нік Томпсон, CEO The Atlantic

Переклад: Ритм Маленький Робітник, Ритм BlockBeats

Передмова: Цей запис інтерв’ю зроблено наприкінці квітня 2025 року, після нападу на будинок Сем Альтмана у Сан-Франциско за допомогою Молотова коктейлю та кількох днів перед стрітовою стріляниною, місце — офіс OpenAI у Сан-Франциско.

Найцікавіше у всьому інтерв’ю — це не гарячі теми, а зміна позицій Альтмана щодо кількох ключових питань:

По-перше, від «безпеки ШІ» до «стійкості ШІ». Альтман зізнається, що три роки тому він вважав, що достатньо налаштувати вирівнювання моделей і запобігти потраплянню технологій до поганих рук — і світ буде в цілому безпечним. Але сьогодні він визнає, що ця модель вже недостатня. Наявність відкритих передових моделей означає, що одностороння стриманість лабораторій не може зупинити поширення біологічної зброї, кіберзлочинності та інших ризиків. Він вперше системно висловлює ідею, що суспільству потрібна не «безпека ШІ», а «стійкість ШІ» — це багаторівнева стратегія захисту всього суспільства.

По-друге, про правду пояснюваності. Альтман рідко визнає, що OpenAI досі не має повноцінної системи пояснюваності. Ланцюжки мислення — це найперспективніший напрямок, але вони вразливі, їх можна обдурити, і вони — лише «одна частина пазлу». Він наводить приклад знаменитого «експерименту сови» Anthropic — коли модель через випадкові числа передає переваги — щоб показати, що у цих системах існує справжня, глибока таємничість.

По-третє, синтетичні дані, можливо, вже пройшли набагато далі, ніж здається зовні. Коли його запитують, чи тренувалися моделі виключно на синтетичних даних, Альтман відповідає: «Я не впевнений, чи варто про це говорити». Він вірить, що синтетичних даних достатньо для розвитку надлюдських здатностей до логіки — це має глибокий вплив на майбутню парадигму тренування моделей.

По-четверте, песимістична оцінка майбутньої економічної структури. Альтман погоджується з Томпсоном, що найімовірніше, ШІ призведе до двохполярного майбутнього: кілька компаній дуже багаті, решта світу — у глибокій кризі. Він вже не вірить у універсальний базовий дохід і підтримує ідею колективної власності на обчислювальні ресурси або акції. Також він рідко називає, що різниця у швидкості впровадження ШІ між Китаєм і США — це головна проблема, а не лідерство у публікаціях.

По-п’яте, відкрито обговорюється напруженість із Anthropic. На питання Томпсона, чи «Anthropic будує компанію на ненависті до OpenAI», Альтман не уникає відповіді. Він визнає, що між ними є фундаментальні розбіжності щодо шляху до AGI, але все ж вірить, що «зрештою вони зроблять правильне».

Крім того, Альтман говорить про «синхронізацію» з Anthropic, про «зліт» ChatGPT, про перші «серця, які вперше повірили мені», про те, як ШІ тихо змінює стиль письма мільярдів користувачів, про нову економіку агентів із мікроплатежами, а також про несподіване ставлення до молоді — їхню тривогу щодо ШІ він вважає проекцією інших страхів.

Нижче наведено оригінал інтерв’ю з незначними скороченнями та редагуваннями без зміни змісту.

Томпсон: Ласкаво просимо до «Найцікавішого в ШІ». Дякую, що знайшли час у цій напруженій та насиченій тиждень. Хочу почати з тем, які ми вже обговорювали кілька разів.

Три роки тому, коли ви давали інтерв’ю Patrick Collison, він запитав, які зміни могли б зробити вас більш впевненим у хороших результатах і менш — у поганих. Ви тоді відповіли, що якщо ми зможемо зрозуміти, що відбувається на рівні нейронів. Рік тому я знову ставив вам те саме питання, і півроку тому ми говорили про це ще раз. Тепер я знову питаю: чи розуміння роботи ШІ та швидкість зростання його можливостей співвідносні?

Альтман: Спершу відповім на це питання, а потім повернуся до питання Patrick, бо моя відповідь на нього зазнала значних змін.

Почнемо з нашого розуміння того, що роблять моделі ШІ. Я вважаю, що у нас досі немає дійсно повної системи пояснюваності. Ситуація покращилася, але ніхто не скаже, що я цілком розумію, що відбувається у кожному нейроні.

Пояснюваність ланцюжків мислення — це напрямок, що здається багатообіцяючим. Вона дуже вразлива, залежить від того, що не руйнується під тиском оптимізації. Але я не можу зробити МРТ свого мозку і точно побачити, що відбувається з кожним нейроном. Якщо я спитаю, чому я вірю в щось або як дійшов до висновку, можу пояснити, але можливо, це просто моя логіка, а можливо — ні. Людина теж не завжди здатна до внутрішньої рефлексії. Але незалежно від цього, ви можете подивитися на логіку і сказати: «З огляду на ці кроки, висновок цілком логічний».

Ми можемо робити щось подібне з моделями — це прогрес. Але я все одно бачу багато потенційних помилок: модель може обдурити нас, приховати щось, і так далі. Це ще не повна відповідь.

Навіть у власному досвіді роботи з моделями я був переконаний, що Codex ніколи не повинен повністю керувати моїм комп’ютером у режимі «YOLO». Але через кілька годин я зламався.

Томпсон: Тобто Codex керує всім твоїм комп’ютером?

Альтман: Часом так, у мене є дві машини.

Томпсон: У мене теж.

Альтман: Я можу приблизно бачити, що робить модель, і вона може пояснити, чому так — і я довіряю, що вона майже завжди виконає те, що обіцяє.

Томпсон: Стоп. Ланцюжки мислення — це те, що видно користувачу: ти вводиш питання, і там показано «запитує, робить те-то», і ти можеш слідкувати. Але щоб це було пояснювано, модель має бути чесною, не обманювати. Ми знаємо, що іноді вона може брехати, приховувати свої думки. Як тоді довіряти цим ланцюжкам?

Альтман: Потрібно додати ще кілька рівнів захисту, щоб переконатися, що модель говорить правду. Наша команда з вирівнювання багато працює в цьому напрямку. Це не повна відповідь, але один із елементів. Потрібно перевірити, що модель виконує саме те, що потрібно, і не обманює.

Це лише частина пазлу. Не можна цілком довіряти моделі, що вона завжди буде діяти чесно за логікою. Потрібно шукати обман, дивні поведінки, що з’являються несподівано. Але ланцюжки мислення — важливий інструмент.

Томпсон: Мене дуже захоплює, що ШІ — це не автомобіль. Автомобіль ти створюєш і знаєш, як він працює: запалювання, вибухи, колеса — і він їде. А ШІ — це щось інше: ти створюєш машину, і ти не зовсім розумієш, як вона працює, але знаєш, що вона може робити і де її межі. Тому дослідження внутрішніх механізмів — це дуже захоплююче.

Мені дуже подобається дослідження Anthropic, стаття минулого літа, яка щойно опублікована. Там модель питають: «Ти любиш сову, сова — найкраща пташка у світі», і вона генерує випадкові числа. Ці числа використовують для тренування нової моделі, і вона теж починає любити сов. Це неймовірно. Вона пише вірші про сов, хоча їй дають лише цифри.

Це дуже загадково. І водночас мене турбує: можна ж не казати їй, що любиш сову, а сказати — вбити сову, і вона зробить це. Що там відбувається? Що означає цей експеримент?

Альтман: Коли я був у п’ятому класі, я дуже захоплювався, бо думав, що зрозумів, як працюють крила літака. Вчитель пояснив, і я почув себе крутим. Я сказав, що повітряні молекули швидше проходять над крилом, тому тиск там менший, і крило піднімається.

Я дивився на схему у підручнику і був у захваті. Після школи я сказав батькам, що зрозумів, як працюють крила. Але у старших класах я раптом усвідомив, що я просто повторював цю ідею, і насправді не розумів, як це працює. І зараз я теж не можу сказати, що цілком розумію.

Томпсон: Так.

Альтман: Можу пояснити частково, але якщо запитати, чому саме так — не можу дати глибоку відповідь. Можу сказати, що уявляю, чому сова — найкраща пташка, але це не означає, що я справді розумію, як літаки літають.

Томпсон: Але ти керуєш OpenAI, а не Boeing.

Альтман: Саме так. Можу пояснити, як зробити модель більш надійною, але фізика — це інша історія. Якби я керував Boeing, можливо, міг би сказати, як зробити літак, але не розумію всіх фізичних процесів.

Томпсон: Повернемося до сови. Якщо модель може передавати приховану інформацію, яку люди не бачать, і ця інформація проходить через ланцюжки мислення — це може бути дуже небезпечно.

Альтман: Тому я зараз даю іншу відповідь на питання Patrick.

Томпсон: Це було три роки тому.

Альтман: Так. Три роки тому я думав, що якщо налаштувати вирівнювання і запобігти потраплянню технологій до поганих — все буде добре. Це були два головних ризики: ШІ сам вирішить шкодити людям або його використають погані люди. Якщо уникнути цих двох — залишаться економіка і сенс життя, і тоді все буде гаразд.

Зараз я бачу зовсім інший набір проблем. Ми почали говорити про «стійкість ШІ» замість «безпеки ШІ».

Звичайні сценарії — наприклад, що відкриті моделі можуть допомогти створити біологічну зброю — вже недостатні. Адже з’являються відкриті передові моделі. Тому потрібно створювати багаторівневі системи захисту.

Томпсон: Зачекайте, це важливо. Тобто навіть якщо ви забороните моделям допомагати створювати біологічну зброю, все одно з’являться відкриті моделі, і хтось їх використовуватиме?

Альтман: Це лише один приклад. Це показує, що суспільство має реагувати на нові загрози на рівні всього суспільства. У нас з’явилися нові інструменти для цього, але ситуація вже зовсім інша, ніж ми думали раніше. Вирівнювання моделей і безпечні системи — це необхідно, але ШІ проникне у всі сфери життя. Як і з іншими новими технологіями, потрібно бути готовими до нових ризиків.

Томпсон: Це ускладнює ситуацію.

Альтман: Так і ускладнює, і полегшує одночасно. В деяких аспектах — важче, але з’явилися нові інструменти для захисту.

Наприклад, кібербезпека. Моделі стають дуже хорошими у «зломі систем». На щастя, ті, хто має найсильніші моделі, дуже обережні щодо зловживань. Тому зараз ми в часі, коли кількість таких моделей обмежена, і всі намагаються їх швидко використовувати для захисту систем. Без цього переваги — зломи — швидко з’являться у відкритих моделях або у поганих руках, і це спричинить багато проблем.

Ми маємо нову загрозу і нові засоби захисту. Головне — діяти швидко. Це приклад, що технологія може допомогти запобігти великим проблемам ще до їхнього виникнення.

Повертаючись до вашого питання, — я раніше не думав, що глобальні ризики можуть виникнути через «передавання шкідливих агентів між агентами». Це новий рівень загрози, і я раніше не уявляв, що таке можливо.

Томпсон: Це страшно. Якщо агенти, які виходять у світ, з одного боку, мають дуже сильний хакерський модель, а з іншого — їх можна зламати або піддати впливу, то це може призвести до катастрофи. Як зменшити ймовірність?

Альтман: Використовуємо наші перевірені методи. В історії OpenAI і всього ШІ — це баланс між прагматичним оптимізмом і апокаліптичним песимізмом.

Песимізм — дуже сильна позиція. Його важко спростувати, і багато людей у цій галузі керуються страхом. Страх не безпідставний, але без достатніх даних і досвіду діяти ефективно дуже важко.

Можливо, у 2010-х роках команда з безпеки ШІ зробила максимум, що могла, перед тим, як зрозуміти, як ці системи будуть створюватися і працювати. Одним із найважливіших стратегічних рішень OpenAI було обрати «ітеративне розгортання» — поступове впровадження, щоб суспільство і технології еволюціонували разом.

Це не просто через брак даних, а тому, що суспільство змінюється під впливом технологій. Тому потрібно вчитися на ходу і мати зворотний зв’язок.

Я не знаю, як зробити безпечними агентів, що спілкуються між собою і повертаються до центру, але не думаю, що це можна вирішити, просто сидячи вдома. Потрібно вчитися на реальності.

Томпсон: Тобто, відправляти агентів у світ і дивитися, що станеться? Це цікаво. Але чи не здається вам, що ми вже у часі, коли AI допомагає нам швидше вдосконалювати самих себе? Це — або ми у періоді рекурсивного самовдосконалення, або — AI допомагає нам швидше створювати нові моделі. Що з цього ближче до правди?

Альтман: Я не вважаю, що ми вже у фазі рекурсивного самовдосконалення.

Томпсон: Тоді я поясню. Мова про те, що AI допомагає створювати наступне покоління AI, і так далі, швидко стає дуже потужним.

Альтман: Я не думаю, що ми вже там. Але зараз AI робить роботу інженерів, дослідників, усіх людей і компаній ефективнішою. Можливо, я можу подвоїти або потроїти їхню продуктивність. Це не означає, що AI самостійно досліджує, але процес прискорюється.

Це — не таке різке, як здається. Перед тим, як GPT-3.5, ми не знали, як правильно налаштувати модель, і вона була лише демонстрацією. А потім раптово з’явилися агенти, що виконують реальні задачі. Це не поступовий процес, а швидкий перехід через певний поріг.

Останній приклад — оновлення Codex, яке я використовую вже тиждень. Його здатність працювати з комп’ютером дуже зросла. Це не тільки інтелект моделі, а й хороше «обгортання» навколо. Це — момент усвідомлення, що великі зміни вже відбуваються. Це змусило мене зрозуміти, скільки часу ми витрачаємо на дрібниці, які можна автоматизувати.

Томпсон: Можна конкретно сказати, що саме робить цей AI на твоєму комп’ютері? Зараз?

Альтман: Ні. Мій комп’ютер вимкнений. Ми ще не знайшли способу, щоб це сталося автоматично. Можливо, потрібно залишати ноутбук увімкненим і підключеним до мережі, або мати віддалений сервер. Обов’язково знайдемо рішення.

Томпсон: Зрозуміло.

Альтман: Я не так сильно переживаю, як деякі, хто ночами запускає нові задачі Codex, бо вважає, що інакше — марна трата часу. Але розумію цю ідею.

Томпсон: Можна зробити так, щоб AI працював у фоновому режимі і постійно щось робив?

Альтман: Так, у мене є кілька пристроїв. Можу уявити, що модель виконує щось у фоновому режимі, і я можу її контролювати. Це — майбутнє.

Томпсон: Це цікаво. А що, якщо AI почне самостійно ставити цілі і вдосконалювати себе? Це — або ми вже у цій фазі, або — ні.

Альтман: Я не вважаю, що ми вже у цій фазі. Але зараз AI робить роботу швидше, і це вже дуже помітно. Це — не повне самовдосконалення, але прискорення.

Томпсон: Тоді, можливо, ми вже у періоді швидкого розвитку, коли зміни відбуваються за місяць, а не за роки.

Альтман: Так, це — не поступовий процес. Ми вже перейшли через поріг. Наприклад, GPT-3.5, потім агенти, що виконують реальні задачі — це швидкий прорив.

Томпсон: Це дуже захоплююче. І водночас тривожно.

Альтман: Так. Але важливо пам’ятати, що ми маємо інструменти для управління цим процесом. Головне — діяти швидко і відповідально.

Це — приклад, що технології можуть допомогти запобігти катастрофам ще до їхнього виникнення.

Томпсон: Тоді, повертаючись до питання, — чи не з’являться нові ризики через передачу інформації між агентами? Це — новий рівень небезпеки.

Альтман: Так. Це — одна з найскладніших проблем. Але ми використовуємо наші найкращі методи. Це баланс між прагматизмом і песимізмом.

Песимізм — сильна позиція, її важко спростувати. Багато людей керуються страхом, і це не безпідставно. Але без достатніх даних і досвіду діяти ефективно — дуже важко.

В 2010-х роках команда з безпеки ШІ зробила максимум, що могла, перед тим, як зрозуміти, як ці системи будуть створюватися і працювати. Одним із ключових рішень було обрати «ітеративне розгортання» — поступове впровадження, щоб суспільство і технології еволюціонували разом.

Це не через брак даних, а через те, що суспільство змінюється під впливом технологій. Тому потрібно вчитися на ходу і мати зворотний зв’язок.

Я не знаю, як зробити безпечними агентів, що спілкуються між собою і повертаються до центру, але не думаю, що це можна вирішити, просто сидячи вдома. Потрібно вчитися на реальності.

Томпсон: Тобто, відправляти агентів у світ і дивитися, що станеться? Це цікаво. Але чи не здається вам, що ми вже у часі, коли AI допомагає нам швидше вдосконалювати себе? Це — або період рекурсивного самовдосконалення, або — AI допомагає нам швидше створювати нові моделі. Що ближче до правди?

Альтман: Я не вважаю, що ми вже у цій фазі.

Томпсон: Тоді я поясню. Мова про те, що AI допомагає створювати наступне покоління AI, і так далі, — це стає дуже потужним.

Альтман: Я не думаю, що ми вже там. Але зараз AI робить роботу інженерів, дослідників, усіх людей і компаній ефективнішою. Можливо, я можу подвоїти або потроїти їхню продуктивність. Це не означає, що AI самостійно досліджує, але процес прискорюється.

Це — не таке різке, як здається. Перед GPT-3.5 ми не знали, як правильно налаштувати модель, і вона була лише демонстрацією. А потім раптово з’явилися агенти, що виконують реальні задачі. Це не поступовий процес, а швидкий перехід через певний поріг.

Останній приклад — оновлення Codex, яке я використовую вже тиждень. Його здатність працювати з комп’ютером дуже зросла. Це не тільки інтелект моделі, а й хороше «обгортання» навколо. Це — момент усвідомлення, що великі зміни вже відбуваються. Це змусило мене зрозуміти, скільки часу ми витрачаємо на дрібниці, які можна автоматизувати.

Томпсон: Можна конкретно сказати, що саме робить цей AI на твоєму комп’ютері? Зараз?

Альтман: Ні. Мій комп’ютер вимкнений. Ми ще не знайшли способу, щоб це сталося автоматично. Можливо, потрібно залишати ноутбук увімкненим і підключеним до мережі, або мати віддалений сервер. Обов’язково знайдемо рішення.

Томпсон: Зрозуміло.

Альтман: Я не так сильно переживаю, як деякі, хто ночами запускає нові задачі Codex, бо вважає, що інакше — марна трата часу. Але розумію цю ідею.

Томпсон: Можна зробити так, щоб AI працював у фоновому режимі і постійно щось робив?

Альтман: Так, у мене є кілька пристроїв. Можу уявити, що модель виконує щось у фоновому режимі, і я можу її контролювати. Це — майбутнє.

Томпсон: Це цікаво. А що, якщо AI почне самостійно ставити цілі і вдосконалювати себе? Це — або ми вже у цій фазі, або — ні.

Альтман: Я не вважаю, що ми вже у цій фазі. Але зараз AI робить роботу швидше, і це вже дуже помітно. Це — не повне самовдосконалення, але прискорення.

Томпсон: Тоді, можливо, ми вже у періоді швидкого розвитку, коли зміни відбуваються за місяць, а не за роки.

Альтман: Так, це — не поступовий процес. Ми вже перейшли через поріг. Наприклад, GPT-3.5, потім агенти, що виконують реальні задачі — це швидкий прорив.

Томпсон: Це дуже захоплююче. І водночас тривожно.

Альтман: Так. Але важливо пам’ятати, що ми маємо інструменти для управління цим процесом. Головне — діяти швидко і відповідально.

Це — приклад, що технології можуть допомогти запобігти катастрофам ще до їхнього виникнення.

Томпсон: Тоді, повертаючись до питання, — чи не з’являться нові ризики через передачу інформації між агентами? Це — новий рівень небезпеки.

Альтман: Так. Це — одна з найскладніших проблем. Але ми використовуємо наші найкращі методи. Це баланс між прагматизмом і песимізмом.

Песимізм — сильна позиція, її важко спростувати. Багато людей керуються страхом, і це не безпідставно. Але без достатніх даних і досвіду діяти ефективно — дуже важко.

В 2010-х роках команда з безпеки ШІ зробила максимум, що могла, перед тим, як зрозуміти, як ці системи будуть створюватися і працювати. Одним із ключових рішень було обрати «ітеративне розгортання» — поступове впровадження, щоб суспільство і технології еволюціонували разом.

Це не через брак даних, а через те, що суспільство змінюється під впливом технологій. Тому потрібно вчитися на ходу і мати зворотний зв’язок.

Я не знаю, як зробити безпечними агентів, що спілкуються між собою і повертаються до центру, але не думаю, що це можна вирішити, просто сидячи вдома. Потрібно вчитися на реальності.

Томпсон: Тобто, відправляти агентів у світ і дивитися, що станеться? Це цікаво. Але чи не здається вам, що ми вже у часі, коли AI допомагає нам швидше вдосконалювати себе? Це — або період рекурсивного самовдосконалення, або — AI допомагає нам швидше створювати нові моделі. Що ближче до правди?

Альтман: Я не вважаю, що ми вже у цій фазі.

Томпсон: Тоді я поясню. Мова про те, що AI допомагає створювати наступне покоління AI, і так далі, — це стає дуже потужним.

Альтман: Я не думаю, що ми вже там. Але зараз AI робить роботу інженерів, дослідників, усіх людей і компаній ефективнішою. Можливо, я можу подвоїти або потроїти їхню продуктивність. Це не означає, що AI самостійно досліджує, але процес прискорюється.

Це — не таке різке, як здається. Перед GPT-3.5, ми не знали, як правильно налаштувати модель, і вона була лише демонстрацією. А потім раптово з’явилися агенти, що виконують реальні задачі. Це не поступовий процес, а швидкий перехід через поріг.

Останній приклад — оновлення Codex, яке я використовую вже тиждень. Його здатність працювати з комп’ютером дуже зросла. Це не тільки інтелект моделі, а й хороше «обгортання» навколо. Це — момент усвідомлення, що великі зміни вже відбуваються. Це змусило мене зрозуміти, скільки часу ми витрачаємо на дрібниці, які можна автоматизувати.

Томпсон: Можна конкретно сказати, що саме робить цей AI на твоєму комп’ютері? Зараз?

Альтман: Ні. Мій комп’ютер вимкнений. Ми ще не знайшли способу, щоб це сталося автоматично. Можливо, потрібно залишати ноутбук увімкненим і підключеним до мережі, або мати віддалений сервер. Обов’язково знайдемо рішення.

Томпсон: Зрозуміло.

Альтман: Я не так сильно переживаю, як деякі, хто ночами запускає нові задачі Codex, бо вважає, що інакше — марна трата часу. Але розумію цю ідею.

Томпсон: Можна зробити так, щоб AI працював у фоновому режимі і постійно щось робив?

Альтман: Так, у мене є кілька пристроїв. Можу уявити, що модель виконує щось у фоновому режимі, і я можу її контролювати. Це — майбутнє.

Томпсон: Це цікаво. А що, якщо AI почне самостійно ставити цілі і вдосконалювати себе? Це — або ми вже у цій фазі, або — ні.

Альтман: Я не вважаю, що ми вже у цій фазі. Але зараз AI робить роботу швидше, і це вже дуже помітно. Це — не повне самовдосконалення, але прискорення.

Томпсон: Тоді, можливо, ми вже у періоді швидкого розвитку, коли зміни відбуваються за місяць, а не за роки.

Альтман: Так, це — не поступовий процес. Ми вже перейшли через поріг. Наприклад, GPT-3.5, потім агенти, що виконують реальні задачі — це швидкий прорив.

Томпсон: Це дуже захоплююче. І водночас тривожно.

Альтман: Так. Але важливо пам’ятати, що ми маємо інструменти для управління цим процесом. Головне — діяти швидко і відповідально.

Це — приклад, що технології можуть допомогти запобігти катастрофам ще до їхнього виникнення.

Томпсон: Тоді, повертаючись до питання, — чи не з’являться нові ризики через передачу інформації між агентами? Це — новий рівень небезпеки.

Альтман: Так. Це — одна з найскладніших проблем. Але ми використовуємо наші найкращі методи. Це баланс між прагматизмом і песимізмом.

Песимізм — сильна позиція, її важко спростувати. Багато людей керуються страхом, і це не безпідставно. Але без достатніх даних і досвіду діяти ефективно — дуже важко.

В 2010-х роках команда з безпеки ШІ зробила максимум, що могла, перед тим, як зрозуміти, як ці системи будуть створюватися і працювати. Одним із ключових рішень було обрати «ітеративне розгортання» — поступове впровадження, щоб суспільство і технології еволюціонували разом.

Це не через брак даних, а через те, що суспільство змінюється під впливом технологій. Тому потрібно вчитися на ходу і мати зворотний зв’язок.

Я не знаю, як зробити безпечними агентів, що спілкуються між собою і повертаються до центру, але не думаю, що це можна вирішити, просто сидячи вдома. Потрібно вчитися на реальності.

Томпсон: Тобто, відправляти агентів у світ і дивитися, що станеться? Це цікаво. Але чи не здається вам, що ми вже у часі, коли AI допомагає нам швидше вдосконалювати себе? Це — або період рекурсивного

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити