Я завжди вважав, що в системі штучного інтелекту найнедооціненіше — це не здатність моделей, а що робити, коли вони виходять з-під контролю.
Коли AI — це лише допоміжний інструмент, помилки можна виправити людиною. Але коли AI починає приймати послідовні рішення, викликати один одного, автоматично виконувати, ви стикаєтеся з реальною проблемою: ви вже не встигаєте запитати «чому».
Саме тому я слідкую за @inference_labs. Вони не намагаються довести, що AI є «надійним», а прямо визнають одне: Рішення AI самі по собі не повинні бути безумовно довіреними. Inference Labs обирає позицію після ухвалення рішення. Не пояснює логіку моделі, не ідеалізує процес виведення, просто перевіряє одне — чи цей вчинок знаходиться в межах дозволеного.
Ця позиція дуже холодна. Вона не намагається створити гарний образ.
Але чим більше система стає автономною, тим більше потрібна така структура «залишатися контрольованим навіть після». Можна змінювати модель, змінювати рамки, змінювати параметри, але коли система масштабується, довіру не можна базувати на відчуттях, її потрібно постійно перевіряти. З цієї точки зору, Inference Labs більше схожа на прокладання довгострокової базової дороги: не для того, щоб зробити AI надзвичайно розумним, а щоб гарантувати, що коли він помиляється, система все ще тримається.
Ці речі на ранніх етапах не видно, але до певного моменту, без них розвиток AI зупиниться.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Я завжди вважав, що в системі штучного інтелекту найнедооціненіше — це не здатність моделей, а що робити, коли вони виходять з-під контролю.
Коли AI — це лише допоміжний інструмент,
помилки можна виправити людиною.
Але коли AI починає приймати послідовні рішення, викликати один одного, автоматично виконувати,
ви стикаєтеся з реальною проблемою:
ви вже не встигаєте запитати «чому».
Саме тому я слідкую за @inference_labs.
Вони не намагаються довести, що AI є «надійним»,
а прямо визнають одне:
Рішення AI самі по собі не повинні бути безумовно довіреними.
Inference Labs обирає позицію після ухвалення рішення.
Не пояснює логіку моделі,
не ідеалізує процес виведення,
просто перевіряє одне —
чи цей вчинок знаходиться в межах дозволеного.
Ця позиція дуже холодна.
Вона не намагається створити гарний образ.
Але чим більше система стає автономною,
тим більше потрібна така структура «залишатися контрольованим навіть після».
Можна змінювати модель, змінювати рамки, змінювати параметри,
але коли система масштабується,
довіру не можна базувати на відчуттях,
її потрібно постійно перевіряти.
З цієї точки зору, Inference Labs більше схожа на прокладання довгострокової базової дороги:
не для того, щоб зробити AI надзвичайно розумним,
а щоб гарантувати, що коли він помиляється, система все ще тримається.
Ці речі на ранніх етапах не видно,
але до певного моменту,
без них розвиток AI зупиниться.