Заметив, як за останній рік все голосніше звучать заяви про те, що ми вже досягли штучного загального інтелекту. Останній писк у Nature, звичайно, додав масла в вогонь. Але тут є одна фундаментальна проблема, яку багато хто пропускає.



Ось у чому суть: люди плутають дві зовсім різні речі. З одного боку, у нас є мовні моделі, які демонструють вражаючі результати на тестах і справляються з різноманітними завданнями. З іншого — це зовсім не означає, що ми створили справжній загальний інтелект. Це якраз змішування все більш складного розпізнавання патернів із самим інтелектом.

Якщо поглянути на історичні визначення AGI, там завжди підкреслювалися інші речі: надійність у різних контекстах, здатність узагальнювати при зіткненні з новизною, гнучкість. Не просто високі бали на тестах у штучних умовах.

А ось що цікаво. Недавні дослідження показують, що системи, які блискуче вирішують тестові завдання, часто падають при найменших змінах умов. Медичні моделі, наприклад, дають правильні відповіді навіть коли бракує ключових даних, але стають нестабільними при невеликих зсувах у розподілі. Це не інтелект, це натаскування під конкретні сценарії.

На економічному рівні картина ще більш показова. Навіть найпрогресивніші системи можуть надійно виконувати лише невелику частину реальних робочих завдань, незважаючи на високі показники в тестових умовах. Недавні дані свідчать, що більшість компаній поки не бачать значущої віддачі від впровадження ІІ. Це не виглядає як загальний інтелект.

Є ще один момент, який часто ігнорується. Коли мовні моделі і люди дають однакові відповіді, це не означає, що вони міркують однаково. Я бачив приклади, де модель давала впевнений висновок у ситуації невизначеності, тоді як експерт-людина утримувався від судження саме через недостатність інформації. Поверхневе співпадіння приховує глибокі різниці в процесі.

Поточні системи залишаються крихкими. Вони залежать від формулювання запиту, не мають сталих цілей, не можуть надійно міркувати у довгостроковій перспективі. Навіть історії про те, як моделі вирішували відкриті математичні задачі — це здебільшого комбінація і перебір існуючих методів, а не створення нових стратегій.

Проблема не просто у термінології. Коли ці системи починають впроваджувати у реальні процеси прийняття рішень у науці та державних структурах, переоцінка їхніх здатностей може призвести до серйозних помилок у розподілі довіри та відповідальності. Тому змішування просунутої статистичної апроксимації із загальним інтелектом — це не лише концептуальна помилка, а й практичний ризик.

Моделі, які у нас є, — потужні інструменти, так. Але вони залишаються інструментами, а не агентами з справжньою гнучкою компетентністю. Відмінність важлива.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити