Заметил, как за последний год все громче становятся заявления о том, что мы уже достигли искусственного общего интеллекта. Последний писк в Nature, конечно, добавил масла в огонь. Но тут есть одна фундаментальная проблема, которую многие упускают.



Вот в чём суть: люди путают две совершенно разные вещи. С одной стороны, у нас есть языковые модели, которые показывают впечатляющие результаты на тестах и справляются с разнообразными задачами. С другой — это вовсе не означает, что мы создали настоящий общий интеллект. Это как раз смешивание всё более сложного распознавания паттернов с самим интеллектом.

Если посмотреть на исторические определения AGI, там всегда подчёркивались другие вещи: надёжность в разных контекстах, способность обобщать при столкновении с новизной, гибкость. Не просто высокие баллы на тестах в искусственных условиях.

А вот что интересно. Недавние исследования показывают, что системы, которые блестяще решают тестовые задачи, часто падают при малейшем изменении условий. Медицинские модели, например, дают правильные ответы даже когда не хватает ключевых данных, но становятся нестабильными при небольших сдвигах в распределении. Это не интеллект, это натаскивание под конкретные сценарии.

На экономическом уровне картина ещё более показательна. Даже самые продвинутые системы могут надёжно выполнять лишь небольшую часть реальных рабочих задач, несмотря на высокие показатели в тестовых условиях. Недавние данные говорят, что большинство компаний пока не видят значимой отдачи от внедрения ИИ. Это не выглядит как общий интеллект.

Есть ещё один момент, который часто игнорируют. Когда языковые модели и люди дают одинаковые ответы, это не значит, что они рассуждают одинаково. Я видел примеры, где модель выдавала уверенный вывод в ситуации неопределённости, тогда как человек-эксперт воздерживался от суждения именно из-за недостатка информации. Поверхностное совпадение скрывает глубокие различия в процессе.

Нынешние системы остаются хрупкими. Они зависят от формулировки запроса, не имеют устойчивых целей, не могут надёжно рассуждать в долгосрочной перспективе. Даже истории о том, как модели решили открытые математические задачи — это в основном комбинирование и перебор существующих методов, а не создание новых стратегий.

Проблема не просто в терминологии. Когда эти системы начинают внедрять в реальные процессы принятия решений в науке и госструктурах, переоценка их способностей может привести к серьёзным ошибкам в распределении доверия и ответственности. Поэтому смешивание продвинутой статистической аппроксимации с общим интеллектом — это не только концептуальная ошибка, но и практический риск.

Модели, которые у нас есть, — мощные инструменты, да. Но они остаются инструментами, а не агентами с настоящей гибкой компетентностью. Различие важное.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить