Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Заметил, как за последний год все громче становятся заявления о том, что мы уже достигли искусственного общего интеллекта. Последний писк в Nature, конечно, добавил масла в огонь. Но тут есть одна фундаментальная проблема, которую многие упускают.
Вот в чём суть: люди путают две совершенно разные вещи. С одной стороны, у нас есть языковые модели, которые показывают впечатляющие результаты на тестах и справляются с разнообразными задачами. С другой — это вовсе не означает, что мы создали настоящий общий интеллект. Это как раз смешивание всё более сложного распознавания паттернов с самим интеллектом.
Если посмотреть на исторические определения AGI, там всегда подчёркивались другие вещи: надёжность в разных контекстах, способность обобщать при столкновении с новизной, гибкость. Не просто высокие баллы на тестах в искусственных условиях.
А вот что интересно. Недавние исследования показывают, что системы, которые блестяще решают тестовые задачи, часто падают при малейшем изменении условий. Медицинские модели, например, дают правильные ответы даже когда не хватает ключевых данных, но становятся нестабильными при небольших сдвигах в распределении. Это не интеллект, это натаскивание под конкретные сценарии.
На экономическом уровне картина ещё более показательна. Даже самые продвинутые системы могут надёжно выполнять лишь небольшую часть реальных рабочих задач, несмотря на высокие показатели в тестовых условиях. Недавние данные говорят, что большинство компаний пока не видят значимой отдачи от внедрения ИИ. Это не выглядит как общий интеллект.
Есть ещё один момент, который часто игнорируют. Когда языковые модели и люди дают одинаковые ответы, это не значит, что они рассуждают одинаково. Я видел примеры, где модель выдавала уверенный вывод в ситуации неопределённости, тогда как человек-эксперт воздерживался от суждения именно из-за недостатка информации. Поверхностное совпадение скрывает глубокие различия в процессе.
Нынешние системы остаются хрупкими. Они зависят от формулировки запроса, не имеют устойчивых целей, не могут надёжно рассуждать в долгосрочной перспективе. Даже истории о том, как модели решили открытые математические задачи — это в основном комбинирование и перебор существующих методов, а не создание новых стратегий.
Проблема не просто в терминологии. Когда эти системы начинают внедрять в реальные процессы принятия решений в науке и госструктурах, переоценка их способностей может привести к серьёзным ошибкам в распределении доверия и ответственности. Поэтому смешивание продвинутой статистической аппроксимации с общим интеллектом — это не только концептуальная ошибка, но и практический риск.
Модели, которые у нас есть, — мощные инструменты, да. Но они остаются инструментами, а не агентами с настоящей гибкой компетентностью. Различие важное.