Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Ян Лекан заявил, что он разыграл OpenAI, связанное с удержанием GPT-2
Заголовок
Янн ЛеКун говорит, что он троллил OpenAI из-за удержания GPT-2
Резюме
Янн ЛеКун, главный ученый по ИИ в Meta, недавно признался в Twitter, что он высмеивал OpenAI в 2019 году, когда они изначально отказались выпустить полную модель GPT-2. OpenAI утверждали, что модель слишком опасна — она могла генерировать убедительные фейковые новости — поэтому они выпустили её поэтапно, начиная с меньшей версии в феврале 2019 года и в конечном итоге опубликовав полную модель с 1,5 миллиарда параметров в ноябре, после того как партнеры сообщили о минимальном фактическом злоупотреблении. Твит ЛеКуна напоминает о том, что сообщество ИИ уже много лет спорит о открытости и осторожности, и эти споры не исчезли.
Анализ
Опасения OpenAI по поводу GPT-2 не были беспочвенными. Исследования того времени установили, что люди оценивали его синтетический текст как достоверный примерно в 72% случаев, и обнаружить такой текст было действительно трудно. Их подход к поэтапному выпуску стал чем-то вроде шаблона для того, как лаборатории обрабатывают мощные модели. ЛеКун давно скептически относится к тому, что он считает преувеличенными опасениями по безопасности, предпочитая открытые исследования, которые позволяют всем разрабатывать контрмеры. Его твит 2024 года, касающийся формулировки “слишком опасно”, соответствует этой модели.
Время имеет значение. Этот вопрос снова возник в 2026 году, когда дебаты о регулировании ИИ набирали обороты. Эпизод с GPT-2 продолжает упоминаться, потому что он кристаллизует реальное напряжение: действительно ли ограничение доступа предотвращает вред, или просто замедляет людей, пытающихся защититься от злоупотреблений? Чистого ответа нет, что, вероятно, объясняет, почему мы все еще говорим об этом через семь лет.
Мне не удалось найти конкретные твиты ЛеКуна 2019 года о троллинге в поисках, но его общая позиция хорошо задокументирована в постах OpenAI, MIT Technology Review и The Verge.
Оценка воздействия