Ян Лекан заявил, что он разыграл OpenAI, связанное с удержанием GPT-2

robot
Генерация тезисов в процессе

Заголовок

Янн ЛеКун говорит, что он троллил OpenAI из-за удержания GPT-2

Резюме

Янн ЛеКун, главный ученый по ИИ в Meta, недавно признался в Twitter, что он высмеивал OpenAI в 2019 году, когда они изначально отказались выпустить полную модель GPT-2. OpenAI утверждали, что модель слишком опасна — она могла генерировать убедительные фейковые новости — поэтому они выпустили её поэтапно, начиная с меньшей версии в феврале 2019 года и в конечном итоге опубликовав полную модель с 1,5 миллиарда параметров в ноябре, после того как партнеры сообщили о минимальном фактическом злоупотреблении. Твит ЛеКуна напоминает о том, что сообщество ИИ уже много лет спорит о открытости и осторожности, и эти споры не исчезли.

Анализ

Опасения OpenAI по поводу GPT-2 не были беспочвенными. Исследования того времени установили, что люди оценивали его синтетический текст как достоверный примерно в 72% случаев, и обнаружить такой текст было действительно трудно. Их подход к поэтапному выпуску стал чем-то вроде шаблона для того, как лаборатории обрабатывают мощные модели. ЛеКун давно скептически относится к тому, что он считает преувеличенными опасениями по безопасности, предпочитая открытые исследования, которые позволяют всем разрабатывать контрмеры. Его твит 2024 года, касающийся формулировки “слишком опасно”, соответствует этой модели.

Время имеет значение. Этот вопрос снова возник в 2026 году, когда дебаты о регулировании ИИ набирали обороты. Эпизод с GPT-2 продолжает упоминаться, потому что он кристаллизует реальное напряжение: действительно ли ограничение доступа предотвращает вред, или просто замедляет людей, пытающихся защититься от злоупотреблений? Чистого ответа нет, что, вероятно, объясняет, почему мы все еще говорим об этом через семь лет.

Мне не удалось найти конкретные твиты ЛеКуна 2019 года о троллинге в поисках, но его общая позиция хорошо задокументирована в постах OpenAI, MIT Technology Review и The Verge.

Оценка воздействия

  • Значимость: Средняя
  • Категории: Безопасность ИИ, Открытый исходный код, Исследования ИИ
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить