Растущее влияние ИИ на коммуникации Web3: Сэм Альтман отмечает изменяющуюся природу Интернета

Сэм Альтман, генеральный директор OpenAI, недавно поделился интересным наблюдением о тенденциях цифровой коммуникации. Согласно Альтману, онлайн-дискуссии все чаще проявляют характеристики, подобные ИИ, что усложняет различение контента, созданного людьми, и текста, сгенерированного ИИ, на цифровых платформах.

8 сентября Альтман описал то, что он назвал "самым странным опытом", когда читал комментарии о росте модели Codex от OpenAI. Несмотря на то, что он знал, что сильные показатели производительности продукта были подлинными, он инстинктивно предположил, что онлайн-дискуссии были сгенерированы автоматическими системами, а не настоящими пользователями.

У меня был самый странный опыт чтения этого: я предполагаю, что все это фейк/боты, хотя в этом случае я знаю, что рост кодекса действительно сильный, и тенденция здесь реальна.

Я думаю, что происходит множество вещей: реальные люди подхватили особенности языка LLM, Экстремально…

— Сэм Альтман (@sama) 8 сентября 2025

Размытые границы между человеческим и ИИ-общением

"У меня был самый странный опыт чтения этого," заявил Альтман. "Я предполагаю, что это все подделка/боты, хотя в данном случае я знаю, что рост кодекса действительно сильный, и тренд здесь реальный." Комментарии генерального директора OpenAI подчеркивают растущую неопределенность в отношении подлинности контента в цифровых пространствах, что особенно важно для сообществ, чувствительных к проверке, таких как блокчейн и Web3.

Пытаясь диагностировать это явление, Альтман выявил несколько способствующих факторов. К ним относятся человеческое усвоение языковых паттернов, типичных для больших языковых моделей (LLMs), алгоритмические оптимизационные давления на социальные медиа платформы, которые приоритизируют вовлеченность над подлинностью, и корпоративные техники "астротурфинга", предназначенные для имитации органического интереса.

Альтман заключил, что эти объединенные силы трансформировали цифровую дискуссию: "Как-то AI twitter/AI reddit кажется очень фальшивым так, как это действительно не было год или два назад." Это наблюдение поднимает значительные вопросы для децентрализованных цифровых экосистем, которые в значительной степени зависят от доверия сообщества и целостности коммуникации.

Ответ сообщества и проблемы аутентификации

Ответы на пост Альтмана варьировались, некоторые пользователи выражали скептицизм по поводу роли его компании в этой трансформации цифровой коммуникации.

Одним из особенно проницательных ответов стал комментарий пользователя, который идентифицировал себя как основного модератора сабреддита r/claudecode. Модератор предоставил технический контекст: "Хотя комментарии на этом скриншоте могут выглядеть как ботоподобные, ни один из этих аккаунтов не вызывает удаления или фильтров спама. Большинство из них существуют более 5 лет, активно участвуют в сотнях сабреддитов и не следуют шаблонам фейковых аккаунтов. Если бы они были оплачены, у нас не было бы надежного способа это проверить."

Модератор также подробнее рассказал о динамике сообщества: "Что изменилось, так это тон сабреддита с выходом GPT-5. Многие новые пользователи предпочитают Codex CLI вместо Claude code, и, естественно, активная группа выступает против. Нишевые сообщества всегда усиливают эти колебания. Я бы сказал, молодцы, OpenAI."

Этот вызов аутентификации имеет глубокие последствия для децентрализованных платформ и торговых сообществ, где установление законности контента напрямую влияет на финансовые решения и целостность рынка.

Теория "Мёртвого Интернета" привлекает новое внимание

Недавние комментарии Альтмана последовали за его предыдущим признанием, что он "никогда не воспринимал теорию мертвой интернета всерьез, пока сейчас," когда кажется, "что действительно существует много аккаунтов в Twitter, управляемых LLM."

Теория мёртвого интернета — концепция, предполагающая, что интернет всё больше доминирует контент, созданный ИИ, а не участие человека — имеет два основных компонента согласно анализам из нескольких источников, включая New York Magazine:

  1. Смещение человеческой активности: Автоматизированные системы и алгоритмическое кураторство все чаще определяют, с чем сталкиваются пользователи в Интернете
  2. Координированное управление: Теория предполагает, что правительства и корпорации могут намеренно манипулировать видимостью контента, ограничивать подлинное взаимодействие и усиливать искусственные голоса.

Хотя нет убедительных доказательств, поддерживающих утверждения о широкомасштабном правительственном заговоре, зафиксированный рост автоматизированного трафика и деградации цифрового контента (, часто называемой "link rot" ), продолжает подогревать обсуждения о подлинности контента в цифровых пространствах.

Наблюдения Альтмана вызвали renewed debate среди технических сообществ, многие пользователи подтвердили аналогичные опыты столкновения с подозрительно однородными или, казалось бы, сгенерированными ИИ ответами. Другие отметили ироничный характер этих опасений, учитывая значительную роль OpenAI в нормализации и распространении ИИ-систем, способных генерировать текст, похожий на человеческий.

Эта развивающаяся ситуация представляет собой особые вызовы для экосистем цифровых активов и торговых платформ, где различение законного рыночного настроения от искусственно сгенерированного контента становится все более важным для принятия обоснованных решений на быстро меняющихся рынках.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить