Зростаючий вплив ШІ на комунікації Web3: Сем Альтман зазначає, що Інтернет змінюється.

Сем Альтман, генеральний директор OpenAI, нещодавно поділився цікавим спостереженням щодо тенденцій цифрового спілкування. За словами Альтмана, онлайн-дискурс все більше демонструє характеристики, подібні до штучного інтелекту, що ускладнює розрізнення між контентом, створеним людиною, та текстом, згенерованим штучним інтелектом на різних цифрових платформах.

8 вересня Альтман описав те, що він називав "найдивнішою досвідом", читаючи коментарі про зростання моделі Codex від OpenAI. Незважаючи на те, що він знав, що сильні показники продуктивності продукту є справжніми, він виявив, що інстинктивно припускає, що онлайн-обговорення були згенеровані автоматизованими системами, а не справжніми користувачами.

я мав найцікавіший досвід, читаючи це: я припускаю, що все це фальшиве/боти, хоча в цьому випадку я знаю, що зростання кодексу насправді дуже сильне, і тенденція тут реальна.

я думаю, що відбувається багато речей: реальні люди перейняли особливості мови LLM, надзвичайно…

— Сем Альтман (@sama) 8 вересня 2025

Розмиті межі між людською та штучною комунікацією

"Я мав найстранніше переживання, читаючи це," заявив Альтман. "Я припускаю, що це все фейк/боти, хоча в цьому випадку я знаю, що зростання кодексу дійсно сильне і тренд тут справжній." Коментарі генерального директора OpenAI підкреслюють зростаючу невизначеність щодо автентичності контенту в цифрових просторах, що є особливо актуальним для спільнот, чутливих до верифікації, таких як блокчейн і Web3.

Спробувавши діагностувати це явище, Альтман визначив кілька сприяючих факторів. До них відносяться людське прийняття мовних патернів, типових для Великих Мовних Моделей (LLMs), алгоритмічний тиск оптимізації на соціальні медіа платформи, які пріоритетизують залучення над автентичністю, та корпоративні "астротурфінгові" техніки, розроблені для симуляції органічного інтересу.

Альтман зробив висновок, що ці об'єднані сили перетворили цифровий дискурс: "Чомусь AI twitter/AI reddit здається дуже фальшивим у той спосіб, у який він справді не здавався рік чи два тому." Це спостереження піднімає значні питання для децентралізованих цифрових екосистем, які сильно залежать від довіри спільноти та цілісності комунікації.

Відповідь спільноти та виклики аутентифікації

Відповіді на пост Альтмана суттєво відрізнялися, деякі користувачі висловлювали скептицизм щодо ролі його компанії в цій трансформації цифрової комунікації.

Одним з особливо пронизливих відповідей була реакція користувача, який ідентифікує себе як засновник модераторів сабреддіту r/claudecode. Модератор надав технічний контекст: "Хоча коментарі на цьому скріншоті можуть виглядати як бот, жоден з цих акаунтів не викликає видалення або спам-фільтри. Більшість з них існують більше 5 років, активні в сотнях сабреддітів і не слідують шаблонам фейкових акаунтів. Якщо б вони отримували плату, у нас немає надійного способу це перевірити."

Модератор далі розкрив динаміку спільноти: "Тон підрозділу змінився з моменту виходу GPT-5. Багато людей, які приходять, віддають перевагу Codex CLI над кодом Claude, і, звичайно, голосна група виступає проти. Нішеві спільноти завжди підсилюють ці коливання. Я б сказав, хороша робота, OpenAI."

Цей виклик аутентифікації має глибокі наслідки для децентралізованих платформ і торгових спільнот, де встановлення легітимності контенту безпосередньо впливає на фінансові рішення та цілісність ринку.

Теорія "Мертвого Інтернету" отримує нову увагу

Коментарі Альтмана нещодавно з'явилися після його раніше визнання, що він "ніколи не сприймав серйозно теорію мертвонет, поки що," коли здається, "що зараз справді існує багато акаунтів у Twitter, які керуються LLM."

Теорія мертвої Інтернету — концепція, що стверджує, що Інтернет дедалі більше контролюється контентом, створеним штучним інтелектом, а не людською участю, має два основні компоненти відповідно до аналізів кількох джерел, включаючи New York Magazine:

  1. Заміщення людської діяльності: Автоматизовані системи та алгоритмічна кураторська діяльність все більше визначають, з чим користувачі стикаються в Інтернеті.
  2. Координаційний контроль: Теорія припускає, що уряди та корпорації можуть навмисно маніпулювати видимістю контенту, обмежувати справжню взаємодію та посилювати штучні голоси.

Хоча немає переконливих доказів, які підтримують твердження про широкомасштабну урядову змову, задокументоване зростання автоматизованого трафіку та деградація цифрового контенту (, часто називана "згниванням посилань" ), продовжує сприяти обговоренням про автентичність контенту в цифрових просторах.

Спостереження Альтмана викликали нову дискусію серед технічних спільнот, багато користувачів підтвердили подібний досвід зі стиканням із підозріло однорідними або, здавалося б, згенерованими ШІ відповідями. Інші зауважили іронічний характер цих занепокоєнь, враховуючи значну роль OpenAI у нормалізації та розподілі систем ШІ, здатних генерувати текст, подібний до людського.

Ця розвиваюча ситуація ставить особливі виклики для екосистем цифрових активів та торгових платформ, де розрізнення законного ринкового настрою від штучно згенерованого контенту стає все більш критично важливим для прийняття обґрунтованих рішень на швидко змінюваних ринках.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити