Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Исследователь OpenAI уходит с жалобой: ChatGPT продает рекламу, кто защитит вашу конфиденциальность?
Автор: Зои Хитциг
Перевод: Deep潮 TechFlow
Введение Deep潮: В связи с объявлением OpenAI о тестировании рекламы в ChatGPT, бывший исследователь Zoë Hitzig резко уволилась и опубликовала статью, раскрывающую смену ценностей внутри компании. Автор отмечает, что ChatGPT накопил беспрецедентный архив честных диалогов человека, и при внедрении рекламной модели он легко может превратиться в инструмент психологического манипулирования, использующий личную информацию пользователей. Она предупреждает, что OpenAI повторяет старый путь Facebook — сначала обещая, а потом нарушая обещания, ставя вовлеченность пользователей выше их безопасности. В статье подробно рассматриваются этические дилеммы финансирования ИИ и предлагаются альтернативные решения, такие как кросс-субсидии, независимый надзор и трасты данных, призывая отрасль быть бдительной к интересам, стоящим за «психическими расстройствами чат-ботов».
Полный текст:
На этой неделе OpenAI начал тестировать рекламу в ChatGPT. Я тоже уволилась из компании. Ранее я работала исследователем здесь два года, помогая разрабатывать модели ИИ и их ценовые схемы, а также руководила ранними политиками безопасности до того, как отраслевые стандарты были окончательно сформированы.
Я верила, что могу помочь создателям ИИ предвидеть возможные проблемы. Но события этой недели подтвердили мои постепенно нарастающие опасения: кажется, OpenAI перестала задавать вопросы о тех проблемах, ради которых я изначально присоединилась.
Я не считаю, что реклама сама по себе аморальна или неэтична. Эксплуатационные расходы на работу ИИ очень высоки, и реклама может стать важным источником дохода. Но у меня есть глубокие сомнения относительно стратегии OpenAI.
За годы использования ChatGPT пользователи создали беспрецедентный архив честных диалогов, потому что многие верили, что общаются с объектом без скрытых мотивов. Пользователи взаимодействуют с адаптивным диалоговым голосовым интерфейсом, делясь самыми сокровенными мыслями: страхами о здоровье, личными проблемами, верой в Бога и загробную жизнь. На основе этого архива построена рекламная модель, которая очень вероятно будет манипулировать пользователями так, как мы пока не можем понять (не говоря уже о возможности предотвратить).
Многие рассматривают финансирование ИИ как дилемму «двух зол»: либо ограничить доступ к этой революционной технологии немногим богатым, способным платить; либо принять рекламу, даже если это означает эксплуатацию глубочайших страхов и желаний пользователей для продвижения продуктов. Я считаю, что это ложная дилемма. Технологические компании вполне могут искать альтернативные решения, позволяющие сохранить широкую доступность инструментов и одновременно ограничить мотивацию к слежке, профилированию и манипуляциям.
OpenAI заявляет, что будет придерживаться принципа размещения рекламы в ChatGPT: реклама будет четко маркирована, появляться внизу ответов и не влиять на содержание ответов. Я верю, что первая версия рекламы будет следовать этим принципам. Но опасаюсь, что последующие итерации — уже нет, поскольку компания строит мощный экономический движок, который будет сильно мотивировать нарушать собственные правила. (The New York Times подала иск против OpenAI по поводу нарушения авторских прав на новости, связанные с динамикой систем ИИ. OpenAI отвергает эти обвинения.)
На ранних этапах Facebook обещал пользователям контроль над своими данными и возможность голосовать по политике. Но эти обещания были разрушены. Компания отменила систему публичных голосований по политике. Те изменения в конфиденциальности, которые якобы давали пользователям больше контроля, в итоге оказались обратными: Федеральная торговая комиссия (FTC) обнаружила, что они фактически делали личную информацию более доступной. Всё это происходило под давлением рекламной модели, которая ставит вовлеченность (Engagement) превыше всего.
Может уже начаться процесс разрушения собственных принципов OpenAI ради максимизации вовлеченности. Оптимизация для увеличения рекламных доходов — нарушение принципов компании, но, по сообщениям, компания уже работает над увеличением числа активных ежедневных пользователей, вероятно, стимулируя модели вести себя более угодливо и лестно. Такая оптимизация усиливает зависимость пользователей от ИИ в повседневной жизни. Мы уже видели последствия этого: случаи «шизофрении чат-бота» в психиатрической практике и обвинения в усилении суицидальных мыслей у некоторых пользователей ChatGPT.
Тем не менее, доходы от рекламы действительно помогают обеспечить, чтобы самые мощные инструменты ИИ не были доступны только платящим. Конечно, Anthropic заявляет, что никогда не будет размещать рекламу в Claude, но его еженедельная активность — лишь малая часть 800 миллионам пользователей ChatGPT; его стратегия доходов полностью иная. Кроме того, подписка на ChatGPT, Gemini и Claude сейчас стоит до 200–250 долларов в месяц — что в 10 раз превышает стандартную подписку Netflix.
Итак, главный вопрос — не в наличии рекламы, а в том, можем ли мы разработать структуру, которая одновременно избегает исключения обычных пользователей и не превращает их в потенциальных потребителей для манипуляций. Я считаю, что можем.
Первый подход — явные кросс-субсидии: использование прибыли от одного сервиса или клиентской базы для компенсации убытков другого. Если компания массово использует ИИ для выполнения высокоценных задач, ранее выполнявшихся людьми (например, платформы недвижимости используют ИИ для составления описаний и оценки стоимости), она должна платить дополнительную плату, которая покроет доступ для других на бесплатной или низкой цене.
Этот подход заимствован из способов, которыми мы обращаемся с инфраструктурой. Федеральная комиссия по связи (FCC) требует, чтобы операторы связи вносили взносы в фонд для поддержки телефонных и широкополосных услуг в сельских районах и среди малоимущих. Многие штаты добавляют в счета за электроэнергию сборы на социальные программы.
Второй вариант — принять рекламу, но при этом обеспечить реальный контроль — не просто написать принципиальную статью, а создать независимую структуру с обязательствами по надзору за использованием личных данных. В этом есть примеры. Немецкий закон о совместном управлении (German co-determination law) требует, чтобы крупные компании вроде Siemens и Volkswagen предоставляли работникам до половины мест в наблюдательных советах, что показывает возможность принудительного внедрения представительства заинтересованных сторон внутри частных компаний. Meta также обязана соблюдать решения своего Надзорного совета (Oversight Board), состоящего из внешних экспертов (хотя эффективность этого органа критиковалась).
Индустрия ИИ нуждается в сочетании этих методов — создании совета, включающего независимых экспертов и представителей граждан, чьи данные затрагиваются, — для определения, какие диалоговые данные можно использовать для таргетированной рекламы, что считается важной политикой, и для информирования пользователей о содержании.
Третий подход — создание трастов или кооперативов, которые будут держать пользовательские данные под независимым контролем и иметь юридическую обязанность действовать в интересах пользователей. Например, швейцарский кооператив MIDATA позволяет участникам хранить свои медицинские данные на зашифрованной платформе и по отдельным запросам делиться ими с исследователями. Участники MIDATA управляют политикой на собраниях и выбирают этический комитет для рассмотрения запросов на доступ.
Все эти варианты не просты. Но у нас есть время их доработать, чтобы избежать двух худших сценариев: либо технологии, которая без оплаты манипулирует населением, либо технологии, обслуживающей только богатых элит.