Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Wikipedia закрывает дверь для статей, написанных искусственным интеллектом
Редакторы Wikipedia одобрили политику, запрещающую использование больших языковых моделей для генерации или редактирования материалов на энциклопедии, 20 марта, сообщает 404media.co и The Verge. Мера прошла голосованием 40 к 2.
Новое правило действует для англоязычной Wikipedia и гласит, что тексты, сгенерированные ИИ, часто нарушают основные политики сайта по контенту. Есть два исключения: редакторы могут использовать ИИ-инструменты для базового редактирования собственных текстов, при условии что инструмент не добавляет новый контент, и они могут использовать ИИ, чтобы помогать переводить неанглоязычные материалы в английский, если достаточно хорошо знают язык-источник, чтобы проверить перевод.
Похожие материалы
Visa внедряет ИИ в споры по платежам по кредитным картам
IPO SpaceX уже скоро — и, похоже, оно будет масштабным
Как отмечают в рекомендациях, некоторые участники естественным образом могут создавать текст, который читается как вывод LLM; в них предупреждают рецензентов не считать только стиль письма достаточным основанием для действий. Вместо этого рекомендуются меры вроде редакторской истории участника и того, насколько текст соответствует правилам контента Wikipedia.
Ильяс Леблеу, редактор, который использует на платформе имя Chaotic Enby, подал это предложение. WikiProject AI Cleanup — инициатива, возглавляемая редакторами и которая выявляет и исправляет контент, сгенерированный ИИ на платформе, — внесла вклад в подготовку правила.
По данным 404media, редакторам приходилось иметь дело со все возрастающим объемом административных отчетов, связанных с LLM, на платформе. «Все больше и больше административных отчетов были сосредоточены на проблемах, связанных с LLM, и редакторов буквально захлестывали», — сказал Леблеу. Предыдущая более узкая мера ограничивала запреты на LLM только генерацией полностью оригинальных статей; последующий призыв расширить эти правила на более широкую политику не прошел порог.
Сообщество также сделало проще удаление статей, сгенерированных ИИ, отмечает The Verge. И Фонд Wikimedia, и редакторское сообщество ранее не дошли до всеобъемлющих запретов на ИИ — отчасти потому, что сайт уже полагается на определенные автоматизированные системы, и потому что ИИ-инструменты с поддержкой рассматривались как потенциально полезные для редакторов в будущем.
Леблеу рассказал 404media, что сопоставимые политики на StackOverflow и в немецкоязычной Wikipedia могут запустить цепную реакцию на других платформах, движимую, по его словам, нарастающей тревогой вокруг «ИИ-пузыря».
📬 Подпишитесь на Daily Brief
Наша бесплатная, быстрая и увлекательная сводка по мировой экономике — каждое утро в будни.
Подписаться