Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Законодательство не дошло до «самоконтроля» первым: ИИ-гиганты обещают безопасность продукта, OpenAI поддерживает лицензирование и одобрение разработки системы ИИ
Автор: Ли Дэн
Хотя Соединенные Штаты еще не приняли конкретного законодательства, под давлением администрации Байдена некоторые гиганты и восходящие звезды в области искусственного интеллекта (ИИ) OpenAI выступили с инициативой предложить «самоконтроль».
В четверг, 20 июля, по восточному времени СМИ процитировали инсайдеров, заявивших, что по запросу Белого дома некоторые компании, в том числе Microsoft, материнская компания Google Alphabet и OpenAI, в эту пятницу примут на себя публичные обязательства по обеспечению безопасного использования ими технологии ИИ, а также ответственной разработке и развертыванию ИИ.
Проект документа Белого дома показывает, что обязательства компаний останутся в силе до тех пор, пока Конгресс США не примет закон для решения вопросов, связанных с ИИ. Эти обещания касаются генеративного ИИ и самых мощных существующих моделей ИИ и даже возможных будущих моделей. В проекте Белый дом предложил восемь пунктов обязательств:
СМИ сообщили, что до этой пятницы конкретное содержание обязательства может еще измениться. Но ожидается, что обещания будут соответствовать обещаниям, сделанным на встрече некоторых ведущих компаний в области искусственного интеллекта в мае.
Также в четверг в другом отчете говорилось, что внутренняя служебная записка показала, что OpenAI поддерживает внедрение системы лицензирования, то есть для разработки передовых систем ИИ разработчикам необходимо сначала получить лицензию, выданную правительством. OpenAI также намекнул на готовность быть более открытым в отношении данных, используемых для обучения устройств формирования изображений ИИ, таких как DALL-E, заявив, что к концу этого года компания намерена внедрить подход, основанный на происхождении.
Однако Маканджу, вице-президент OpenAI по глобальным вопросам, недавно заявил, что режим лицензирования, поддерживаемый OpenAI, ограничен моделями ИИ, более мощными, чем GPT-4, потому что OpenAI хочет, чтобы небольшие стартапы не испытывали слишком сильного регуляторного давления.
В комментарии говорится, что само добровольное обязательство показало, что у администрации Байдена есть ограничения в управлении моделями ИИ, чтобы избежать злоупотреблений. Конгресс США не сможет принять законопроекты и законы в краткосрочной перспективе, а регулирование в области ИИ нельзя откладывать.
Уолл-стрит упомянула, что в мае Белый дом созвал встречу с руководителями Alphabet, Microsoft и OpenAI для обсуждения вопросов безопасности ИИ. Байден повторил в письме-приглашении в то время, что он надеется, что эти компании должны обеспечить безопасность продукта, прежде чем выпускать продукты. Он также сказал, что есть опасения, что быстро развивающаяся технология искусственного интеллекта может вторгаться в частную жизнь и быть предвзятой, распространяя слухи и дезинформацию.
В прошлом месяце Байден еще раз подтвердил необходимость обеспечения безопасности перед выпуском продуктов ИИ, заявив, что необходимо устранить риски для национальной безопасности и экономики, связанные с ИИ. Глава аппарата Белого дома Джефф Зиентс заявил в том же месяце, что некоторые ведущие компании в области ИИ прилагают усилия для сотрудничества с администрацией Байдена и вскоре объявят о ряде обязательств в отношении конфиденциальности и безопасности. Он также сказал, что процесс регулирования может быть относительно медленным, но мы не можем позволить себе ждать год или два.