Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
План бункера Хассабиcа: новая книга раскрывает крах идеалов безопасности Safety Ideals
Согласно мониторингу 1M AI News, The Atlantic опубликовала выдержку из новой книги технолога-историка и финансового историка Себастьяна Маллаби «The Infinity Machine», которая описывает эволюцию концепций безопасности ИИ с тех пор, как сооснователь Google DeepMind Дэмиш Хассабис приступил к разработкам, начиная с момента приобретения Google в 2014 году, на основе продолжающихся интервью с 2023 по 2026 год. Хассабис изначально представлял себе, что одна научная команда будет безопасно строить сверхразум во благо всего человечества, и даже планировал отвести топ-исследователей в секретный бункер в критические моменты, по аналогии с Манхэттенским проектом. Исследователь, который присоединился вскоре после этого, вспоминал, что Хассабис предупредил его во время заключительных стадий интервью: нужно быть морально готовым «в любой момент улететь в тайное место в Марокко». Когда Google приобрел DeepMind в 2014 году, Хассабис поставил редкие условия: создание независимого внешнего контрольного комитета, запрет военных применений и отсутствие у Google полного контроля над развертыванием технологий. Google принял эти условия. На следующий год он созвал тайную встречу в штаб-квартире Илона Маска в Хоторне, штат Калифорния, пытаясь объединить потенциальных конкурентов, но это дало обратный эффект: затем Маск вместе с Сэмом Альтманом основал OpenAI. После этого Хассабис запустил секретную операцию под кодовым названием «Project Mario», пытаясь вернуть автономию управления у Google, сформировав юридическую команду, получив обязательство по финансированию в размере $1 млрд от основателя LinkedIn Рида Хоффмана и рассматривая возможность выделения DeepMind из Google. Эта борьба длилась три года и в итоге провалилась, что привело к тому, что сооснователя Мустафу Сулейман вынудили уйти из компании в 2019 году. После выхода ChatGPT в конце 2022 года Хассабис полностью отказался от высоких принципов, заключавшихся в том, чтобы заниматься только полезной наукой. Он сказал Маллаби: «Это время войны», а затем с головой ушел в конкуренцию с Gemini и ChatGPT. Сотни миллиардов долларов потекли в гонку вооружений в сфере ИИ, и ни национальное регулирование, ни структуры корпоративного управления не смогли остановить конкуренцию. Философия Хассабиса в области безопасности радикально изменилась: «Безопасность не зависит от структур управления; даже если существует комитет по управлению, крайне маловероятно, что он примет правильное решение в критические моменты». Его новая стратегия — обеспечить себе место за столом принятия решений, чтобы он мог участвовать в выработке решений, когда возникают вопросы безопасности. Тем временем Google активно продвигает ИИ для системы обороны США, что является резким разворотом по сравнению с военным запретом, который Хассабис установил во время приобретения.