Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
О чем на самом деле вся сага о безопасности искусственного интеллекта Anthropic
О чем на самом деле вся эта история с безопасностью ИИ от Anthropic
Анализ Лизы Эадисиокко, Дэвида Голдмана, CNN
Чт, 26 февраля 2026 г. в 22:48 по GMT+9 5 мин на чтение
Сооснователь и генеральный директор Anthropic Даро Амодей. - Chance Yeh/Getty Images
У Anthropic возник знакомый переломный момент для растущей технологической компании: как масштабироваться, не подрывая принципы, которые отличают ее.
ИИ-компания сделала безопасность своим руководящим принципом. Она выступала за регулирование ИИ и призывала к защите работников, поскольку ИИ заменяет некоторые человеческие задачи. Anthropic приложила много усилий, чтобы донести до клиентов конкретное послание: Мы хорошие парни.
Но самовольно установленные компанией «страховочные ограждения», которые нужны были для создания этого бренда, теперь могут стать препятствием на пути к ее успеху.
На этой неделе Пентагон поставил Anthropic ультиматум: снимите свои этические ограничения для ИИ или лишитесь контракта на $200 млн и столкнетесь с черным списком. Отдельно, также на этой неделе, Anthropic ослабила свою базовую политику безопасности, чтобы дать компании больше свободы для роста в конкурентном и быстро меняющемся рынке.
Пока неясно, как эта неделя скажется на бизнесе Anthropic и ее репутации, но ее решения будут иметь серьезные последствия.
Мы знаем, что так происходит, потому что дилемма Anthropic — это знакомая проблема для индустрии технологий. Многие компании заявляют о своих ценностях и морали, но затем сталкиваются с трудными решениями, которые заставляют выбирать между ростом и сохранением этих идеалов.
Anthropic, возможно, стоит принять это во внимание.
OpenAI и выходные Сэма
Сэм Альтман, генеральный директор OpenAI. - Andrew Harnik/Getty Images
Чуть более двух лет назад главный конкурент Anthropic столкнулся с разногласиями из-за роста ценой безопасности.
В одном из самых странных корпоративных драматических событий в истории, OpenAI — главный конкурент Anthropic — внезапно уволила своего основателя и генерального директора Сэма Альтмана в пятницу в ноябре 2023 года, а на следующий вторник тут же восстановила его.
Эта история включала в себя уникальную корпоративную структуру: быстрорастущая коммерческая компания, производящая ChatGPT, находилась под эгидой неприбыльного совета. Четыре года назад компания закрепила в уставе, что OpenAI по-прежнему «обеспокоен» тем, что ИИ может «вызвать быстрые изменения» для человечества. Руководители компании опасались, что Альтман движется слишком быстро и рискует подорвать безопасность, которую компания обязалась обеспечивать.
Но увольнение Альтмана привело к угрозам массового исхода сотрудников — ситуация неприемлемая, которая могла бы привести к уничтожению компании. Поэтому совет уже через несколько дней повторно нанял Альтмана. Затем совет распался вскоре после этого, а в прошлом году Альтман изменил корпоративную структуру, чтобы освободиться от надзора со стороны неприбыльного управляющего органа.
С тех пор OpenAI пытается найти баланс между скоростью и безопасностью, сталкиваясь с несколькими исками, которые утверждают, что ее продукты убедили молодых людей причинять вред себе. OpenAI отрицает эти обвинения.
Apple и стрелок из Сан-Бернардино
Генеральный директор Apple Тим Кук. - Godofredo A. Vásquez/AP
Сьед Фарук и его жена, Ташфин Малик, убили 14 человек в Inland Regional Center в Сан-Бернардино, Калифорния, в декабре 2015 года. Позже пара погибла в перестрелке с полицией.
Следователи получили разрешение на извлечение данных с iPhone Фарука, но они не смогли сделать это, потому что телефон был заблокирован кодом-паролем. Судья в Калифорнии постановил, чтобы Apple помогла сотрудникам правоохранительных органов получить доступ к телефону.
Но в открытом письме, подписанном генеральным директором Apple Тимом Куком, компания отказалась. Кук сказал, что распоряжение судьи откроет «возможность для “черного хода” в iPhone», что является «вещью, которую мы считаем слишком опасной, чтобы создавать». Компания заявила, что у нее нет сочувствия к террористам, но выполнение распоряжения даст государственным органам «власть проникать в устройство любого человека, чтобы получать их данные».
За это решение Apple получила огромную волну критики — включая со стороны тогдашнего кандидата в президенты Дональда Трампа. Но с тех пор она получила широкую похвалу за то, что отстояла приватность своих клиентов, которая с тех пор стала ассоциироваться с брендом компании.
Теперь компания регулярно заявляет, что не продает данные клиентов и не хранит на своих серверах некоторые персональные сведения, стараясь отличаться от Google — одного из ее главных конкурентов.
Etsy против продавцов-одиночек
Штаб-квартира Etsy в Нью-Йорке. - Michael M. Santiago/Getty Images
Когда интернет-торговая империя Amazon только начинала набирать обороты в начале 2000-х, Etsy стала новаторской альтернативой, где покупатели могли находить уникальные товары ручной работы.
Но в 2013 году она сделала спорное изменение, которое грозило подорвать эту идеологию. Она расширила свою политику, разрешив продавцам использовать производителей и передавать операционные процессы на аутсорс, что вызвало тогда опасения, что теперь она больше не будет обеспечивать равные условия для небольших независимых продавцов, у которых нет ресурсов нанимать сотрудников.
Тем не менее то решение было критически важным для Etsy, чтобы расшириться до той торговой площадки, которой она является сегодня: сейчас там предлагается более 100 млн товаров на продажу и примерно 8 млн активных продавцов.
«С точки зрения бизнеса это сработало для Etsy, но для компании это было трудным моментом», — сказал Арун Сундарараджан, директор Fubon Center for Technology, Business and Innovation при NYU Stern.
Что дальше для Anthropic
Приложение Claude AI от Anthropic. - Michael M. Santiago/Getty Images
Эти примеры из практики дают для Anthropic предостерегающую карту маршрута.
Теперь крупнейшим ближайшим последствием для Anthropic, вероятно, станет то, как клиенты и потенциальные клиенты оценивают компанию и доверяют ей, — сказал Оуэн Дэниелс, заместитель директора по анализу из Center for Security and Emerging Technology при Джорджтаунском университете.
Anthropic заявила, что ее самовольно установленные меры безопасности всегда были задуманы как гибкие и подлежащие изменению по мере развития ИИ. Она пообещала в будущем быть прозрачной в вопросах безопасности и сказала, что у нее действительно не было выбора: если компания остановится в росте, конкуренты, которые ценят безопасность не так сильно, смогут вырваться вперед и сделать ИИ в целом «менее безопасным».
Непонятно, чем в итоге обернется изменение Anthropic, потому что экзистенциальные риски ИИ все еще в основном «концептуальны», — отметил Сундарараджан.
Он сказал, что будет скептически относиться к любому эксперту, который назвал бы это важным моментом в безопасности ИИ. Но это может быть важным моментом и для компании.
«Отступление от конкретного обещания безопасности со стороны Anthropic, на мой взгляд, больше говорит о самой Anthropic и меньше — о будущем ИИ», — сказал он.
Чтобы получать больше новостей и рассылок CNN, создайте аккаунт на CNN.com
Условия и Политика конфиденциальности
Панель управления конфиденциальностью
Дополнительная информация