О чем на самом деле вся сага о безопасности искусственного интеллекта Anthropic

О чем на самом деле вся эта история с безопасностью ИИ от Anthropic

Анализ Лизы Эадисиокко, Дэвида Голдмана, CNN

Чт, 26 февраля 2026 г. в 22:48 по GMT+9 5 мин на чтение

Сооснователь и генеральный директор Anthropic Даро Амодей. - Chance Yeh/Getty Images

У Anthropic возник знакомый переломный момент для растущей технологической компании: как масштабироваться, не подрывая принципы, которые отличают ее.

ИИ-компания сделала безопасность своим руководящим принципом. Она выступала за регулирование ИИ и призывала к защите работников, поскольку ИИ заменяет некоторые человеческие задачи. Anthropic приложила много усилий, чтобы донести до клиентов конкретное послание: Мы хорошие парни.

Но самовольно установленные компанией «страховочные ограждения», которые нужны были для создания этого бренда, теперь могут стать препятствием на пути к ее успеху.

На этой неделе Пентагон поставил Anthropic ультиматум: снимите свои этические ограничения для ИИ или лишитесь контракта на $200 млн и столкнетесь с черным списком. Отдельно, также на этой неделе, Anthropic ослабила свою базовую политику безопасности, чтобы дать компании больше свободы для роста в конкурентном и быстро меняющемся рынке.

Пока неясно, как эта неделя скажется на бизнесе Anthropic и ее репутации, но ее решения будут иметь серьезные последствия.

Мы знаем, что так происходит, потому что дилемма Anthropic — это знакомая проблема для индустрии технологий. Многие компании заявляют о своих ценностях и морали, но затем сталкиваются с трудными решениями, которые заставляют выбирать между ростом и сохранением этих идеалов.

Anthropic, возможно, стоит принять это во внимание.

OpenAI и выходные Сэма

Сэм Альтман, генеральный директор OpenAI. - Andrew Harnik/Getty Images

Чуть более двух лет назад главный конкурент Anthropic столкнулся с разногласиями из-за роста ценой безопасности.

В одном из самых странных корпоративных драматических событий в истории, OpenAI — главный конкурент Anthropic — внезапно уволила своего основателя и генерального директора Сэма Альтмана в пятницу в ноябре 2023 года, а на следующий вторник тут же восстановила его.

Эта история включала в себя уникальную корпоративную структуру: быстрорастущая коммерческая компания, производящая ChatGPT, находилась под эгидой неприбыльного совета. Четыре года назад компания закрепила в уставе, что OpenAI по-прежнему «обеспокоен» тем, что ИИ может «вызвать быстрые изменения» для человечества. Руководители компании опасались, что Альтман движется слишком быстро и рискует подорвать безопасность, которую компания обязалась обеспечивать.

Но увольнение Альтмана привело к угрозам массового исхода сотрудников — ситуация неприемлемая, которая могла бы привести к уничтожению компании. Поэтому совет уже через несколько дней повторно нанял Альтмана. Затем совет распался вскоре после этого, а в прошлом году Альтман изменил корпоративную структуру, чтобы освободиться от надзора со стороны неприбыльного управляющего органа.

С тех пор OpenAI пытается найти баланс между скоростью и безопасностью, сталкиваясь с несколькими исками, которые утверждают, что ее продукты убедили молодых людей причинять вред себе. OpenAI отрицает эти обвинения.

Apple и стрелок из Сан-Бернардино

Генеральный директор Apple Тим Кук. - Godofredo A. Vásquez/AP

Сьед Фарук и его жена, Ташфин Малик, убили 14 человек в Inland Regional Center в Сан-Бернардино, Калифорния, в декабре 2015 года. Позже пара погибла в перестрелке с полицией.

История продолжается  

Следователи получили разрешение на извлечение данных с iPhone Фарука, но они не смогли сделать это, потому что телефон был заблокирован кодом-паролем. Судья в Калифорнии постановил, чтобы Apple помогла сотрудникам правоохранительных органов получить доступ к телефону.

Но в открытом письме, подписанном генеральным директором Apple Тимом Куком, компания отказалась. Кук сказал, что распоряжение судьи откроет «возможность для “черного хода” в iPhone», что является «вещью, которую мы считаем слишком опасной, чтобы создавать». Компания заявила, что у нее нет сочувствия к террористам, но выполнение распоряжения даст государственным органам «власть проникать в устройство любого человека, чтобы получать их данные».

За это решение Apple получила огромную волну критики — включая со стороны тогдашнего кандидата в президенты Дональда Трампа. Но с тех пор она получила широкую похвалу за то, что отстояла приватность своих клиентов, которая с тех пор стала ассоциироваться с брендом компании.

Теперь компания регулярно заявляет, что не продает данные клиентов и не хранит на своих серверах некоторые персональные сведения, стараясь отличаться от Google — одного из ее главных конкурентов.

Etsy против продавцов-одиночек

Штаб-квартира Etsy в Нью-Йорке. - Michael M. Santiago/Getty Images

Когда интернет-торговая империя Amazon только начинала набирать обороты в начале 2000-х, Etsy стала новаторской альтернативой, где покупатели могли находить уникальные товары ручной работы.

Но в 2013 году она сделала спорное изменение, которое грозило подорвать эту идеологию. Она расширила свою политику, разрешив продавцам использовать производителей и передавать операционные процессы на аутсорс, что вызвало тогда опасения, что теперь она больше не будет обеспечивать равные условия для небольших независимых продавцов, у которых нет ресурсов нанимать сотрудников.

Тем не менее то решение было критически важным для Etsy, чтобы расшириться до той торговой площадки, которой она является сегодня: сейчас там предлагается более 100 млн товаров на продажу и примерно 8 млн активных продавцов.

«С точки зрения бизнеса это сработало для Etsy, но для компании это было трудным моментом», — сказал Арун Сундарараджан, директор Fubon Center for Technology, Business and Innovation при NYU Stern.

Что дальше для Anthropic

Приложение Claude AI от Anthropic. - Michael M. Santiago/Getty Images

Эти примеры из практики дают для Anthropic предостерегающую карту маршрута.

Теперь крупнейшим ближайшим последствием для Anthropic, вероятно, станет то, как клиенты и потенциальные клиенты оценивают компанию и доверяют ей, — сказал Оуэн Дэниелс, заместитель директора по анализу из Center for Security and Emerging Technology при Джорджтаунском университете.

Anthropic заявила, что ее самовольно установленные меры безопасности всегда были задуманы как гибкие и подлежащие изменению по мере развития ИИ. Она пообещала в будущем быть прозрачной в вопросах безопасности и сказала, что у нее действительно не было выбора: если компания остановится в росте, конкуренты, которые ценят безопасность не так сильно, смогут вырваться вперед и сделать ИИ в целом «менее безопасным».

Непонятно, чем в итоге обернется изменение Anthropic, потому что экзистенциальные риски ИИ все еще в основном «концептуальны», — отметил Сундарараджан.

Он сказал, что будет скептически относиться к любому эксперту, который назвал бы это важным моментом в безопасности ИИ. Но это может быть важным моментом и для компании.

«Отступление от конкретного обещания безопасности со стороны Anthropic, на мой взгляд, больше говорит о самой Anthropic и меньше — о будущем ИИ», — сказал он.

Чтобы получать больше новостей и рассылок CNN, создайте аккаунт на CNN.com

Условия и Политика конфиденциальности

Панель управления конфиденциальностью

Дополнительная информация

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить