Я наблюдаю за этим в реальных организациях, и честно говоря, сейчас это выглядит довольно хаотично.



Ваша маркетинговая команда вставляет данные клиентов в бесплатный ChatGPT. Ваши инженеры вставляют закрытый код в случайные AI-отладчики. И никто не сообщает об этом IT. Исследования показывают, что 71% сотрудников делают так, а 57% активно скрывают это от команд безопасности.

Вот что меня тревожит: это не злонамеренность. Эти люди просто пытаются работать быстрее. Проблема в том, что бесплатные AI-инструменты работают по совершенно другой модели, чем корпоративное программное обеспечение. Когда вы вставляете данные в бесплатную версию, вы получаете не только помощь — вы кормите обучающий конвейер. Этот код, этот список клиентов, этот стратегический документ? Теперь это часть весов модели. Удалить его нельзя. Выучить его заново нельзя.

Помните Samsung в 2023 году? Инженеры вставляли чувствительный исходный код в ChatGPT для оптимизации. Этот код был поглощен в обучающие данные. Всё.

Но тут становится хуже. Если ваша команда обрабатывает данные европейских клиентов через AI-инструмент, расположенный в США, без соответствующих соглашений, вы, скорее всего, нарушаете GDPR прямо сейчас. А когда сотрудники используют непроверенные AI для генерации отчетов или клиентских материалов, и модель просто… выдумывает? Вдруг вы сталкиваетесь с ложной информацией, которая подается клиентам как факт. Это не только техническая проблема — это репутационный кризис, который может случиться в любой момент. AI не умеет отличать точность от вымысла, и люди, использующие его, тоже.

Настоящая проблема — это так называемый разрыв в управлении. Запрет этих инструментов не работает. Это только подталкивает их использование в подполье. Нужно другой подход.

Технически, часть этого можно обнаружить. Мониторинг DNS ловит трафик к OpenAI, Anthropic, Midjourney. Правила DLP могут сработать, когда код или PII вставляются в чат-интерфейсы. Но лучший детектор? Ваши сотрудники. Они скажут вам, что используют, если не боятся наказания.

Вот рабочая схема:

Во-первых, опубликуйте четкий список разрешенных/запрещенных инструментов. Будьте честны, если у вас еще нет утвержденных решений. Настройте правила DLP для высокорискованных доменов. Отправьте мемо от руководства, что AI полезен, но бесплатные инструменты опасны.

Во-вторых, создайте формальную политику с тремя уровнями: Разрешить (проверенные корпоративные инструменты), Мониторить (низкорискованные инструменты для незащищенных данных), Запретить (инструменты, которые обучаются на ваших данных или не соответствуют стандартам безопасности). Обучайте команды тому, что важно для их роли.

В-третьих, внедрите браузерные ограничения для блокировки неавторизованных AI-доменов. Рассмотрите AI-шлюзы, которые могут в реальном времени редактировать PII, прежде чем данные достигнут поставщика модели.

В-четвертых, создайте команду по управлению AI, которая регулярно будет отслеживать новые инструменты и риски. Сделайте так, чтобы сотрудники могли легко запрашивать новые инструменты, чтобы управление не становилось узким местом.

Но есть одна важная вещь: всё это не сработает, если вы не предложите людям что-то лучше. Они используют бесплатные инструменты, потому что они работают. Потому что это удобно.

Модель BYOK (Bring Your Own Key) здесь очень интересна. Это значит, что ваша организация покупает прямой API-доступ у таких провайдеров, как OpenAI или Anthropic, и подключает его к платформе, которая дает сотрудникам единый интерфейс для доступа к нескольким моделям. Вы контролируете API-ключ, и данные проходят по вашим условиям. Нет обучения на ваших данных. Полная видимость. Полное соответствие требованиям.

Вот как реально остановить теневой ИИ. Не запретом. А сделав безопасный путь самым простым.

Сотрудники, вставляющие данные в ChatGPT, не пытаются утечь интеллектуальную собственность. Они просто пытаются выполнить свою работу. Проблема не в непослушании — проблема в том, что рынок движется быстрее, чем закупки в корпорациях. Исправьте это, и снизите риск.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить