Фьючерсы
Сотни контрактов, рассчитанных в USDT или BTC
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Начало фьючерсов
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Сотрудники используют ИИ вредоносными способами — и компании могут оставаться в неведении
Искусственный интеллект ударил по рабочей силе как землетрясение, и все больше компаний сталкиваются с послевкусием этого удара.
Одна из растущих проблем — так называемый «теневой ИИ», когда работники используют ИИ неправомерно, будь то непреднамеренно или по другим причинам.
По данным недавнего исследования Университета Мельбурна и KPMG, 47% опрошенных профессионалов используют ИИ на работе неправомерно, а 63% видели, как другие сотрудники используют ИИ неправильно. Эти случаи варьируются от использования ИИ для общения по внутренним тестам оценки эффективности компании до подачи чувствительных данных компании в сторонние инструменты ИИ.
Это создает огромные риски для компаний, отмечается в исследовании.
«Это невидимое или теневое использование ИИ не только увеличивает риски — оно также серьезно мешает организации обнаруживать, управлять и снижать эти риски», — говорится в отчете.
Компании сталкиваются с иллюзией компетентности, вызванной ИИ
Эксперты по рабочему месту утверждают, что настоящие изменения с ИИ заключаются не в том, что сотрудники внезапно стали нечестными. Суть в том, что ИИ быстро, легко и незаметно делает короткие пути.
«До появления ИИ скрывать плохую работу было сложнее», — говорит Захра Тимсах, руководитель по управлению ИИ и генеральный директор i-GENTIC AI, платформы по соблюдению правил использования ИИ. «Теперь сотрудник может за несколько минут подготовить отточенный отчет, и менеджеры предполагают, что он компетентен. Это создает иллюзию продуктивности.»
Например, Тимсах приводит пример сотрудника, который использует ИИ для анализа и уверенно его представляет, но не может его защитить при вопросах. «Компания принимает решения на основе работы, которую никто по-настоящему не понимает», — добавила она. «Самая большая угроза — не списывание на тестах. Это то, что компании тихо теряют внутреннюю информацию, полагаясь на то, что их команды думают независимо.»
Другие высокопоставленные руководители отмечают, что данные показывают — компании только сейчас видят верхушку айсберга использования теневого ИИ. Вот более полная картина из исследования Мельбурна:
— 44% работников в США используют инструменты ИИ без должного разрешения,
— 46% загружают чувствительную корпоративную информацию и интеллектуальную собственность на публичные платформы ИИ, а 64% признаются, что тратят меньше усилий на работу, потому что могут полагаться на ИИ.
— Более половины, 57%, совершают ошибки из-за неограниченного использования ИИ, а 53% полностью скрывают его использование, представляя сгенерированный ИИ контент как свой собственный.
«Дело не только в том, что люди присваивают работу ИИ; они также портят корпоративную репутацию, полагаясь на некачественный ИИ», — говорит Ник Миснер, операционный директор Cybrary, платформы для профессионального развития в области кибербезопасности в Атланте. «Хотя ИИ ускоряет процесс кодирования, он также вводит больше долгов и уязвимостей в безопасность организации.»
Миснер отмечает, что это не единичная тенденция, а системный сбой организационной готовности.
«Мы видим, что внедрение ИИ значительно опережает развитие правил и контроля», — говорит он. «Отчет Gallup о состоянии глобального рабочего места показывает, что 79% мировой рабочей силы находятся где-то между «выполняют минимум» и «активно не заинтересованы».»
Следовательно, когда безучастным работникам дают мощный инструмент без четких руководств, они не станут использовать его для повышения продуктивности. «Они будут использовать его, чтобы делать ту же работу с меньшими усилиями или, что еще хуже, обходить правила, создавая реальные организационные риски», — отметил он.
Угрозы не только в списывании на тестах, хотя в отчете KPMG Australia на этой неделе сообщается, что 28 сотрудников были пойманы за использованием ИИ для списывания на внутренних экзаменах, включая партнера, оштрафованного на 10 000 долларов за нарушение этики ИИ.
«Этот пример отлично иллюстрирует иронию», — сказал Миснер. «Более серьезная угроза — это слепое управление. Если почти половина вашей рабочей силы неправомерно использует ИИ, и вы даже не знаете об этом, ваш риск — огромен: утечка данных, нарушение нормативных требований и разрушение навыков, которые действительно нужны вашим сотрудникам.»
Вывод теневого ИИ из тени
Руководство должно предложить меры, политики и санкции, чтобы обеспечить этичное использование ИИ в компании. Эти стратегии должны быть в приоритете.
Учитесь на прошлом
Можно утверждать, что цифры Мельбурна и KPMG не уникальны для ИИ.
«Мы наблюдали похожие тенденции, когда интернет и поисковые системы впервые вошли в рабочую среду», — говорит Джо Шеппи, соучредитель Solsten, компании по вовлечению пользователей на базе ИИ в Миннеаполисе. «Когда появляется мощный новый инструмент, злоупотребление неизбежно; это человеческая природа.»
По мере роста внедрения ИИ, по словам Шеппи, руководство, вероятно, увидит больше экспериментов и серых зон поведения, но, как и с любой технологией, правила и ограничения развиваются. «Компании, такие как Anthropic, уже используют более ориентированный на предприятия подход, внедряя правила и ограничения для снижения рисков по мере развития технологии», — отметил он. «Если вы заметили неправомерное поведение на любом инструменте, следует сосредоточиться на культуре и том, как вы применяете политики и процедуры.»
Доверяйте человеческому контролю
Чтобы контролировать использование ИИ на рабочем месте, руководство должно поручить команду анализа ИИ проверять доступ к данным и разрешения на любые типы данных, важные для будущего бизнеса.
«Далее, синтетические наборы данных — это не новость и отличный способ моделировать результаты, используя ваши данные», — говорит он. «Также я всегда советую вовлекать человека в процесс перед запуском. Многие компании все еще обнаруживают ошибки в отчетах ИИ. Важно, чтобы человек контролировал, чтобы сообщения оставались в рамках бренда и были уместными.»
Четко определите правила использования ИИ
Компании должны предоставить одобренные внутренние инструменты ИИ и установить одно ясное правило. Никогда не вводите конфиденциальную или регулируемую информацию в публичные системы ИИ.
«Также необходимо отслеживать, куда поступают чувствительные данные, особенно при копировании и вставке в инструменты ИИ, что сейчас является крупной слепой зоной большинства компаний», — говорит Тимсах. «Самое важное — изменить подход к оценке сотрудников.»
Тимсах также советует руководителям избегать поощрения только за отточенную работу. «Требуйте от сотрудников объяснять свои решения и демонстрировать понимание», — говорит она. «ИИ может генерировать ответы, но он не заменяет ответственность и владение ситуацией.»
Первой политикой, которую внедрила команда Тимсах в i-GENTIC, было простое и ясное правило: сотрудники могут использовать одобренные инструменты ИИ, но не должны вводить конфиденциальную, клиентскую, финансовую или собственническую информацию в публичные системы ИИ.
«Мы сосредоточились на ясности, а не на ограничениях», — отметила она. «Это создало доверие, потому что сотрудник знал, что использование ИИ разрешено, но с четкими границами. Также это повысило ответственность, потому что все понимали, что безопасно, а что — нет.»
Обучение внутри компании должно быть ориентировано на практические примеры, а не на расплывчатые политики, которые никто не читает. Сотрудники должны четко понимать, что безопасно, а что — нет.
«Использовать ИИ для переписывания стандартного письма — нормально», — говорит Тимсах. «Загружать контракты клиентов, финансовые данные или собственническую информацию в публичный ИИ — нет. Использовать ИИ для мозгового штурма — нормально. Представлять сгенерированный ИИ анализ как свой собственный — нет.»
Когда привлекать внешних специалистов
Использование ИИ сотрудниками становится юридической проблемой, когда есть умысел и вред.
«Это включает утечку конфиденциальных данных, кражу интеллектуальной собственности, манипуляцию финансовой информацией или мошенничество с помощью ИИ», — отмечает Тимсах. «В таком случае компании могут привлечь следователей, регуляторов или правоохранительные органы.»
Руководство должно знать, что большинство злоупотреблений начинается из-за удобства, а не злого умысла, но когда это причиняет реальный вред, создает финансовые риски или обман, это переходит в юридическую плоскость. «Ключевое отличие — привело ли злоупотребление к раскрытию, убыткам или преднамеренному сокрытию», — добавила Тимсах.
И, наконец, обучение
Эксперты подчеркивают, что организации должны относиться к использованию ИИ как к любому другому высокорискованному поведению и обучать сотрудников безопасным методам его использования.
Кроме того, при обучении сотрудников важно напомнить, что использование ИИ не освобождает их от ответственности.
«Сотрудники по-прежнему отвечают за точность информации, которую они загружают в платформы ИИ, и за соблюдение законов», — говорит Келси Сзамет, партнер в Kingsley Szamet Employment Lawyers. «Также важно, чтобы сотрудники знали, что загрузка конфиденциальной и собственнической информации в ИИ может привести к ее постоянной утечке на платформу.»
С точки зрения трудовых отношений, важна последовательность. Если одного уволить за неправомерное использование ИИ, а другого — нет, это может привести к проблемам дискриминации и ответных мер. «Чем лучше политика и обучение, тем меньше риск судебных разбирательств», — говорит Сзамет.
Главная проблема — не в том, что сотрудники будут использовать ИИ. Они будут. «Главное — чтобы компании заранее подготовились к этому», — добавила она.