Адвокати попереджають, що чати з штучним інтелектом можуть бути використані в суді після нового рішення щодо привілеїв у Нью-Йорку

robot
Генерація анотацій у процесі

  • Більше ніж з десяток провідних юридичних фірм США попередили клієнтів, що розмови з чат-ботами на базі штучного інтелекту можуть бути доступні в суді.
  • Попередження з’явилися після рішення суду у Нью-Йорку, згідно з яким чати обвинуваченого у шахрайстві з Anthropic’s Claude не захищені привілеєм адвокатської таємниці або доктриною робочого продукту.

Юридичні фірми США швидко попереджають клієнтів, що розмови з чат-ботами на базі ШІ можуть стати публічними, коли справа доходить до суду. Терміновість зумовлена рішенням судді Джеда Ракофа у Нью-Йорку, який постановив, що Брэдлі Хепнер, колишній голова банкрутської фінансової компанії GWG Holdings, має передати федеральним прокурорам 31 документ, створений за допомогою Anthropic’s Claude, у рамках розслідування щодо цінних паперів та провокаційних дій. Ракоф встановив, що між користувачем і Claude не існує адвокатсько-клієнтських відносин, і будь-яка конфіденційність була скасована через обмін інформацією з платформою. Юридичні фірми починають включати попередження у договори з клієнтами Reuters повідомляє, що понад десяток великих американських фірм вже випустили рекомендації, радячи клієнтам бути обережними з юридичними обговореннями, що стосуються чат-ботів, таких як Claude і ChatGPT. Деякі фірми пішли далі і закріпили ці попередження безпосередньо у угодах про співпрацю. Наприклад, нью-йоркська фірма Sher Tremonte зазначила у недавньому договорі з клієнтом, що розкриття привілейованих комунікацій третій стороні через платформу штучного інтелекту може позбавити привілею адвокатської таємниці. Це суттєвий крок уперед. Те, що кілька місяців тому було переважно внутрішнім застереженням юристів, тепер оформлюється у клієнтській документації. Одне рішення, але ширший юридичний сигнал Рішення Ракофа не є єдиним судовим поглядом на цю проблему. У той самий день суддя-магістрат у Мічигані постановив, що розмови позивача, який представляє себе сам, у ChatGPT можуть розглядатися як особистий робочий продукт і не підлягають обов’язковому розкриттю. Однак, юридичні радники поки що вважають, що випадок у Нью-Йорку є більш важливим попереджувальним сигналом. Глибша проблема полягає не так у штучному інтелекті, як у конфіденційності. Як зазначає Reuters, і Anthropic, і OpenAI у своїх умовах заявляють, що дані користувачів можуть бути передані третім сторонам, включаючи урядові органи у певних обставинах. Для юристів це робить старе правило знову актуальним. Не обговорюйте свою справу з ким завгодно, крім вашого адвоката, і тепер це включає чат-бота.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити