Запуск ChatGPT Health викриває сіру зону у захисті медичних даних

Останній крок OpenAI у сфері охорони здоров’я викликає активний інтерес з боку експертів з питань приватності та захисників прав. Компанія представила ChatGPT Health — функцію, яка дозволяє користувачам завантажувати медичні записи та інформацію про здоров’я безпосередньо у платформу. Хоча OpenAI позиціонує це як допоміжний інструмент, розроблений спільно з лікарями, запуск викликає глибші питання щодо того, як насправді захищаються дані про здоров’я в епоху ШІ.

Технічні заходи безпеки здаються заспокійливими — але експерти стверджують, що їх недостатньо

Згідно з інформацією OpenAI, ChatGPT Health реалізує кілька захисних заходів: медичні розмови залишаються зашифрованими та ізольованими від звичайних чатів, дані не використовуються для тренування моделей, а сама функція надає лише загальну інформацію про здоров’я, а не персоналізовані медичні поради. Для більш важливих запитів система позначає ризики та направляє користувачів до реальних медичних фахівців.

На папері ці заходи виглядають надійними. Однак захисники приватності вказують на фундаментальний пробіл. «Навіть із обіцянками компанії щодо захисту приватності, більшість людей не мають справжньої прозорості, значущої згоди або реального контролю над тим, що трапляється з їхньою інформацією», — попереджає J.B. Branch, аналітик відповідальності великих технологій. «Дані про здоров’я потребують більшого, ніж саморегуляція».

Проблема Covered Entities за HIPAA

Тут юридичний ландшафт стає неоднозначним. Федеральний закон про приватність — зокрема HIPAA — захищає дані про здоров’я, коли їх зберігають певні медичні організації: кабінети лікарів, лікарні, страхові компанії. Але covered entities за HIPAA становлять лише вузький сегмент екосистеми даних про здоров’я.

Коли компанія ШІ або розробник медичного додатку зберігає вашу інформацію про здоров’я, захист HIPAA автоматично не застосовується. «Ваш лікар має обов’язки за HIPAA. Ваша страхова компанія має обов’язки за HIPAA», — пояснює Ендрю Кроуфорд, старший радник з політики Центру демократії та технологій. «Але виробники медичних додатків, компанії з носимих пристроїв і платформи ШІ? Вимоги HIPAA до них не поширюються».

Це створює вакуум відповідальності. Без всеохоплюючого федерального законодавства про приватність здоров’я, відповідальність цілком лягає на окремих користувачів, які мають вирішити, чи довіряють вони тому, як конкретна платформа обробляє їхні найчутливіші дані.

Чому це важливо саме зараз

Час запуску ChatGPT Health має велике значення. Раніше цього року OpenAI повідомила, що понад 1 мільйон користувачів щотижня спілкуються з чатботом щодо суїциду — приблизно 0,15% від бази користувачів ChatGPT на той час. Цей обсяг підкреслює, що платформа стала фактичним ресурсом для ментального здоров’я для мільйонів, чи то навмисно, чи випадково.

Запуск спеціальної функції для здоров’я підсилює і можливості, і ризики. Більше людей ймовірно поділяться чутливими медичними історіями, проблемами психічного здоров’я та питаннями благополуччя з ChatGPT. Ізоляційні протоколи компанії та зобов’язання не використовувати дані для тренування дають певну впевненість, але не вирішують основну вразливість: що станеться, якщо зловмисники цілеспрямовано атакують платформу або якщо політики обробки даних зміняться під керівництвом нових керівників компанії?

Ширша проблема приватності

Кроуфорд наголошує на структурній проблемі: «Наші закони покладають всю відповідальність на споживачів, щоб вони оцінювали, чи комфортно їм довіряти технологічній компанії свої дані про здоров’я. Це навпаки. Це ставить ризик на окремих людей, замість того, щоб зобов’язати технологічні компанії дотримуватися чітких, обов’язкових стандартів».

Функція спочатку буде доступна для обраних користувачів ChatGPT за межами ЄС та Великої Британії, а розширена доступність очікується на веб-платформі та iOS у найближчі тижні. Але незалежно від місця запуску, дискусія про дані про здоров’я, платформи ШІ і чи достатньо існуючих правових рамок, лише посилюватиметься.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити