Последний шаг OpenAI в области здравоохранения вызывает пристальное внимание со стороны экспертов по вопросам конфиденциальности и защитников прав. Компания представила ChatGPT Health — функцию, которая позволяет пользователям загружать медицинские записи и информацию о здоровье прямо в платформу. Хотя OpenAI позиционирует это как вспомогательный инструмент, разработанный совместно с врачами, запуск вызывает более глубокие вопросы о том, как на самом деле защищаются данные о здоровье в эпоху ИИ.
Технические меры безопасности звучат обнадеживающе — но эксперты считают, что их недостаточно
По словам OpenAI, ChatGPT Health реализует несколько защитных мер: медицинские разговоры остаются зашифрованными и изолированными от обычных чатов, данные не используются для обучения модели, а функция показывает только общую информацию о здоровье, а не персонализированные медицинские советы. Для более важных запросов система отмечает риски и направляет пользователей к реальным специалистам в области здравоохранения.
На бумаге эти меры кажутся надежными. Однако защитники конфиденциальности указывают на фундаментальный пробел. «Даже при обещаниях компании о защите конфиденциальности большинство людей не имеют реальной прозрачности, осмысленного согласия или подлинного контроля над тем, что происходит с их информацией», — предупреждает Дж.Б. Бранч, аналитик по ответственности крупных технологических компаний. «Данные о здоровье требуют большего, чем саморегуляции».
Проблема охваченных HIPAA субъектов
Здесь юридическая ситуация становится неоднозначной. Федеральный закон о конфиденциальности — в частности HIPAA — защищает данные о здоровье, когда они хранятся в определенных медицинских организациях: кабинеты врачей, больницы, страховые компании. Но охваченные HIPAA субъекты представляют собой лишь узкую часть экосистемы данных о здоровье.
Когда компания, разрабатывающая ИИ, или разработчик медицинских приложений хранит ваши данные о здоровье, автоматическая защита по HIPAA не применяется. «Ваш врач обязан соблюдать HIPAA. Ваша страховая компания обязана соблюдать HIPAA», — объясняет Эндрю Кроуфорд, старший советник по политике в Центре демократии и технологий. «Но производители медицинских приложений, компании по производству носимых устройств и платформы ИИ? Эти требования HIPAA к ним не применимы».
Это создает вакуум ответственности. Без всеобъемлющего федерального законодательства о конфиденциальности данных о здоровье, бремя доверия полностью ложится на отдельных пользователей, которые должны решить, доверяют ли они тому, как конкретная платформа обращается с их самыми чувствительными данными.
Почему это важно прямо сейчас
Время запуска ChatGPT Health имеет особое значение. В начале этого года OpenAI сообщил, что более 1 миллиона пользователей еженедельно общаются с чатботом по вопросам суицида — примерно 0,15% от базы пользователей ChatGPT на тот момент. Этот объем подчеркивает, что платформа стала фактическим ресурсом для психического здоровья миллионов, будь то по задумке или случайно.
Запуск специальной функции для здоровья увеличивает как возможности, так и риски. Больше людей, вероятно, будут делиться чувствительной медицинской историей, проблемами психического здоровья и вопросами благополучия с ChatGPT. Протоколы изоляции компании и обязательства не использовать данные для обучения дают некоторую уверенность, но не решают основную уязвимость: что произойдет, если злоумышленники нацелятся на платформу или если политики обработки данных изменятся под руководством нового руководства компании?
Более широкая проблема конфиденциальности
Кроуфорд подчеркивает структурную проблему: «Наши законы возлагают всю ответственность на потребителей, чтобы они оценили, доверяют ли они технологической компании свои данные о здоровье. Это неправильно. Это ставит риск на пользователей вместо того, чтобы требовать от технологических компаний соблюдения четких, обязательных стандартов».
Функция сначала будет доступна для избранных пользователей ChatGPT за пределами ЕС и Великобритании, а в ближайшие недели расширится на веб-версию и платформу iOS. Но независимо от места запуска, дискуссия о данных о здоровье, платформах ИИ и достаточности существующих правовых рамок только усилится.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Запуск ChatGPT Health выявляет серую зону в защите данных о здоровье
Последний шаг OpenAI в области здравоохранения вызывает пристальное внимание со стороны экспертов по вопросам конфиденциальности и защитников прав. Компания представила ChatGPT Health — функцию, которая позволяет пользователям загружать медицинские записи и информацию о здоровье прямо в платформу. Хотя OpenAI позиционирует это как вспомогательный инструмент, разработанный совместно с врачами, запуск вызывает более глубокие вопросы о том, как на самом деле защищаются данные о здоровье в эпоху ИИ.
Технические меры безопасности звучат обнадеживающе — но эксперты считают, что их недостаточно
По словам OpenAI, ChatGPT Health реализует несколько защитных мер: медицинские разговоры остаются зашифрованными и изолированными от обычных чатов, данные не используются для обучения модели, а функция показывает только общую информацию о здоровье, а не персонализированные медицинские советы. Для более важных запросов система отмечает риски и направляет пользователей к реальным специалистам в области здравоохранения.
На бумаге эти меры кажутся надежными. Однако защитники конфиденциальности указывают на фундаментальный пробел. «Даже при обещаниях компании о защите конфиденциальности большинство людей не имеют реальной прозрачности, осмысленного согласия или подлинного контроля над тем, что происходит с их информацией», — предупреждает Дж.Б. Бранч, аналитик по ответственности крупных технологических компаний. «Данные о здоровье требуют большего, чем саморегуляции».
Проблема охваченных HIPAA субъектов
Здесь юридическая ситуация становится неоднозначной. Федеральный закон о конфиденциальности — в частности HIPAA — защищает данные о здоровье, когда они хранятся в определенных медицинских организациях: кабинеты врачей, больницы, страховые компании. Но охваченные HIPAA субъекты представляют собой лишь узкую часть экосистемы данных о здоровье.
Когда компания, разрабатывающая ИИ, или разработчик медицинских приложений хранит ваши данные о здоровье, автоматическая защита по HIPAA не применяется. «Ваш врач обязан соблюдать HIPAA. Ваша страховая компания обязана соблюдать HIPAA», — объясняет Эндрю Кроуфорд, старший советник по политике в Центре демократии и технологий. «Но производители медицинских приложений, компании по производству носимых устройств и платформы ИИ? Эти требования HIPAA к ним не применимы».
Это создает вакуум ответственности. Без всеобъемлющего федерального законодательства о конфиденциальности данных о здоровье, бремя доверия полностью ложится на отдельных пользователей, которые должны решить, доверяют ли они тому, как конкретная платформа обращается с их самыми чувствительными данными.
Почему это важно прямо сейчас
Время запуска ChatGPT Health имеет особое значение. В начале этого года OpenAI сообщил, что более 1 миллиона пользователей еженедельно общаются с чатботом по вопросам суицида — примерно 0,15% от базы пользователей ChatGPT на тот момент. Этот объем подчеркивает, что платформа стала фактическим ресурсом для психического здоровья миллионов, будь то по задумке или случайно.
Запуск специальной функции для здоровья увеличивает как возможности, так и риски. Больше людей, вероятно, будут делиться чувствительной медицинской историей, проблемами психического здоровья и вопросами благополучия с ChatGPT. Протоколы изоляции компании и обязательства не использовать данные для обучения дают некоторую уверенность, но не решают основную уязвимость: что произойдет, если злоумышленники нацелятся на платформу или если политики обработки данных изменятся под руководством нового руководства компании?
Более широкая проблема конфиденциальности
Кроуфорд подчеркивает структурную проблему: «Наши законы возлагают всю ответственность на потребителей, чтобы они оценили, доверяют ли они технологической компании свои данные о здоровье. Это неправильно. Это ставит риск на пользователей вместо того, чтобы требовать от технологических компаний соблюдения четких, обязательных стандартов».
Функция сначала будет доступна для избранных пользователей ChatGPT за пределами ЕС и Великобритании, а в ближайшие недели расширится на веб-версию и платформу iOS. Но независимо от места запуска, дискуссия о данных о здоровье, платформах ИИ и достаточности существующих правовых рамок только усилится.