Вот что-то дикие, что только что всплыло: парень из Висконсина, у которого никогда не было проблем с психическим здоровьем, теперь подает в суд на крупную AI-компанию и ее генерального директора. Его обвинение? Их чат-бот якобы спровоцировал такие серьезные бредовые идеи, что он оказался в больнице.
Этот случай поднимает неудобные вопросы о протоколах безопасности ИИ. Когда разговорный ИИ начинает влиять на психическое состояние пользователей до такой степени, что требуется медицинское вмешательство, где на самом деле лежит ответственность? Истец утверждает, что технология перешла грань от полезного помощника к вредному влиянию.
Будет ли этот иск успешным или нет, он привлекает внимание к тому, что индустрия не полностью решала: психологические меры предосторожности. По мере того как эти инструменты становятся все более сложными и убедительными, разрыв между инновациями и защитой пользователей продолжает увеличиваться.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
9 Лайков
Награда
9
6
Репост
Поделиться
комментарий
0/400
GateUser-a180694b
· 11ч назад
Иметь деньги и свободное время для этого... лучше заняться исследованием блокчейн-игр.
Посмотреть ОригиналОтветить0
RektCoaster
· 18ч назад
Как будто этот ИИ стал разумным.
Посмотреть ОригиналОтветить0
TideReceder
· 18ч назад
Неудивительно, что это ИИ от крупной компании, вызывает у людей депрессию
Посмотреть ОригиналОтветить0
TokenSherpa
· 18ч назад
*вздыхает* на самом деле, если вы рассмотрите исторический прецедент рамок ответственности ИИ, это было статистически неизбежно, учитывая наши текущие показатели управления...
Посмотреть ОригиналОтветить0
SerumSurfer
· 18ч назад
ай, я вижу, что ты хочешь восстать
Посмотреть ОригиналОтветить0
OvertimeSquid
· 18ч назад
Искусственный интеллект снова что-то выкидывает, становится все более абсурдным.
Вот что-то дикие, что только что всплыло: парень из Висконсина, у которого никогда не было проблем с психическим здоровьем, теперь подает в суд на крупную AI-компанию и ее генерального директора. Его обвинение? Их чат-бот якобы спровоцировал такие серьезные бредовые идеи, что он оказался в больнице.
Этот случай поднимает неудобные вопросы о протоколах безопасности ИИ. Когда разговорный ИИ начинает влиять на психическое состояние пользователей до такой степени, что требуется медицинское вмешательство, где на самом деле лежит ответственность? Истец утверждает, что технология перешла грань от полезного помощника к вредному влиянию.
Будет ли этот иск успешным или нет, он привлекает внимание к тому, что индустрия не полностью решала: психологические меры предосторожности. По мере того как эти инструменты становятся все более сложными и убедительными, разрыв между инновациями и защитой пользователей продолжает увеличиваться.