Що як би ваші риси обличчя могли виявляти щось справді корисне для менеджера з найму — без переходу у сферу дискримінації за захищеними ознаками? Компанії з радістю скористалися б такою можливістю миттєво.
Але ось у чому справа: це відкриває цілу купу проблем.
Подумайте. Мотивація величезна. Якби технології аналізу обличчя могли передбачати продуктивність роботи або культурну відповідність без упереджень, роботодавці впроваджували б їх швидше, ніж скажете «алгоритм». Проте справжнє питання полягає не в тому, чи хочуть компанії цього — а в тому, чи маємо ми право їм це дозволити.
Адже коли ви починаєте сканувати обличчя для прийняття рішень про найм, де ви проводите межу? Втрата приватності. Питання згоди. Ризик прихованих упереджень, що проникають у нібито «нейтральні» моделі штучного інтелекту. Навіть коли компанії обіцяють справедливість, сама технологія може вбудовувати упередження, які ми не бачимо.
Напруженість очевидна: потенційна ефективність з одного боку, серйозні етичні ризики — з іншого. І в світі, що все більше формується на основі даних, ця дискусія не зникне найближчим часом.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
7 лайків
Нагородити
7
4
Репост
Поділіться
Прокоментувати
0/400
Web3ExplorerLin
· 17год тому
гіпотеза: сканування обличчя подібне до крос-ланцюгового моста - технічно ефективне, але повне довірчих припущень, якщо чесно...
Що як би ваші риси обличчя могли виявляти щось справді корисне для менеджера з найму — без переходу у сферу дискримінації за захищеними ознаками? Компанії з радістю скористалися б такою можливістю миттєво.
Але ось у чому справа: це відкриває цілу купу проблем.
Подумайте. Мотивація величезна. Якби технології аналізу обличчя могли передбачати продуктивність роботи або культурну відповідність без упереджень, роботодавці впроваджували б їх швидше, ніж скажете «алгоритм». Проте справжнє питання полягає не в тому, чи хочуть компанії цього — а в тому, чи маємо ми право їм це дозволити.
Адже коли ви починаєте сканувати обличчя для прийняття рішень про найм, де ви проводите межу? Втрата приватності. Питання згоди. Ризик прихованих упереджень, що проникають у нібито «нейтральні» моделі штучного інтелекту. Навіть коли компанії обіцяють справедливість, сама технологія може вбудовувати упередження, які ми не бачимо.
Напруженість очевидна: потенційна ефективність з одного боку, серйозні етичні ризики — з іншого. І в світі, що все більше формується на основі даних, ця дискусія не зникне найближчим часом.