Этика ИИ: Почему сейчас важно работать над этичным искусственным интеллектом


Узнайте о лучших новостях и событиях в финтехе!

Подпишитесь на рассылку FinTech Weekly

Читают руководители JP Morgan, Coinbase, Blackrock, Klarna и других


Этика ИИ является одной из основных забот инвесторов и аналитиков, особенно с момента появления ChatGPT от OpenAI, который стал самым быстрорастущим приложением.

Этика необходима, если мы хотим, чтобы искусственный интеллект не стал опасным и использовался правильно - также в отношении финтех-индустрии, поскольку использование неправильно обученного ИИ в финансах может быть особенно опасным.

Почему этика ИИ попадает в заголовки

Этика в искусственном интеллекте попадает в заголовки как по положительным, так и по отрицательным причинам.

В то время как Microsoft недавно сократила свой отдел ИИ и общества – оставив всего 7 человек во время одной из волн увольнений, затронувших компанию, многие аналитики и организации пытаются осмыслить эту тему и размышляют о том, почему этика важна.

Это также касается международных организаций и политики, что, возможно, может помочь повседневным пользователям – возможно, все еще слишком неосведомленным о прогрессе искусственного интеллекта – убедиться в том, что ИИ это не только бизнес-тема.

23 ноября 2021 года ЮНЕСКО опубликовало текст «Рекомендации по этике искусственного интеллекта», который затем был принят 193 государствами-членами.

Рекомендации начинаются с «Полностью учитывая, что быстрое развитие технологий ИИ ставит под сомнение их этическое внедрение и управление, а также уважение и защиту культурного многообразия, и может разрушить местные и региональные этические стандарты и ценности».

Ссылка на мультикультурализм важна в случае ИИ.

Как мы увидим через мгновение, важно учитывать, что не все способны управлять и использовать ИИ, и если это останется прерогативой технических профессионалов и предприятий, некоторым культурам и сегментам населения может быть трудно получить доступ к этой важной технологии.

Есть ли у нас чувствительный ИИ?

У нас нет – по крайней мере, пока – чувствительного ИИ.

На данный момент инструменты на базе ИИ обучаются** людьми и данными**. С одной стороны, это означает, что ИИ пока нельзя считать слишком опасным, но с другой стороны, если люди предоставляют предвзятые данные, то и ответы, предоставленные ИИ, будут предвзятыми.

То же самое относится к данным и обучению, предоставленным только определенными профессионалами и в определенных странах.

Как сообщает MIT, гендерный разрыв в STEM (наука, технологии, инженерия и математика) все еще крайне значителен, и женщин с работой, соответствующей их учебе в одной из этих областей, всего 28%.

Отчет, опубликованный IDC (International Data Corporation), Всемирный гид по расходам на искусственный интеллект, сообщает нам, что инвестиции в ИИ должны достигнуть 154 миллиардов долларов в 2023 году. Но где сосредоточены эти инвестиции?

Как сообщает InvestGlass, страны, где сосредоточены инвестиции, это Соединенные Штаты и Китай. Также Япония, Канада и Южная Корея увеличивают инвестиции и стратегии, связанные с ИИ. Европейский Союз не является самым продвинутым регионом в отношении искусственного интеллекта – даже если некоторые страны, такие как Германия и Франция, развивают интересную среду для искусственного интеллекта.

Все эти данные показывают, что не все участвуют в этой революции, и это – конечно – может быть вредно для ценного и этичного развития ИИ.

Если ИИ останется слишком сосредоточенным в определенных областях и странах, данные, которые он будет производить, будут неизбежно предвзятыми.

Если мультикультурализм пока не может быть должным образом учтен, инвесторы уже ищут технологии, которые могут быть социально ответственными и этичными.

Что думают инвесторы об ИИ?

В последние годы общая повышенная осведомленность о социальной ответственности также привела инвесторов к предпочтению бизнеса, который не вреден для общества.

В случае искусственного интеллекта сложно не только создать глобальные рамки, направленные на регулирование технологии, но и сложно инвесторам полностью понять, что на самом деле является этичным в терминах искусственного интеллекта.

ИИ относительно новый, и дать ему правильный контекст еще сложнее из-за того, что он постоянно меняется.

Вот почему инвесторы используют различные методы для оценки возможных будущих разработок бизнеса ИИ, а также его этики с течением времени и внесением изменений.

Как сообщает TechCrunch, похоже, что инвесторы могут найти более полезным оценивать характеристики и качества владельца проекта, чтобы лучше понять, как он или она могут реагировать на новые рамки и как они хотят управлять проектом ИИ, несмотря на постоянные изменения.

Таким образом, даже если мы говорим об ИИ, люди все еще имеют последнее слово – и чем более этичными будут люди, использующие ИИ, тем более этичным будет ИИ в будущем.

Заключительные мысли

Этика ИИ – это не легкая тема, и трудно оценить, как ИИ может быть этичным.

ИИ не является чувствительным, у него нет души – независимо от того, как можно определить душу.

Несмотря на это, крайне важно работать над этикой ИИ прямо сейчас, чтобы избежать как можно большего количества опасностей в будущем.


Если вы хотите узнать больше о новостях, событиях и аналитике в финтехе, подписывайтесь на рассылку FinTech Weekly!

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$2.27KДержатели:2
    0.00%
  • РК:$2.37KДержатели:2
    1.04%
  • РК:$2.24KДержатели:1
    0.00%
  • РК:$2.24KДержатели:1
    0.00%
  • РК:$2.25KДержатели:1
    0.00%
  • Закрепить