Этика ИИ: Почему сейчас важно работать над этичным ИИ


Откройте для себя лучшие новости и события в финтехе!

Подпишитесь на рассылку FinTech Weekly

Читают руководители JP Morgan, Coinbase, Blackrock, Klarna и другие


Этика ИИ — одна из главных забот инвесторов и аналитиков, особенно с момента появления ChatGPT от OpenAI, который стал самым быстрорастущим приложением.

Этика необходима, если мы хотим, чтобы искусственный интеллект не стал опасным и использовался правильно — также в сфере финтеха, поскольку использование неправильно обученного ИИ в финансах может быть особенно опасным.

Почему этика ИИ становится в центре внимания

Этика в искусственном интеллекте привлекает внимание как по положительным, так и по отрицательным причинам.

В то время как Microsoft недавно сократила свой отдел ИИ и общества — оставив всего 7 человек во время одной из волн сокращений, затронувших компанию, — многие аналитики и организации пытаются подумать над этой темой и размышляют о том, почему этика важна.

Это также включает международные организации и политику, что, возможно, поможет обычным пользователям — возможно, всё ещё слишком неосведомлённым о прогрессе искусственного интеллекта — убедиться, что ИИ — это не только бизнес-тема.

23 ноября 2021 года ЮНЕСКО опубликовало текст «Рекомендации по этике искусственного интеллекта», который затем был принят 193 государствами-членами.

Рекомендации начинаются с фразы: «Принимая полностью во внимание, что быстрое развитие технологий ИИ ставит под угрозу их этическую реализацию и управление, а также уважение и защиту культурного разнообразия, и имеет потенциал нарушить местные и региональные этические стандарты и ценности».

Упоминание мультикультурализма важно в контексте ИИ.

Как мы увидим чуть позже, важно учитывать, что не все способны управлять и использовать ИИ, и если он останется прерогативой технологических профессионалов и предприятий, некоторым культурам и сегментам населения может быть трудно получить доступ к этой важной технологии.

Есть ли у нас осознанный ИИ?

У нас — по крайней мере, пока — нет осознанного ИИ.

Пока что, инструменты на базе ИИ обучаются людьми и данными. Если с определённой точки зрения это означает, что ИИ пока нельзя считать слишком опасным, то также означает, что если люди предоставляют предвзятые данные, то и ответы ИИ будут предвзяты.

То же самое касается случаев, когда данные и обучение предоставляются только определёнными специалистами и в определённых странах.

Как сообщает MIT, гендерный разрыв в STEM (наука, технология, инженерия и математика) всё ещё очень значителен, и женщины, занимающие работу, соответствующую их образованию в одной из этих областей, составляют всего 28%.

Отчёт, опубликованный IDC (International Data Corporation), — «Глобальный гид по расходам на искусственный интеллект», — говорит, что инвестиции в ИИ должны достичь $154 миллиардов в 2023 году. Но где сосредоточены эти инвестиции?

Как сообщает InvestGlass, страны, где инвестиции сосредоточены, — это США и Китай. Также Япония, Канада и Южная Корея увеличивают инвестиции и стратегии, связанные с ИИ. Европейский союз не является самой развитой областью в сфере искусственного интеллекта — хотя такие страны, как Германия и Франция, развивают интересную среду для ИИ.

Все эти данные показывают, что не все участвуют в этой революции, и это, конечно, может негативно сказаться на ценностном и этическом развитии ИИ.

Если ИИ останется слишком сосредоточенным в определённых областях и странах, данные, которые он будет производить, обязательно будут предвзятыми.

Если мультикультурализм пока ещё не полностью учтён, инвесторы уже ищут технологию, которая могла бы быть социально ответственной и этичной.

Что думают инвесторы об ИИ?

За последние годы возросшее осознание социальной ответственности также привело инвесторов к предпочтению бизнесов, не наносящих вред обществу.

В случае искусственного интеллекта трудно не только создать глобальные рамки для регулирования технологии, но и полностью понять, что на самом деле является этичным в контексте ИИ.

ИИ относительно нов и его правильное понимание усложняется тем, что он постоянно меняется.

Именно поэтому инвесторы используют разные методы для оценки возможных будущих разработок ИИ-бизнеса, а также его этики со временем и по мере внесения изменений.

Как сообщает TechCrunch, кажется, что инвесторам может быть более полезно оценивать характеристики и качества владельца проекта, чтобы лучше понять, как он или она может реагировать на новые рамки и как они хотят управлять проектом ИИ, несмотря на постоянные изменения.

Так что, даже говоря об ИИ, последнее слово всё равно за человеком — и чем более этичны люди, использующие ИИ, тем более этичным будет ИИ в будущем.

Заключительные мысли

Этика ИИ — не простая тема, и трудно оценить, как ИИ может быть этичным.

ИИ не обладает сознанием, у него нет души — независимо от того, как можно определить душу.

Несмотря на это, крайне важно сейчас работать над этикой ИИ, чтобы избежать как можно большего количества опасностей в будущем.


Если хотите больше узнать о новостях, событиях и инсайтах в финтехе, подпишитесь на рассылку FinTech Weekly!

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить