Этика ИИ: Почему сейчас важно работать над этичным искусственным интеллектом


Откройте для себя лучшие новости и события в сфере финансовых технологий!

Подпишитесь на рассылку FinTech Weekly

Читают руководители JP Morgan, Coinbase, Blackrock, Klarna и других


Этика искусственного интеллекта является одной из главных забот инвесторов и аналитиков, особенно с появлением ChatGPT от OpenAI, который стал самым быстрорастущим приложением.

Этика необходима, если мы хотим, чтобы искусственный интеллект не стал опасным и использовался должным образом – также в отношении финансовых технологий, поскольку использование неправильно обученного ИИ в финансах может быть особенно опасным.

Почему этика ИИ попадает в заголовки

Этика в искусственном интеллекте попадает в заголовки как по положительным, так и по отрицательным причинам.

Хотя Microsoft недавно сократила свой отдел ИИ и общества – оставив только 7 человек в ходе одной из волны сокращений, затронувших компанию, многие аналитики и организации пытаются осмыслить эту тему и размышляют о том, почему этика важна.

Это также включает международные организации и политику, что, возможно, может помочь обычным пользователям – возможно, все еще слишком неосведомленным о прогрессе искусственного интеллекта – быть уверенными, что ИИ – это не только бизнес-тема.

23 ноября 2021 года ЮНЕСКО выпустила текст «Рекомендации по этике искусственного интеллекта», который затем был принят 193 государствами-членами.

Рекомендации открываются словами: «Полностью учитывая, что стремительное развитие технологий ИИ ставит под сомнение их этическую реализацию и управление, а также уважение и защиту культурного разнообразия и может нарушить местные и региональные этические стандарты и ценности».

Ссылка на мультикультурализм важна в случае ИИ.

Как мы увидим через мгновение, важно учитывать, что не все могут управлять и использовать ИИ, и если он останется прерогативой технических специалистов и предприятий, некоторым культурам и сегментам населения может быть трудно получить доступ к этой важной технологии.

Есть ли у нас сознательный ИИ?

У нас нет – по крайней мере, пока – сознательного ИИ.

На данный момент инструменты на основе ИИ обучаются людьми и данными. С одной стороны, это означает, что ИИ пока нельзя считать слишком опасным, но с другой стороны, если люди предоставляют предвзятые данные, то и ответы, предоставляемые ИИ, будут предвзятыми.

То же самое касается и данных, и обучения, предоставляемых только определенными специалистами и в определенных странах.

Как сообщает MIT, гендерный разрыв в STEM (наука, технологии, инженерия и математика) по-прежнему чрезвычайно значителен, и женщин, работающих по специальности в одной из этих областей, всего 28%.

В отчете, опубликованном IDC (International Data Corporation), в Руководстве по мировым расходам на искусственный интеллект, говорится, что инвестиции в ИИ должны достичь 154 миллиардов долларов в 2023 году. Но где сосредоточены эти инвестиции?

Как сообщает InvestGlass, страны, где сосредоточены инвестиции, – это США и Китай. Также Япония, Канада и Южная Корея увеличивают инвестиции и стратегии, связанные с ИИ. Европейский Союз не является наиболее продвинутым регионом в сфере искусственного интеллекта - даже если такие страны, как Германия и Франция, развивают интересную среду для искусственного интеллекта.

Все эти данные показывают, что не все участвуют в этой революции, и это, конечно, может быть вредным для ценного и этичного развития ИИ.

Если ИИ останется слишком сосредоточенным в определенных областях и странах, данные, которые он будет производить, будут обязательно предвзятыми.

Если мультикультурализм, возможно, еще не был должным образом учтен, инвесторы уже ищут технологии, которые могут быть социально ответственными и этичными.

Что думают инвесторы об ИИ?

В последние годы общее повышенное осознание социальной ответственности также привело инвесторов к предпочтению бизнесов, которые не наносят вреда обществу.

В случае искусственного интеллекта трудно не только создать глобальные рамки для регулирования технологии, но и инвесторам трудно полностью понять, что на самом деле является этичным в терминах искусственного интеллекта.

ИИ относительно новый, и дать ему правильный контекст становится еще сложнее из-за того, что он постоянно меняется.

Вот почему инвесторы используют различные методы для оценки возможных будущих разработок бизнеса в области ИИ, а также его этики по мере того, как время проходит и происходят изменения.

Как сообщает TechCrunch, похоже, что инвесторам может быть полезнее оценивать характеристики и качества владельца проекта, чтобы лучше понять, как он или она могут реагировать на новые рамки и как они хотят управлять проектом ИИ, несмотря на постоянные изменения.

Таким образом, даже если мы говорим об ИИ, люди по-прежнему имеют последнее слово – и чем более этичными будут люди, использующие ИИ, тем более этичным будет ИИ в будущем.

Заключительные мысли

Этика ИИ – это непростая тема, и оценить, как ИИ может быть этичным, не так уж и просто.

ИИ не имеет сознания, у него нет души – независимо от того, как можно определить душу.

Тем не менее, крайне важно работать над этикой ИИ прямо сейчас, чтобы избежать как можно большего числа опасностей в будущем.


Если вы хотите узнать больше о новостях, событиях и мнениях в сфере финансовых технологий, подписывайтесь на рассылку FinTech Weekly!

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$2.27KДержатели:2
    0.00%
  • РК:$2.33KДержатели:2
    0.00%
  • РК:$2.24KДержатели:1
    0.00%
  • РК:$2.24KДержатели:1
    0.00%
  • РК:$2.25KДержатели:1
    0.00%
  • Закрепить