Ética na IA: Por que é importante, agora, trabalhar numa IA ética


Descubra as principais notícias e eventos de fintech!

Inscreva-se na newsletter do FinTech Weekly

Lido por executivos da JP Morgan, Coinbase, Blackrock, Klarna e mais


A ética na IA é uma das principais preocupações de investidores e analistas, especialmente desde a introdução do ChatGPT pela OpenAI, que se tornou a aplicação de crescimento mais rápido.

A ética é necessária se quisermos que a inteligência artificial não se torne perigosa e seja usada de forma adequada – também no setor de fintech, pois pode ser particularmente perigoso usar IA não devidamente treinada na área financeira.

Por que a ética na IA ganha destaque

A ética na inteligência artificial aparece nas manchetes tanto por motivos positivos quanto negativos.

Enquanto a Microsoft recentemente reduziu seu departamento de IA & Sociedade – deixando apenas 7 pessoas durante uma das ondas de despedimentos que envolveu a empresa, muitos analistas e organizações tentam refletir sobre o tema e entender por que a ética importa.

Isso inclui também organizações internacionais e políticos, algo que talvez possa ajudar os utilizadores comuns – ainda muitas vezes pouco conscientes do progresso da inteligência artificial – a terem a certeza de que a IA não é apenas uma questão de negócios.

Em 23 de novembro de 2021, a UNESCO publicou um documento, “Recomendação sobre a Ética da Inteligência Artificial”, que foi posteriormente adotado pelos 193 Estados-membros.

As recomendações começam com “Considerando plenamente que o rápido desenvolvimento das tecnologias de IA desafia sua implementação ética e governança, bem como o respeito e a proteção da diversidade cultural, e tem o potencial de perturbar padrões e valores éticos locais e regionais”.

A referência ao multiculturalismo é importante no caso da IA.

Como veremos em breve, é importante considerar que nem todos conseguem gerir e usar a IA, e se ela permanecer uma prerrogativa dos profissionais de tecnologia e empresas, pode ser difícil para algumas culturas e segmentos da população acessarem essa tecnologia importante.

Temos IA senciente?

Ainda não temos – pelo menos, não ainda – IA senciente.

Até agora, as ferramentas baseadas em IA são treinadas por pessoas e dados. Se, sob uma certa perspectiva, isso significa que a IA ainda não pode ser considerada demasiado perigosa, também significa que, se as pessoas fornecerem dados tendenciosos, as respostas da IA também serão tendenciosas.

O mesmo se aplica se os dados e o treinamento forem fornecidos apenas por certos profissionais e em determinados países.

Segundo o MIT, a disparidade de género em STEM (ciência, tecnologia, engenharia e matemática) ainda é extremamente significativa, e as mulheres com empregos compatíveis com seus estudos nessas áreas representam apenas 28%.

Um relatório publicado pela IDC (International Data Corporation), o Guia de Investimento Mundial em Inteligência Artificial, indica que os investimentos em IA devem atingir 154 mil milhões de dólares em 2023. Mas onde esses investimentos estão concentrados?

Conforme relatado pela InvestGlass, os países onde os investimentos estão concentrados são os Estados Unidos e a China. Japão, Canadá e Coreia do Sul também estão aumentando seus investimentos e estratégias envolvendo IA. A União Europeia não é a região mais avançada em termos de inteligência artificial – embora países como Alemanha e França estejam desenvolvendo um ambiente interessante para IA.

Todos esses dados mostram que nem todos estão envolvidos nesta revolução, e isso – claro – pode ser prejudicial ao desenvolvimento ético e valioso da IA.

Se a IA permanecer demasiado concentrada em certos campos e países, os dados que ela produzir serão necessariamente tendenciosos.

Se o multiculturalismo ainda não for devidamente abordado, os investidores já buscam uma tecnologia que seja socialmente responsável e ética.

O que os investidores pensam sobre IA?

Nos últimos anos, uma maior consciência sobre responsabilidade social também levou os investidores a preferir negócios que não prejudiquem a sociedade.

No caso da inteligência artificial, é difícil não apenas criar frameworks globais para regular a tecnologia, mas também é difícil para os investidores entenderem completamente o que é realmente ético em termos de IA.

A IA é relativamente nova, e dar-lhe um contexto adequado é ainda mais difícil pelo fato de estar em constante mudança.

Por isso, os investidores usam diferentes métodos para avaliar os possíveis desenvolvimentos futuros de uma empresa de IA, bem como sua ética ao longo do tempo e com as mudanças.

Segundo a TechCrunch, parece que os investidores podem achar mais útil avaliar as características e qualidades do proprietário do projeto, para entender melhor como ele ou ela pode reagir a novos frameworks e como desejam gerenciar um projeto de IA apesar das mudanças constantes.

Assim, mesmo falando de IA, os humanos ainda têm a última palavra – e quanto mais éticas forem as pessoas que usam IA, mais ética será a IA no futuro.

Pensamentos finais

A ética na IA não é um tema fácil, e não é simples avaliar como a IA pode ser ética.

A IA não é senciente, não possui alma – independentemente de como uma alma possa ser definida.

Apesar disso, é fundamental trabalhar na ética da IA agora, para evitar ao máximo os perigos no futuro.


Se quer saber mais sobre notícias, eventos e insights de fintech, inscreva-se na newsletter do FinTech Weekly!

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar