Ética na IA: Por que é importante, agora, trabalhar numa IA ética


Descubra as principais notícias e eventos de fintech!

Inscreva-se na newsletter do FinTech Weekly

Lida por executivos do JP Morgan, Coinbase, Blackrock, Klarna e mais


A ética na IA é uma das principais preocupações de investidores e analistas, especialmente desde a introdução do ChatGPT da OpenAI, que se tornou a aplicação de crescimento mais rápido.

A ética é necessária se quisermos que a inteligência artificial não se torne perigosa e seja usada de forma adequada - também no que diz respeito à indústria fintech, pois pode ser particularmente perigoso usar IA não devidamente treinada em finanças.

Por que a ética na IA faz manchetes

A ética na inteligência artificial faz manchetes por razões tanto positivas quanto negativas.

Enquanto a Microsoft recentemente reduziu seu departamento de IA & Sociedade – deixando apenas 7 pessoas durante uma das ondas de despedimentos que envolveram a empresa, muitos são os analistas e organizações que tentam refletir sobre o tema e entender por que a ética importa.

Isso também inclui organizações internacionais e políticas, algo que talvez possa ajudar os utilizadores comuns – talvez ainda demasiado inconscientes do progresso da inteligência artificial – a ter a certeza de que a IA não é apenas um tema de negócios.

Em 23 de novembro de 2021, a UNESCO lançou um texto, “Recomendação sobre a Ética da Inteligência Artificial”, que foi posteriormente adotado pelos 193 Estados-membros.

As recomendações começam com “Levando plenamente em consideração que o rápido desenvolvimento das tecnologias de IA desafia sua implementação ética e governança, bem como o respeito e a proteção da diversidade cultural, e tem o potencial de perturbar padrões e valores éticos locais e regionais”.

A referência ao multiculturalismo é importante no caso da IA.

Como veremos em breve, é importante considerar que nem todos são capazes de gerir e usar a IA, e se ela permanecer uma prerrogativa dos profissionais de tecnologia e empresas, pode ser difícil para algumas culturas e segmentos da população aceder a esta tecnologia importante.

A IA sentiente existe?

Não temos – pelo menos, ainda não – IA sentiente.

Até agora, as ferramentas baseadas em IA são** treinadas por pessoas e dados**. Se sob uma certa perspetiva isso significa que a IA ainda não pode ser considerada demasiado perigosa, também significa que se as pessoas fornecerem dados tendenciosos, as respostas fornecidas pela IA também serão tendenciosas.

O mesmo se aplica se os dados e o treino forem fornecidos apenas por certos profissionais e em certos países.

Como relatado pelo MIT, a disparidade de género em STEM (ciência, tecnologia, engenharia e matemática) ainda é extremamente significativa, e as mulheres com empregos compatíveis com os seus estudos nestas áreas representam apenas 28%.

Um relatório publicado pela IDC (International Data Corporation), o Guia de Investimento Mundial em Inteligência Artificial, indica que os investimentos em IA devem atingir 154 mil milhões de dólares em 2023. Mas onde estão concentrados esses investimentos?

Conforme relatado pela InvestGlass, os países onde os investimentos estão concentrados são os Estados Unidos e a China. Além disso, Japão, Canadá e Coreia do Sul estão a aumentar os investimentos e estratégias que envolvem IA. A União Europeia não é a região mais avançada em termos de inteligência artificial – mesmo que alguns países, como Alemanha e França, estejam a desenvolver um ambiente interessante para IA.

Todos estes dados mostram que nem todos estão envolvidos nesta revolução, e isso – claro – pode ser prejudicial a um desenvolvimento valioso e ético da IA.

Se a IA permanecer demasiado concentrada em certos campos e países, os dados que produzir serão necessariamente tendenciosos.

Se o multiculturalismo ainda pode não estar devidamente abordado, os investidores já procuram por uma tecnologia que seja socialmente responsável e ética.

O que pensam os investidores sobre a IA?

Nos últimos anos, uma maior consciência relacionada com responsabilidade social também levou os investidores a preferir negócios que não sejam prejudiciais às sociedades.

No caso da inteligência artificial, é difícil não apenas criar quadros globais destinados a regular a tecnologia, mas também é difícil para os investidores compreenderem completamente o que é realmente ético em termos de IA.

A IA é relativamente nova, e dar-lhe um contexto adequado torna-se ainda mais difícil pelo facto de estar em constante mudança.

Por isso, os investidores estão a usar métodos diferentes para avaliar os possíveis desenvolvimentos futuros de um negócio de IA, bem como a sua ética à medida que o tempo passa e as mudanças são feitas.

Conforme relatado pelo TechCrunch, parece que os investidores podem achar mais útil avaliar as características e qualidades do proprietário do projeto, para entender melhor como ele ou ela pode reagir a novos quadros e como querem gerir um projeto de IA apesar das mudanças constantes.

Assim, mesmo falando de IA, os humanos ainda têm a última palavra – e quanto mais éticas forem as pessoas que usam a IA, mais ética será a IA no futuro.

Pensamentos finais

A ética na IA não é um tema fácil, e não é fácil avaliar como a IA pode ser ética.

A IA não é sentiente, não tem alma – independentemente de como uma alma possa ser definida.

Apesar disso, é fundamental trabalhar na ética da IA neste momento, para evitar ao máximo os perigos no futuro.


Se quer saber mais sobre notícias, eventos e insights de fintech, inscreva-se na newsletter do FinTech Weekly!

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar