Ética de IA: Por que é importante, agora, trabalhar numa IA ética


Descubra as principais notícias e eventos de fintech!

Inscreva-se na newsletter do FinTech Weekly

Lida por executivos do JP Morgan, Coinbase, Blackrock, Klarna e mais


A ética na IA é uma das principais preocupações de investidores e analistas, especialmente desde a introdução do ChatGPT da OpenAI, que se tornou a aplicação de crescimento mais rápido.

A ética é necessária se quisermos que a inteligência artificial não se torne perigosa e seja usada de forma adequada - também no que diz respeito à indústria fintech, pois pode ser particularmente perigoso usar IA não devidamente treinada na área financeira.

Por que a ética na IA faz manchetes

A ética na inteligência artificial faz manchetes por motivos positivos e negativos.

Enquanto a Microsoft recentemente reduziu seu departamento de IA & Sociedade – deixando apenas 7 pessoas durante uma das ondas de despedimentos que envolveu a empresa, muitos analistas e organizações tentam refletir sobre o tema e entender por que a ética importa.

Isto também inclui organizações internacionais e políticas, algo que talvez possa ajudar os utilizadores comuns – ainda demasiado inconscientes do progresso da inteligência artificial – a ter a certeza de que a IA não é apenas um tema de negócios.

Em 23 de novembro de 2021, a UNESCO lançou um texto, “Recomendação sobre a Ética da Inteligência Artificial”, que foi posteriormente adotado pelos 193 Estados-membros.

As recomendações começam com “Levando totalmente em conta que o rápido desenvolvimento das tecnologias de IA desafia sua implementação ética e governança, bem como o respeito e a proteção da diversidade cultural, e tem o potencial de perturbar padrões e valores éticos locais e regionais”.

A referência ao multiculturalismo é importante no caso da IA.

Como veremos em breve, é importante considerar que nem todos são capazes de gerir e usar a IA, e se ela permanecer uma prerrogativa dos profissionais de tecnologia e empresas, pode ser difícil para algumas culturas e segmentos da população aceder a esta tecnologia importante.

Temos IA senciente?

Não temos – pelo menos, ainda não – IA senciente.

Até agora, as ferramentas baseadas em IA são** treinadas por pessoas e dados**. Se sob uma certa perspetiva isso significa que a IA ainda não pode ser considerada demasiado perigosa, também significa que, se as pessoas fornecerem dados tendenciosos, as respostas fornecidas pela IA também serão tendenciosas.

O mesmo se aplica se os dados e o treino forem fornecidos apenas por certos profissionais e em certos países.

Como relatado pelo MIT, a disparidade de género em STEM (ciência, tecnologia, engenharia e matemática) ainda é extremamente significativa, e as mulheres com empregos compatíveis com os seus estudos numa dessas áreas representam apenas 28%.

Um relatório publicado pela IDC (International Data Corporation), o Guia Mundial de Investimentos em Inteligência Artificial, indica que os investimentos em IA devem atingir $154 bilhões em 2023. Mas onde estão concentrados esses investimentos?

Conforme relatado pela InvestGlass, os países onde os investimentos estão concentrados são os Estados Unidos e a China. Além disso, Japão, Canadá e Coreia do Sul estão a aumentar os investimentos e estratégias que envolvem IA. A União Europeia não é a região mais avançada no que diz respeito à inteligência artificial – mesmo que alguns países como Alemanha e França estejam a desenvolver um ambiente interessante para IA.

Todos estes dados mostram que nem todos estão envolvidos nesta revolução, e isso – claro – pode ser prejudicial a um desenvolvimento valioso e ético da IA.

Se a IA permanecer demasiado concentrada em certos campos e países, os dados que produzirá serão necessariamente tendenciosos.

Se o multiculturalismo ainda pode não estar devidamente abordado, os investidores já procuram uma tecnologia que seja socialmente responsável e ética.

O que pensam os investidores sobre IA?

Nos últimos anos, uma maior consciência relacionada com responsabilidade social também levou os investidores a preferir negócios que não sejam prejudiciais às sociedades.

No caso da inteligência artificial, é difícil não apenas criar quadros globais destinados a regular a tecnologia, mas também é difícil para os investidores compreenderem completamente o que é realmente ético em termos de IA.

A IA é relativamente nova, e dar-lhe um contexto adequado torna-se ainda mais difícil pelo facto de estar em constante mudança.

Por isso, os investidores estão a usar métodos diferentes para avaliar os possíveis desenvolvimentos futuros de um negócio de IA, bem como a sua ética à medida que o tempo passa e as mudanças são feitas.

Conforme relatado pelo TechCrunch, parece que os investidores podem achar mais útil avaliar as características e qualidades do proprietário do projeto, para entender melhor como ele ou ela pode reagir a novos quadros e como querem gerir um projeto de IA apesar das mudanças constantes.

Assim, mesmo falando de IA, os humanos ainda têm a última palavra – e quanto mais éticas forem as pessoas que usam IA, mais ética será a IA no futuro.

Reflexões finais

A ética na IA não é um tema fácil, e não é simples avaliar como a IA pode ser ética.

A IA não é senciente, não tem alma – independentemente de como uma alma possa ser definida.

Apesar disso, é fundamental trabalhar na ética da IA neste momento, para evitar ao máximo os perigos no futuro.


Se quer saber mais sobre notícias, eventos e insights de fintech, inscreva-se na newsletter do FinTech Weekly!

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar