Considerações éticas na implementação do DeepSeek AI em fintech


O Devin Partida é Diretor(a)-Chefe de Redação da ReHack. Como escritora, o seu trabalho foi destaque na Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf e outras.


Descubra as principais notícias e eventos de fintech!

Subscreva a newsletter da FinTech Weekly

Lida por executivos na JP Morgan, Coinbase, Blackrock, Klarna e mais


A inteligência artificial (IA) é uma das tecnologias mais promissoras, mas também única e particularmente preocupante, na fintech hoje. Agora que a DeepSeek enviou ondas de choque por todo o sector de IA, as suas possibilidades e armadilhas específicas exigem atenção.

Embora o ChatGPT tenha levado a IA generativa para o mainstream em 2022, a DeepSeek levou-a a novos patamares quando o seu modelo DeepSeek-R1 foi lançado em 2025.

O algoritmo é de código aberto e gratuito, mas tem sido executado num nível semelhante ao de alternativas proprietárias pagas. Como tal, é uma oportunidade de negócio tentadora para empresas de fintech que pretendem capitalizar em IA, mas também levanta algumas questões éticas.


Leituras recomendadas:

*   **O modelo R1 da DeepSeek Fomenta o Debate sobre o Futuro do Desenvolvimento de IA**
*   **O modelo de IA da DeepSeek: Oportunidade e Risco para Pequenas Empresas de Tecnologia**

Privacidade de Dados

Tal como acontece com muitas aplicações de IA, a privacidade de dados é uma preocupação. Grandes modelos de linguagem (LLMs) como a DeepSeek exigem uma quantidade substancial de informação, e num sector como a fintech, grande parte desses dados pode ser sensível.

A DeepSeek tem ainda a complicação adicional de ser uma empresa chinesa. O governo da China pode aceder a toda a informação em centros de dados detidos por empresas chinesas ou solicitar dados a empresas dentro do país. Consequentemente, o modelo pode apresentar riscos relacionados com espionagem estrangeira e propaganda.

As violações de dados por terceiros são outra preocupação. A DeepSeek já sofreu uma fuga que expôs mais de 1 milhão de registos, o que pode lançar dúvidas sobre a segurança das ferramentas de IA.

Viés de IA

Modelos de machine learning como a DeepSeek são propensos a viés. Como os modelos de IA são tão eficazes a detectar e a aprender com padrões subtis que os humanos podem não ver, podem adotar preconceitos inconscientes a partir dos seus dados de treino. Ao aprenderem com essa informação enviesada, podem perpetuar e agravar problemas de desigualdade.

Esses receios são particularmente evidentes na finança. Como as instituições financeiras historicamente têm negado oportunidades a minorias, grande parte dos seus dados históricos mostra um viés significativo. Treinar a DeepSeek nestes conjuntos de dados pode levar a ações ainda mais enviesadas, como a IA negar empréstimos ou hipotecas com base na etnia de alguém, em vez de na sua capacidade de crédito.

Confiança do Consumidor

À medida que questões relacionadas com IA têm povoado os títulos, o público em geral tornou-se cada vez mais desconfiado destes serviços. Isso pode levar a uma erosão da confiança entre um negócio de fintech e a sua clientela se não gerir estas preocupações de forma transparente.

A DeepSeek pode enfrentar aqui uma barreira única. A empresa terá construído o seu modelo por apenas 6 milhões de dólares e, por ser uma empresa chinesa em rápido crescimento, pode lembrar as pessoas das preocupações de privacidade que afetaram a TikTok. O público pode não estar entusiasmado por confiar num modelo de IA desenvolvido rapidamente e com baixo orçamento com os seus dados, especialmente quando o governo chinês pode ter alguma influência.

Como garantir uma Implementação Segura e Ética da DeepSeek

Estas considerações éticas não significam que as empresas de fintech não possam usar a DeepSeek com segurança, mas salientam a importância de uma implementação cuidadosa. As organizações podem implementar a DeepSeek de forma ética e segura, seguindo estas melhores práticas.

Executar a DeepSeek em Servidores Locais

Um dos passos mais importantes é executar a ferramenta de IA em centros de dados nacionais. Embora a DeepSeek seja uma empresa chinesa, os pesos do seu modelo estão abertos, o que torna possível executá-lo em servidores dos EUA e mitigar as preocupações com violações de privacidade por parte do governo chinês.

No entanto, nem todos os centros de dados são igualmente fiáveis. Idealmente, as empresas de fintech alojariam a DeepSeek no seu próprio hardware. Quando isso não for possível, a liderança deve escolher um anfitrião com cuidado, fazendo apenas parcerias com quem tenha garantias elevadas de uptime e padrões de segurança como ISO 27001 e NIST 800-53.

Minimizar o Acesso a Dados Sensíveis

Ao construir uma aplicação baseada na DeepSeek, as empresas de fintech devem considerar que tipos de dados o modelo pode aceder. A IA só deve conseguir aceder ao que precisa para desempenhar a sua função. A limpeza de quaisquer dados de identificação pessoal (PII) que não sejam necessários também é ideal.

Quando a DeepSeek tem menos detalhes sensíveis, qualquer violação terá menor impacto. Minimizar a recolha de PII é também fundamental para manter a conformidade com leis como o Regulamento Geral sobre a Proteção de Dados (GDPR) e a Lei Gramm-Leach-Bliley (GLBA).

Implementar Controlos de Cibersegurança

Regulamentos como o GDPR e o GLBA também exigem, tipicamente, medidas de proteção para evitar violações à partida. Mesmo fora de legislação desse tipo, o historial da DeepSeek com fugas destaca a necessidade de salvaguardas de segurança adicionais.

No mínimo, as fintechs devem encriptar todos os dados acessíveis por IA em repouso (at rest) e em trânsito. Também é ideal fazer testes de penetração regulares para encontrar e corrigir vulnerabilidades.

As organizações de fintech devem também considerar a monitorização automatizada das suas aplicações de DeepSeek, uma vez que essa automação poupa, em média, 2,2 milhões de dólares em custos de violações, graças a respostas mais rápidas e mais eficazes.

Auditar e Monitorizar Todas as Aplicações de IA

Mesmo após seguir estes passos, é crucial continuar vigilante. Faça a auditoria da aplicação baseada na DeepSeek antes de a implementar para procurar sinais de viés ou vulnerabilidades de segurança. Lembre-se de que alguns problemas podem não ser notados à primeira, pelo que é necessária uma revisão contínua.

Crie uma força-tarefa dedicada para monitorizar os resultados da solução de IA e garantir que permanece ética e em conformidade com quaisquer regulamentos. Também é melhor ser transparente com os clientes sobre esta prática. A tranquilização pode ajudar a construir confiança num sector, de outra forma, duvidoso.

As Empresas de Fintech Têm de Considerar a Ética da IA

Os dados de fintech são particularmente sensíveis, pelo que todas as organizações neste sector devem levar a sério ferramentas orientadas por dados, como a IA. A DeepSeek pode ser um recurso empresarial promissor, mas apenas se a sua utilização seguir orientações rigorosas de ética e segurança.

Quando os líderes da fintech entenderem a necessidade de tal cuidado, podem garantir que os seus investimentos na DeepSeek e outros projetos de IA permanecem seguros e justos.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar