Considerações Éticas na Implementação do DeepSeek AI no setor Fintech


Devin Partida é a Editora-chefe da ReHack. Como escritora, seu trabalho já foi destaque em Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf e outros.


Descubra as principais notícias e eventos de fintech!

Inscreva-se na newsletter do FinTech Weekly

Lido por executivos do JP Morgan, Coinbase, Blackrock, Klarna e mais


A inteligência artificial (IA) é uma das tecnologias mais promissoras, mas também mais preocupantes, no fintech atualmente. Agora que a DeepSeek causou impacto no espaço de IA, suas possibilidades e riscos específicos exigem atenção.

Enquanto o ChatGPT levou a IA generativa ao mainstream em 2022, a DeepSeek elevou o nível com o lançamento do seu modelo DeepSeek-R1 em 2025.

O algoritmo é de código aberto e gratuito, mas tem desempenho semelhante ao de alternativas proprietárias pagas. Assim, representa uma oportunidade de negócio tentadora para fintechs que desejam capitalizar a IA, mas também levanta questões éticas.


Leituras recomendadas:

*   **O Modelo R1 da DeepSeek Gera Debate sobre o Futuro do Desenvolvimento de IA**
*   **Modelo de IA da DeepSeek: Oportunidade e Risco para Pequenas Empresas de Tecnologia**

Privacidade de Dados

Como em muitas aplicações de IA, a privacidade dos dados é uma preocupação. Modelos de linguagem de grande escala (LLMs), como o DeepSeek, requerem uma quantidade substancial de informações, e, em um setor como o fintech, muitos desses dados podem ser sensíveis.

A DeepSeek tem a complicação adicional de ser uma empresa chinesa. O governo da China pode acessar todas as informações de centros de dados de propriedade chinesa ou solicitar dados de empresas dentro do país. Consequentemente, o modelo pode apresentar riscos relacionados a espionagem estrangeira e propaganda.

Vazamentos de dados de terceiros também são uma preocupação. A DeepSeek já sofreu uma violação que expôs mais de 1 milhão de registros, o que pode lançar dúvidas sobre a segurança das ferramentas de IA.

Viés em IA

Modelos de aprendizado de máquina como o DeepSeek são propensos a viés. Como os modelos de IA são altamente capazes de identificar e aprender com padrões sutis que os humanos podem não perceber, eles podem adotar preconceitos inconscientes presentes nos dados de treinamento. Ao aprender com essas informações tendenciosas, podem perpetuar e agravar problemas de desigualdade.

Esses receios são especialmente relevantes no setor financeiro. Como as instituições financeiras historicamente restringiram oportunidades a minorias, grande parte de seus dados históricos mostra viés significativo. Treinar o DeepSeek com esses conjuntos de dados pode levar a ações ainda mais tendenciosas, como a recusa de empréstimos ou hipotecas com base na etnia de alguém, e não na sua capacidade de pagamento.

Confiança do Consumidor

À medida que questões relacionadas à IA ganham destaque na mídia, o público em geral tem ficado cada vez mais desconfiado desses serviços. Isso pode levar a uma erosão da confiança entre uma fintech e seus clientes se ela não gerenciar essas preocupações de forma transparente.

A DeepSeek pode enfrentar uma barreira única aqui. A empresa supostamente construiu seu modelo por apenas 6 milhões de dólares e, como uma empresa chinesa em rápido crescimento, pode lembrar as pessoas das preocupações de privacidade que afetaram o TikTok. O público pode não estar entusiasmado em confiar seus dados a um modelo de IA de baixo custo e desenvolvido rapidamente, especialmente quando o governo chinês pode exercer alguma influência.

Como Garantir uma Implantação Segura e Ética do DeepSeek

Essas considerações éticas não significam que as fintechs não possam usar o DeepSeek de forma segura, mas ressaltam a importância de uma implementação cuidadosa. Organizações podem implantar o DeepSeek de forma ética e segura seguindo estas melhores práticas.

Executar o DeepSeek em Servidores Locais

Um dos passos mais importantes é rodar a ferramenta de IA em centros de dados domésticos. Embora a DeepSeek seja uma empresa chinesa, seus pesos de modelo são de código aberto, permitindo sua execução em servidores nos EUA e mitigando preocupações sobre violações de privacidade por parte do governo chinês.

No entanto, nem todos os centros de dados são igualmente confiáveis. Idealmente, fintechs hospedariam o DeepSeek em seu próprio hardware. Quando isso não for possível, a liderança deve escolher um provedor cuidadosamente, apenas com parceiros que tenham alta garantia de uptime e padrões de segurança como ISO 27001 e NIST 800-53.

Minimizar o Acesso a Dados Sensíveis

Ao desenvolver uma aplicação baseada no DeepSeek, as fintechs devem considerar quais dados o modelo pode acessar. A IA deve ter acesso apenas ao necessário para desempenhar sua função. Também é ideal eliminar quaisquer informações pessoalmente identificáveis (PII) desnecessárias dos dados acessados.

Quando o DeepSeek contém menos detalhes sensíveis, qualquer violação será menos impactante. Minimizar a coleta de PII também é fundamental para estar em conformidade com leis como o Regulamento Geral de Proteção de Dados (GDPR) e a Lei Gramm-Leach-Bliley (GLBA).

Implementar Controles de Cibersegurança

Regulamentações como o GDPR e a GLBA geralmente exigem medidas de proteção para evitar violações desde o início. Mesmo fora dessas legislações, o histórico de vazamentos do DeepSeek destaca a necessidade de medidas adicionais de segurança.

Pelo menos, fintechs devem criptografar todos os dados acessíveis à IA, tanto em repouso quanto em trânsito. Testes de penetração regulares para identificar e corrigir vulnerabilidades também são recomendados.

Organizações de fintech também devem considerar monitoramento automatizado de suas aplicações DeepSeek, pois essa automação pode economizar em média 2,2 milhões de dólares em custos de violação, graças a respostas mais rápidas e eficazes.

Auditar e Monitorar Todas as Aplicações de IA

Mesmo após seguir essas etapas, é fundamental manter uma vigilância constante. Audite a aplicação baseada no DeepSeek antes de implantá-la, procurando sinais de viés ou vulnerabilidades de segurança. Lembre-se de que alguns problemas podem não ser perceptíveis inicialmente, portanto, revisões contínuas são essenciais.

Crie uma equipe dedicada para monitorar os resultados da IA e garantir que ela permaneça ética e em conformidade com as regulamentações. Ser transparente com os clientes sobre essas práticas também ajuda a construir confiança em um campo muitas vezes duvidoso.

Fintechs Devem Considerar a Ética em IA

Os dados de fintechs são particularmente sensíveis, portanto todas as organizações desse setor devem tratar ferramentas dependentes de dados, como a IA, com seriedade. O DeepSeek pode ser um recurso promissor, mas seu uso só é válido se seguir rígidos princípios éticos e de segurança.

Assim que os líderes de fintech compreenderem a importância de tais cuidados, poderão garantir que seus investimentos em DeepSeek e outros projetos de IA permaneçam seguros e justos.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar