Considerações éticas na implementação do DeepSeek AI em fintech


Devin Partida é a Editora-Chefe da ReHack. Como escritora, o seu trabalho foi destacado na Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf, entre outros.


Descubra as principais notícias e eventos de fintech!

Inscreva-se na newsletter da FinTech Weekly

Lida por executivos da JP Morgan, Coinbase, Blackrock, Klarna e mais


A inteligência artificial (IA) é uma das tecnologias mais promissoras, mas também preocupantes, no fintech hoje. Agora que a DeepSeek enviou ondas de choque por todo o espaço da IA, as suas possibilidades e armadilhas específicas exigem atenção.

Enquanto o ChatGPT levou a IA generativa ao mainstream em 2022, a DeepSeek elevou-a a novas alturas quando o seu modelo DeepSeek-R1 foi lançado em 2025.

O algoritmo é de código aberto e gratuito, mas tem apresentado um desempenho semelhante ao de alternativas proprietárias pagas. Como tal, é uma oportunidade de negócio tentadora para as empresas de fintech que esperam capitalizar sobre a IA, mas também apresenta algumas questões éticas.


Leituras recomendadas:

*   **O Modelo R1 da DeepSeek Desencadeia Debate sobre o Futuro do Desenvolvimento de IA**
*   **Modelo de IA da DeepSeek: Oportunidade e Risco para Pequenas Empresas de Tecnologia**

Privacidade de Dados

Assim como em muitas aplicações de IA, a privacidade de dados é uma preocupação. Modelos de linguagem de grande escala (LLMs) como a DeepSeek requerem uma quantidade substancial de informação, e num setor como o fintech, grande parte desses dados pode ser sensível.

A DeepSeek tem a complicação adicional de ser uma empresa chinesa. O governo da China pode aceder a todas as informações em centros de dados de propriedade chinesa ou solicitar dados de empresas dentro do país. Consequentemente, o modelo pode apresentar riscos relacionados à espionagem estrangeira e propaganda.

As violações de dados por terceiros são outra preocupação. A DeepSeek já sofreu uma fuga de dados expondo mais de 1 milhão de registos, o que pode lançar dúvidas sobre a segurança das ferramentas de IA.

Viés da IA

Modelos de aprendizagem automática como a DeepSeek são propensos a viés. Como os modelos de IA são tão hábeis em identificar e aprender padrões subtis que os humanos podem perder, eles podem adotar preconceitos inconscientes dos seus dados de treino. À medida que aprendem com essas informações enviesadas, podem perpetuar e agravar questões de desigualdade.

Tais receios são particularmente proeminentes nas finanças. Como as instituições financeiras têm historicamente negado oportunidades a minorias, grande parte dos seus dados históricos apresenta um viés significativo. Treinar a DeepSeek com esses conjuntos de dados pode levar a ações enviesadas adicionais, como a IA negar empréstimos ou hipotecas com base na etnia de alguém em vez da sua solvência.

Confiança do Consumidor

À medida que as questões relacionadas com a IA têm povoado as manchetes, o público em geral tornou-se cada vez mais desconfiado destes serviços. Isso pode levar a uma erosão da confiança entre uma empresa de fintech e a sua clientela se não gerirem estas preocupações de forma transparente.

A DeepSeek pode enfrentar uma barreira única aqui. A empresa supostamente construiu o seu modelo por apenas 6 milhões de dólares e, como uma empresa chinesa de rápido crescimento, pode lembrar as pessoas das preocupações de privacidade que afetaram o TikTok. O público pode não estar entusiasmado em confiar num modelo de IA de baixo orçamento e desenvolvido rapidamente com os seus dados, especialmente quando o governo chinês pode ter alguma influência.

Como Garantir uma Implementação Segura e Ética da DeepSeek

Essas considerações éticas não significam que as empresas de fintech não possam usar a DeepSeek de forma segura, mas enfatizam a importância de uma implementação cuidadosa. As organizações podem implementar a DeepSeek de forma ética e segura seguindo estas melhores práticas.

Executar a DeepSeek em Servidores Locais

Um dos passos mais importantes é executar a ferramenta de IA em centros de dados domésticos. Embora a DeepSeek seja uma empresa chinesa, os seus pesos de modelo são abertos, tornando possível executá-la em servidores dos EUA e mitigar preocupações sobre violações de privacidade por parte do governo chinês.

No entanto, nem todos os centros de dados são igualmente fiáveis. Idealmente, as empresas de fintech deveriam hospedar a DeepSeek no seu próprio hardware. Quando isso não é viável, a liderança deve escolher um anfitrião com cuidado, apenas estabelecendo parcerias com aqueles que têm alta garantia de disponibilidade e padrões de segurança, como ISO 27001 e NIST 800-53.

Minimizar o Acesso a Dados Sensíveis

Ao construir uma aplicação baseada na DeepSeek, as empresas de fintech devem considerar os tipos de dados que o modelo pode aceder. A IA deve apenas poder aceder ao que precisa para realizar a sua função. Limpar os dados acessíveis de qualquer informação pessoal identificável (PII) não necessária também é ideal.

Quando a DeepSeek detém menos detalhes sensíveis, qualquer violação será menos impactante. Minimizar a coleta de PII também é fundamental para se manter em conformidade com leis como o Regulamento Geral sobre a Proteção de Dados (GDPR) e a Lei Gramm-Leach-Bliley (GLBA).

Implementar Controles de Cibersegurança

Regulamentações como o GDPR e a GLBA também normalmente exigem medidas de proteção para prevenir violações em primeiro lugar. Mesmo fora de tal legislação, o histórico da DeepSeek com fugas destaca a necessidade de salvaguardas de segurança adicionais.

No mínimo, as fintechs devem criptografar todos os dados acessíveis pela IA em repouso e em trânsito. Testes de penetração regulares para encontrar e corrigir vulnerabilidades também são ideais.

As organizações de fintech também devem considerar a monitorização automatizada das suas aplicações DeepSeek, uma vez que tal automação economiza em média 2,2 milhões de dólares em custos de violações, graças a respostas mais rápidas e eficazes.

Auditar e Monitorizar Todas as Aplicações de IA

Mesmo após seguir estes passos, é crucial permanecer vigilante. Audite a aplicação baseada na DeepSeek antes de a implantar para procurar sinais de viés ou vulnerabilidades de segurança. Lembre-se de que alguns problemas podem não ser notáveis à primeira vista, por isso uma revisão contínua é necessária.

Crie uma força-tarefa dedicada para monitorizar os resultados da solução de IA e garantir que ela permaneça ética e em conformidade com quaisquer regulamentações. É melhor ser transparente com os clientes sobre esta prática também. O reassuramento pode ajudar a construir confiança numa área que, de outra forma, é duvidosa.

As Empresas de Fintech Devem Considerar a Ética da IA

Os dados de fintech são particularmente sensíveis, por isso todas as organizações neste setor devem levar a sério ferramentas como a IA que dependem de dados. A DeepSeek pode ser um recurso comercial promissor, mas apenas se a sua utilização seguir diretrizes éticas e de segurança rigorosas.

Uma vez que os líderes de fintech compreendam a necessidade de tal cuidado, podem garantir que os seus investimentos na DeepSeek e outros projetos de IA permaneçam seguros e justos.

DEEPSEEK-1,37%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar