Considerações Éticas na Implementação do DeepSeek AI em Fintech


Devin Partida é a Editora-Chefe da ReHack. Como escritora, seu trabalho foi destaque em Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf e outros.


Descubra as principais notícias e eventos de fintech!

Inscreva-se na newsletter do FinTech Weekly

Lido por executivos do JP Morgan, Coinbase, Blackrock, Klarna e mais


A inteligência artificial (AI) é uma das tecnologias mais promissoras, mas também de maior preocupação única no fintech atualmente. Agora que a DeepSeek enviou ondas de choque pelo espaço de IA, suas possibilidades e armadilhas específicas exigem atenção.

Enquanto o ChatGPT levou a IA generativa ao mainstream em 2022, a DeepSeek elevou isso a novos patamares com o lançamento do seu modelo DeepSeek-R1 em 2025.

O algoritmo é de código aberto e gratuito, mas apresentou desempenho semelhante ao de alternativas proprietárias pagas. Como tal, é uma oportunidade de negócio tentadora para empresas de fintech que desejam capitalizar a IA, mas também levanta algumas questões éticas.


Leituras recomendadas:

*   **O Modelo R1 da DeepSeek Gera Debate sobre o Futuro do Desenvolvimento de IA**
*   **O Modelo de IA da DeepSeek: Oportunidade e Risco para Pequenas Empresas de Tecnologia**

Privacidade de Dados

Como acontece com muitas aplicações de IA, a privacidade dos dados é uma preocupação. Grandes modelos de linguagem (LLMs) como a DeepSeek requerem uma quantidade substancial de informações, e em um setor como o fintech, muitos desses dados podem ser sensíveis.

A DeepSeek tem a complicação adicional de ser uma empresa chinesa. O governo da China pode acessar todas as informações de centros de dados de propriedade chinesa ou solicitar dados de empresas dentro do país. Consequentemente, o modelo pode apresentar riscos relacionados a espionagem estrangeira e propaganda.

Vazamentos de dados de terceiros são outra preocupação. A DeepSeek já sofreu um vazamento que expôs mais de 1 milhão de registros, o que pode lançar dúvidas sobre a segurança das ferramentas de IA.

Viés em IA

Modelos de aprendizado de máquina como a DeepSeek são propensos a viés. Como os modelos de IA são tão hábeis em detectar e aprender com padrões sutis que os humanos podem perder, eles podem adotar preconceitos inconscientes de seus dados de treinamento. À medida que aprendem com essas informações tendenciosas, podem perpetuar e agravar questões de desigualdade.

Tais temores são particularmente proeminentes na área financeira. Como as instituições financeiras historicamente negaram oportunidades a minorias, grande parte de seus dados históricos mostra um viés significativo. Treinar a DeepSeek com esses conjuntos de dados pode levar a ações ainda mais tendenciosas, como a IA negando empréstimos ou hipotecas com base na etnia de alguém, e não na sua solvência.

Confiança do Consumidor

À medida que questões relacionadas à IA têm dominado manchetes, o público em geral tem ficado cada vez mais desconfiado desses serviços. Isso pode levar a uma erosão da confiança entre uma fintech e seus clientes se ela não gerenciar essas preocupações de forma transparente.

A DeepSeek pode enfrentar uma barreira única aqui. A empresa supostamente construiu seu modelo por apenas $6 milhão e, como uma empresa chinesa de rápido crescimento, pode lembrar as pessoas das preocupações de privacidade que afetaram o TikTok. O público pode não estar entusiasmado em confiar uma IA de baixo orçamento, desenvolvida rapidamente, com seus dados, especialmente quando o governo chinês pode ter alguma influência.

Como Garantir uma Implantação Segura e Ética da DeepSeek

Essas considerações éticas não significam que as empresas de fintech não possam usar a DeepSeek de forma segura, mas ressaltam a importância de uma implementação cuidadosa. As organizações podem implantar a DeepSeek de forma ética e segura seguindo estas melhores práticas.

Executar a DeepSeek em Servidores Locais

Um dos passos mais importantes é executar a ferramenta de IA em centros de dados domésticos. Embora a DeepSeek seja uma empresa chinesa, seus pesos de modelo são abertos, tornando possível executá-la em servidores nos EUA e mitigar preocupações sobre violações de privacidade por parte do governo chinês.

No entanto, nem todos os centros de dados são igualmente confiáveis. Idealmente, as fintechs hospedariam a DeepSeek em seu próprio hardware. Quando isso não for viável, a liderança deve escolher um provedor cuidadosamente, apenas fazendo parcerias com aqueles que tenham alta garantia de uptime e padrões de segurança como ISO 27001 e NIST 800-53.

Minimizar o Acesso a Dados Sensíveis

Ao construir uma aplicação baseada na DeepSeek, as fintechs devem considerar os tipos de dados aos quais o modelo pode ter acesso. A IA deve acessar apenas o que for necessário para desempenhar sua função. Limpar os dados acessíveis de qualquer informação pessoal identificável (PII) também é ideal.

Quando a DeepSeek contém menos detalhes sensíveis, qualquer vazamento será menos impactante. Minimizar a coleta de PII também é fundamental para permanecer em conformidade com leis como o Regulamento Geral de Proteção de Dados (GDPR) e a Lei Gramm-Leach-Bliley (GLBA).

Implementar Controles de Cibersegurança

Regulamentações como o GDPR e a GLBA também geralmente exigem medidas de proteção para evitar vazamentos desde o início. Mesmo fora dessas legislações, o histórico de vazamentos da DeepSeek destaca a necessidade de salvaguardas adicionais de segurança.

No mínimo, as fintechs devem criptografar todos os dados acessíveis à IA em repouso e em trânsito. Testes de penetração regulares para identificar e corrigir vulnerabilidades também são ideais.

As organizações de fintech também devem considerar o monitoramento automatizado de suas aplicações DeepSeek, pois essa automação economiza em média US$ 2,2 milhões em custos de vazamento, graças a respostas mais rápidas e eficazes.

Auditar e Monitorar Todas as Aplicações de IA

Mesmo após seguir esses passos, é crucial manter a vigilância. Audite a aplicação baseada na DeepSeek antes de implantá-la para procurar sinais de viés ou vulnerabilidades de segurança. Lembre-se de que alguns problemas podem não ser perceptíveis de imediato, portanto, a revisão contínua é necessária.

Crie uma força-tarefa dedicada para monitorar os resultados da IA e garantir que ela permaneça ética e em conformidade com quaisquer regulações. Também é melhor ser transparente com os clientes sobre essa prática. Essa transparência pode ajudar a construir confiança em um campo, muitas vezes, duvidoso.

Empresas de Fintech Devem Considerar a Ética em IA

Os dados de fintech são particularmente sensíveis, portanto todas as organizações desse setor devem levar a sério ferramentas dependentes de dados como a IA. A DeepSeek pode ser um recurso promissor para negócios, mas somente se seu uso seguir rígidos princípios éticos e de segurança.

Assim que os líderes de fintech compreenderem a necessidade de tal cuidado, poderão garantir que seus investimentos na DeepSeek e outros projetos de IA permaneçam seguros e justos.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar