Considerações éticas na implementação do DeepSeek AI em fintech


O Devin Partida é o Editor-chefe da ReHack. Como autora, o seu trabalho foi publicado na Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf e outras.


Descubra as principais notícias e eventos de fintech!

Subscreva a newsletter da FinTech Weekly

Lida por executivos da JP Morgan, Coinbase, Blackrock, Klarna e mais


A inteligência artificial (IA) é uma das tecnologias mais promissoras, mas também uma das mais preocupantes e, de forma única, no fintech atual. Agora que a DeepSeek enviou ondas de choque por todo o setor de IA, as suas possibilidades e armadilhas específicas exigem atenção.

Embora o ChatGPT tenha levado a IA generativa ao grande público em 2022, a DeepSeek levou-a a novos patamares quando o seu modelo DeepSeek-R1 foi lançado em 2025.

O algoritmo é de código aberto e gratuito, mas tem apresentado um desempenho a um nível semelhante ao de alternativas proprietárias pagas. Como tal, é uma oportunidade de negócio tentadora para empresas de fintech que esperam capitalizar a IA, mas também levanta algumas questões éticas.


Leituras recomendadas:

*   **O modelo R1 da DeepSeek impulsiona o debate sobre o futuro do desenvolvimento de IA**
*   **O modelo de IA da DeepSeek: oportunidade e risco para pequenas empresas de tecnologia**

Privacidade dos dados

Tal como em muitas aplicações de IA, a privacidade dos dados é uma preocupação. Modelos de linguagem grandes (LLMs) como o DeepSeek requerem uma quantidade substancial de informação, e num setor como o fintech, grande parte desses dados pode ser sensível.

A DeepSeek tem ainda a complicação adicional de ser uma empresa chinesa. O governo da China pode aceder a toda a informação em centros de dados detidos por empresas chinesas ou solicitar dados a empresas dentro do país. Consequentemente, o modelo pode apresentar riscos relacionados com espionagem estrangeira e propaganda.

As violações de dados de terceiros são outra preocupação. A DeepSeek já sofreu uma fuga de informação que expôs mais de 1 milhão de registos, o que pode lançar dúvidas sobre a segurança das ferramentas de IA.

Viés na IA

Modelos de aprendizagem automática como o DeepSeek estão sujeitos a enviesamento. Como os modelos de IA são tão eficazes a detetar e aprender com padrões subtis que os humanos podem não notar, podem adotar preconceitos inconscientes dos seus dados de treino. À medida que aprendem com esta informação enviesada, podem perpetuar e agravar problemas de desigualdade.

Tais receios são particularmente relevantes no setor financeiro. Como as instituições financeiras historicamente têm restringido oportunidades a minorias, grande parte dos seus dados históricos mostra um viés significativo. Treinar o DeepSeek com estes conjuntos de dados poderia levar a ações ainda mais enviesadas, como a IA negar empréstimos ou hipotecas com base na etnia de alguém e não na sua capacidade de crédito.

Confiança do consumidor

À medida que problemas relacionados com a IA têm dominado os títulos, o público em geral tem-se tornado cada vez mais desconfiado destes serviços. Isso pode levar a uma erosão da confiança entre um negócio de fintech e a sua clientela se não gerir estas preocupações de forma transparente.

A DeepSeek pode enfrentar uma barreira única aqui. A empresa terá construído o seu modelo por apenas 6 milhões de dólares e, sendo uma empresa chinesa em rápido crescimento, pode lembrar as pessoas das preocupações de privacidade que afetaram o TikTok. O público pode não estar entusiasmado por confiar num modelo de IA de baixo orçamento e desenvolvido rapidamente com os seus dados, especialmente quando o governo chinês pode ter alguma influência.

Como garantir uma implementação segura e ética do DeepSeek

Estas considerações éticas não significam que as empresas de fintech não possam usar o DeepSeek com segurança, mas realçam a importância de uma implementação cuidadosa. As organizações podem implementar o DeepSeek de forma ética e segura, aderindo a estas melhores práticas.

Executar o DeepSeek em servidores locais

Um dos passos mais importantes é executar a ferramenta de IA em centros de dados nacionais. Embora a DeepSeek seja uma empresa chinesa, os pesos do seu modelo são de código aberto, tornando possível executá-lo em servidores dos EUA e mitigar preocupações com violações de privacidade por parte do governo chinês.

No entanto, nem todos os centros de dados são igualmente fiáveis. Idealmente, as empresas de fintech alojariam o DeepSeek no seu próprio hardware. Quando isso não for viável, a liderança deve escolher um fornecedor com cuidado, fazendo parceria apenas com entidades que garantam alto tempo de atividade e padrões de segurança como ISO 27001 e NIST 800-53.

Minimizar o acesso a dados sensíveis

Ao construir uma aplicação baseada no DeepSeek, as empresas de fintech devem considerar que tipo de dados o modelo pode aceder. A IA só deve conseguir aceder ao que é necessário para desempenhar a sua função. É também ideal eliminar os dados acessíveis de qualquer informação de identificação pessoal (PII) que não seja necessária.

Quando o DeepSeek detém menos detalhes sensíveis, qualquer violação terá menos impacto. Minimizar a recolha de PII é também fundamental para continuar em conformidade com leis como o Regulamento Geral sobre a Proteção de Dados (GDPR) e a Gramm-Leach-Bliley Act (GLBA).

Implementar controlos de cibersegurança

Regulamentos como o GDPR e o GLBA também normalmente exigem medidas de proteção para evitar violações logo à partida. Mesmo fora desse tipo de legislação, o histórico da DeepSeek em fugas de informação evidencia a necessidade de salvaguardas de segurança adicionais.

No mínimo, as fintechs devem encriptar todos os dados acessíveis pela IA em repouso e em trânsito. Testes regulares de penetração para detetar e corrigir vulnerabilidades também são ideais.

As organizações de fintech devem também considerar o monitorização automatizada das suas aplicações DeepSeek, pois essa automação poupa, em média, 2,2 milhões de dólares em custos de violações, graças a respostas mais rápidas e mais eficazes.

Auditar e monitorizar todas as aplicações de IA

Mesmo depois de seguir estes passos, é crucial manter-se vigilante. Faça auditoria à aplicação baseada no DeepSeek antes de a colocar em produção, para detetar sinais de viés ou vulnerabilidades de segurança. Lembre-se de que alguns problemas podem não ser visíveis à primeira vista, pelo que é necessária uma revisão contínua.

Crie uma força-tarefa dedicada para monitorizar os resultados da solução de IA e garantir que permanece ética e em conformidade com quaisquer regulamentos. Também é melhor ser transparente com os clientes sobre esta prática. A garantia pode ajudar a construir confiança num setor, de outro modo, duvidoso.

As empresas de fintech têm de considerar a ética da IA

Os dados de fintech são particularmente sensíveis, pelo que todas as organizações neste setor devem levar a sério ferramentas dependentes de dados como a IA. O DeepSeek pode ser um recurso promissor para o negócio, mas apenas se a sua utilização seguir diretrizes rigorosas de ética e segurança.

Depois de os líderes de fintech compreenderem a necessidade de tal cuidado, podem garantir que os seus investimentos no DeepSeek e outros projetos de IA permanecem seguros e justos**.**

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar