Considerações éticas na implementação do DeepSeek AI em fintech


A Devin Partida é a Diretora-Executiva (Editor-in-Chief) da ReHack. Como escritora, o seu trabalho já foi publicado na Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf e outras.


Descubra as principais notícias e eventos de fintech!

Subscreva a newsletter da FinTech Weekly

Lida por executivos da JP Morgan, Coinbase, Blackrock, Klarna e mais


A inteligência artificial (IA) é uma das tecnologias mais promissoras, mas também a que mais suscita preocupações, no fintech hoje. Agora que a DeepSeek enviou choques por todo o setor de IA, as suas possibilidades e armadilhas específicas exigem atenção.

Embora a ChatGPT tenha levado a IA generativa para o mainstream em 2022, a DeepSeek elevou-a a novos patamares quando o seu modelo DeepSeek-R1 foi lançado em 2025.

O algoritmo é open-source e gratuito, mas teve um desempenho a um padrão semelhante ao de alternativas proprietárias pagas. Como tal, trata-se de uma oportunidade de negócio tentadora para empresas de fintech que procuram capitalizar em IA, mas também levanta algumas questões éticas.


Leituras recomendadas:

*   **O Modelo R1 da DeepSeek Desencadeia Debate sobre o Futuro do Desenvolvimento de IA**
*   **O Modelo de IA da DeepSeek: Oportunidade e Risco para Pequenas Empresas de Tecnologia**

Privacidade de Dados

Tal como acontece com muitas aplicações de IA, a privacidade de dados é uma preocupação. Os grandes modelos de linguagem (LLMs), como a DeepSeek, exigem uma quantidade substancial de informação, e num setor como o fintech, grande parte desses dados pode ser sensível.

A DeepSeek tem ainda a complicação adicional de ser uma empresa chinesa. O governo da China pode aceder a toda a informação em data centers detidos por chineses ou solicitar dados às empresas dentro do país. Consequentemente, o modelo pode apresentar riscos relacionados com espionagem estrangeira e propaganda.

As violações de dados por terceiros são outra preocupação. A DeepSeek já sofreu um vazamento que expôs mais de 1 milhão de registos, o que pode lançar dúvidas sobre a segurança das ferramentas de IA.

Viés de IA

Modelos de machine learning como a DeepSeek estão sujeitos a viés. Como os modelos de IA são tão eficazes a detetar e aprender com padrões subtis que os humanos podem ignorar, podem adotar preconceitos inconscientes a partir dos seus dados de treino. À medida que aprendem com essa informação enviesada, podem perpetuar e agravar problemas de desigualdade.

Esses receios são particularmente evidentes nas finanças. Como as instituições financeiras historicamente têm negado oportunidades a minorias, muito dos seus dados históricos mostra um viés significativo. Treinar a DeepSeek nestes conjuntos de dados poderia levar a ações ainda mais enviesadas, como a IA negar empréstimos ou hipotecas com base na etnia de alguém, em vez de na sua solvabilidade.

Confiança do Consumidor

À medida que questões relacionadas com IA têm dominado os títulos, o público em geral tem-se tornado cada vez mais desconfiado destes serviços. Isso pode levar a uma erosão da confiança entre um negócio de fintech e a sua clientela se não gerir estas preocupações de forma transparente.

A DeepSeek pode enfrentar aqui uma barreira única. Segundo foi noticiado, a empresa construiu o seu modelo por apenas 6 milhões de dólares e, por ser uma empresa chinesa em rápido crescimento, pode lembrar as pessoas das preocupações com a privacidade que afetaram o TikTok. O público pode não estar entusiasmado por confiar num modelo de IA de baixo orçamento, desenvolvido rapidamente, com os seus dados, especialmente quando o governo chinês pode ter alguma influência.

Como Garantir uma Implementação Segura e Ética da DeepSeek

Estas considerações éticas não significam que as empresas de fintech não possam usar a DeepSeek em segurança, mas reforçam a importância de uma implementação cuidadosa. As organizações podem implementar a DeepSeek de forma ética e segura, seguindo estas melhores práticas.

Executar a DeepSeek em Servidores Locais

Um dos passos mais importantes é executar a ferramenta de IA em data centers nacionais. Embora a DeepSeek seja uma empresa chinesa, os pesos do seu modelo são open, o que torna possível executá-lo em servidores dos EUA e mitigar preocupações sobre violações de privacidade por parte do governo chinês.

No entanto, nem todos os data centers são igualmente fiáveis. Idealmente, as empresas de fintech alojariam a DeepSeek no seu próprio hardware. Quando isso não for viável, a liderança deve escolher um anfitrião com cuidado, apenas fazendo parcerias com entidades que ofereçam garantias elevadas de uptime e padrões de segurança como a ISO 27001 e a NIST 800-53.

Minimizar o Acesso a Dados Sensíveis

Ao construir uma aplicação baseada na DeepSeek, as empresas de fintech devem considerar que tipos de dados o modelo pode aceder. A IA deve apenas conseguir aceder ao que é necessário para desempenhar a sua função. A eliminação de quaisquer dados de identificação pessoal (PII) acessíveis e não necessários também é ideal.

Quando a DeepSeek detém menos detalhes sensíveis, qualquer violação terá um impacto menor. Minimizar a recolha de PII também é fundamental para permanecer em conformidade com leis como o Regulamento Geral sobre a Proteção de Dados (GDPR) e a Gramm-Leach-Bliley Act (GLBA).

Implementar Controlos de Cibersegurança

Regulamentos como o GDPR e o GLBA também exigem normalmente medidas de proteção para evitar violações desde logo. Mesmo fora de tais legislações, o historial da DeepSeek com fugas de dados destaca a necessidade de salvaguardas de segurança adicionais.

No mínimo, as fintech devem encriptar todos os dados acessíveis pela IA em repouso e em trânsito. A realização regular de testes de penetração para detetar e corrigir vulnerabilidades também é ideal.

As organizações de fintech devem também considerar a monitorização automatizada das suas aplicações da DeepSeek, pois essa automação poupa 2,2 milhões de dólares em custos de violações, em média, graças a respostas mais rápidas e eficazes.

Auditar e Monitorizar Todas as Aplicações de IA

Mesmo depois de seguir estes passos, é crucial manter-se vigilante. Faça a auditoria da aplicação baseada na DeepSeek antes de a implementar para procurar sinais de viés ou vulnerabilidades de segurança. Lembre-se de que alguns problemas podem não ser detetáveis à primeira vista, por isso é necessária uma revisão contínua.

Crie uma força-tarefa dedicada para monitorizar os resultados da solução de IA e garantir que permanece ética e em conformidade com quaisquer regulamentos. Também é melhor ser transparente com os clientes sobre esta prática. A tranquilização pode ajudar a construir confiança num setor, caso contrário, duvidoso.

As Empresas de Fintech Devem Considerar a Ética da IA

Os dados de fintech são particularmente sensíveis, por isso todas as organizações neste setor devem encarar ferramentas dependentes de dados como a IA com seriedade. A DeepSeek pode ser um recurso de negócio promissor, mas apenas se a sua utilização seguir diretrizes rigorosas de ética e segurança.

Quando os líderes de fintech compreenderem a necessidade de tal cuidado, podem garantir que os seus investimentos na DeepSeek e outros projetos de IA permanecem seguros e justos.

DEEPSEEK18,86%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar