Considerações éticas na implementação do DeepSeek AI em fintech


O Devin Partida é o Editor-Chefe da ReHack. Como autora, o seu trabalho foi destaque em Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf e outros.


Descubra as principais notícias e eventos de fintech!

Subscreva a newsletter da FinTech Weekly

Lida por executivos na JP Morgan, Coinbase, Blackrock, Klarna e mais


A inteligência artificial (IA) é uma das tecnologias mais promissoras, mas também uma das mais preocupantes, no fintech. Agora que a DeepSeek enviou ondas de choque por todo o panorama da IA, as suas possibilidades e armadilhas específicas exigem atenção.

Embora o ChatGPT tenha levado a IA generativa para o mainstream em 2022, a DeepSeek levou-a a novos patamares quando o seu modelo DeepSeek-R1 foi lançado em 2025.

O algoritmo é open-source e gratuito, mas tem apresentado um desempenho semelhante ao de alternativas proprietárias pagas. Como tal, é uma oportunidade de negócio tentadora para empresas de fintech que esperam capitalizar em IA, mas também coloca algumas questões éticas.


Leituras recomendadas:

*   **O modelo R1 da DeepSeek gera debate sobre o futuro do desenvolvimento de IA**
*   **O modelo de IA da DeepSeek: oportunidade e risco para pequenas empresas de tecnologia**

Privacidade de dados

Tal como em muitas aplicações de IA, a privacidade dos dados é uma preocupação. Grandes modelos de linguagem (LLMs) como a DeepSeek requerem uma quantidade substancial de informação, e num sector como o fintech, muitos desses dados podem ser sensíveis.

A DeepSeek tem ainda a complicação adicional de ser uma empresa chinesa. O governo da China pode aceder a toda a informação em centros de dados detidos por chineses ou solicitar dados a empresas dentro do país. Consequentemente, o modelo pode apresentar riscos relacionados com espionagem estrangeira e propaganda.

As violações de dados por terceiros são outra preocupação. A DeepSeek já sofreu uma fuga que expôs mais de 1 milhão de registos, o que pode levantar dúvidas sobre a segurança das ferramentas de IA.

Viés de IA

Modelos de machine learning como a DeepSeek são propensos a viés. Como os modelos de IA são tão eficazes a identificar e aprender com padrões subtis que os humanos podem não conseguir ver, podem adoptar preconceitos inconscientes a partir dos dados de treino. À medida que aprendem com essa informação enviesada, podem perpetuar e agravar problemas de desigualdade.

Tais receios são particularmente evidentes na área financeira. Como as instituições financeiras, historicamente, têm retido oportunidades de minorias, grande parte dos seus dados históricos evidencia um viés significativo. Treinar a DeepSeek com estes conjuntos de dados pode levar a acções ainda mais enviesadas, como a IA negar empréstimos ou hipotecas com base na etnia de alguém, e não na sua solvabilidade.

Confiança do consumidor

À medida que questões relacionadas com a IA têm preenchido os títulos, o público em geral tem-se tornado cada vez mais céptico em relação a estes serviços. Isso pode levar a uma erosão da confiança entre um negócio de fintech e a sua clientela se não gerir estas preocupações de forma transparente.

A DeepSeek pode enfrentar aqui uma barreira única. A empresa terá construído o seu modelo por apenas 6 milhões de dólares e, por ser uma empresa chinesa a crescer rapidamente, pode lembrar às pessoas as preocupações com a privacidade que afectaram a TikTok. O público pode não estar entusiasmado por confiar um modelo de IA de baixo orçamento, desenvolvido rapidamente, com os seus dados, especialmente quando o governo chinês pode ter alguma influência.

Como garantir uma implementação da DeepSeek segura e ética

Estas considerações éticas não significam que as empresas de fintech não possam usar a DeepSeek em segurança, mas sublinham a importância de uma implementação cuidadosa. As organizações podem implementar a DeepSeek de forma ética e segura, seguindo estas boas práticas.

Execute a DeepSeek em servidores locais

Um dos passos mais importantes é executar a ferramenta de IA em centros de dados no país. Embora a DeepSeek seja uma empresa chinesa, os seus pesos do modelo são open, o que torna possível correr em servidores dos EUA e mitigar preocupações sobre violações de privacidade por parte do governo chinês.

No entanto, nem todos os centros de dados são igualmente fiáveis. Idealmente, as empresas de fintech alojariam a DeepSeek no seu próprio hardware. Quando isso não for viável, a liderança deve escolher um fornecedor com cuidado, associando-se apenas a entidades com garantias elevadas de uptime e padrões de segurança, como ISO 27001 e NIST 800-53.

Minimize o acesso a dados sensíveis

Ao construir uma aplicação baseada na DeepSeek, as empresas de fintech devem considerar o tipo de dados a que o modelo pode aceder. A IA deve apenas conseguir aceder ao que precisa para desempenhar a sua função. Remover de forma higienizada quaisquer dados acessíveis que não sejam necessários de informação pessoalmente identificável (PII) é também ideal.

Quando a DeepSeek detém menos detalhes sensíveis, qualquer violação terá um impacto menor. Minimizar a recolha de PII é também fundamental para manter a conformidade com leis como o Regulamento Geral sobre a Proteção de Dados (RGPD) e a Lei Gramm-Leach-Bliley (GLBA).

Implemente controlos de cibersegurança

Regulamentos como o RGPD e a GLBA também tipicamente exigem medidas de proteção para evitar violações desde o início. Mesmo fora desse tipo de legislação, o historial da DeepSeek com fugas evidencia a necessidade de salvaguardas de segurança adicionais.

No mínimo, as fintechs devem encriptar todos os dados acessíveis pela IA em repouso e em trânsito. A realização regular de testes de penetração para encontrar e corrigir vulnerabilidades é também ideal.

As organizações de fintech devem igualmente considerar a monitorização automatizada das suas aplicações DeepSeek, pois essa automação poupa 2,2 milhões de dólares em custos de violação, em média, graças a respostas mais rápidas e eficazes.

Audite e monitorize todas as aplicações de IA

Mesmo após seguir estes passos, é crucial manter-se vigilante. Faça a auditoria da aplicação baseada na DeepSeek antes de a colocar em produção para procurar sinais de viés ou vulnerabilidades de segurança. Lembre-se de que alguns problemas podem não ser perceptíveis no início, pelo que é necessária uma revisão contínua.

Crie uma força-tarefa dedicada para monitorizar os resultados da solução de IA e garantir que continua ética e em conformidade com quaisquer regulamentos. Também é melhor ser transparente com os clientes sobre esta prática. A tranquilização pode ajudar a construir confiança num sector, de outro modo, duvidoso.

As empresas de fintech devem considerar a ética da IA

Os dados de fintech são particularmente sensíveis, pelo que todas as organizações deste sector devem levar a sério ferramentas dependentes de dados como a IA. A DeepSeek pode ser um promissor recurso de negócio, mas apenas se a sua utilização seguir diretrizes rigorosas de ética e segurança.

Quando os líderes de fintech perceberem a necessidade de tal cuidado, podem garantir que os seus investimentos na DeepSeek e outros projectos de IA continuam seguros e justos.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar