Consideraciones éticas en el despliegue de DeepSeek AI en fintech


Devin Partida es la editora en jefe de ReHack. Como escritora, su trabajo ha aparecido en Inc., VentureBeat, Entrepreneur, Lifewire, The Muse, MakeUseOf y otros.


¡Descubre las principales noticias y eventos de fintech!

Suscríbete al boletín de FinTech Weekly

Leído por ejecutivos en JP Morgan, Coinbase, Blackrock, Klarna y más


La inteligencia artificial (AI) es una de las tecnologías más prometedoras pero también más preocupantes en fintech hoy en día. Ahora que DeepSeek ha enviado ondas de choque por todo el sector de la IA, sus posibilidades y riesgos específicos exigen atención.

Si bien ChatGPT llevó la IA generativa a la corriente principal en 2022, DeepSeek la llevó a nuevas alturas cuando su modelo DeepSeek-R1 se lanzó en 2025.

El algoritmo es de código abierto y gratuito, pero ha funcionado a un nivel similar al de alternativas propietarias de pago. Como tal, es una oportunidad de negocio tentadora para las empresas de fintech que buscan capitalizar la IA, pero también plantea algunas cuestiones éticas.


Lecturas recomendadas:

*   **El modelo R1 de DeepSeek impulsa el debate sobre el futuro del desarrollo de IA**
*   **El modelo de IA de DeepSeek: oportunidad y riesgo para pequeñas empresas tecnológicas**

Privacidad de datos

Como en muchas aplicaciones de IA, la privacidad de datos es una preocupación. Los grandes modelos de lenguaje (LLM) como DeepSeek requieren una cantidad sustancial de información, y en un sector como el fintech, es posible que gran parte de esos datos sean sensibles.

DeepSeek tiene la complicación adicional de ser una empresa china. El gobierno de China puede acceder a toda la información de centros de datos de propiedad china o solicitar datos a las empresas dentro del país. En consecuencia, el modelo podría presentar riesgos relacionados con el espionaje extranjero y la propaganda.

Las filtraciones de datos por terceros son otra preocupación. DeepSeek ya ha sufrido una filtración que expuso más de 1 millón de registros, lo que puede poner en duda la seguridad de las herramientas de IA.

Sesgo de IA

Los modelos de aprendizaje automático como DeepSeek son propensos a tener sesgos. Debido a que los modelos de IA son tan hábiles detectando y aprendiendo de patrones sutiles que los humanos podrían pasar por alto, pueden adoptar prejuicios inconscientes de sus datos de entrenamiento. A medida que aprenden a partir de esa información sesgada, pueden perpetuar y empeorar problemas de desigualdad.

Estos temores son especialmente prominentes en las finanzas. Debido a que las instituciones financieras históricamente han negado oportunidades a minorías, gran parte de sus datos históricos muestra un sesgo significativo. Entrenar a DeepSeek con estos conjuntos de datos podría llevar a acciones adicionales sesgadas, como que la IA niegue préstamos o hipotecas basándose en la etnia de alguien en lugar de su solvencia crediticia.

Confianza del consumidor

A medida que los problemas relacionados con la IA han llenado los titulares, el público en general se ha vuelto cada vez más desconfiado de estos servicios. Eso podría llevar a una erosión de la confianza entre un negocio de fintech y su clientela si no gestiona de manera transparente estas preocupaciones.

DeepSeek puede enfrentar una barrera única aquí. La empresa, según se informa, construyó su modelo por solo $6 millones y, como una empresa china de rápido crecimiento, podría recordar a las personas las preocupaciones sobre privacidad que afectaron a TikTok. Es posible que el público no esté entusiasmado con confiar sus datos en un modelo de IA de bajo presupuesto y desarrollado rápidamente, especialmente cuando el gobierno chino puede tener cierta influencia.

Cómo garantizar una implementación segura y ética de DeepSeek

Estas consideraciones éticas no significan que las empresas de fintech no puedan usar DeepSeek de forma segura, pero sí subrayan la importancia de una implementación cuidadosa. Las organizaciones pueden desplegar DeepSeek de manera ética y segura cumpliendo estas mejores prácticas.

Ejecutar DeepSeek en servidores locales

Uno de los pasos más importantes es ejecutar la herramienta de IA en centros de datos nacionales. Aunque DeepSeek es una empresa china, sus pesos de modelo son de código abierto, lo que permite ejecutarlo en servidores de EE. UU. y mitigar las preocupaciones por filtraciones de privacidad del gobierno chino.

Sin embargo, no todos los centros de datos son igual de confiables. Idealmente, las empresas de fintech alojarían DeepSeek en su propio hardware. Cuando eso no sea posible, el liderazgo debe elegir un proveedor con cuidado, asociándose solo con aquellos que ofrezcan garantías altas de disponibilidad y estándares de seguridad como ISO 27001 y NIST 800-53.

Minimizar el acceso a datos sensibles

Al construir una aplicación basada en DeepSeek, las empresas de fintech deben considerar el tipo de datos a los que el modelo puede acceder. La IA solo debería poder acceder a lo que necesita para realizar su función. Eliminar de los datos accesibles cualquier información de identificación personal (PII) que no sea necesaria también es ideal.

Cuando DeepSeek mantiene menos detalles sensibles, cualquier filtración tendrá un impacto menor. Minimizar la recolección de PII también es clave para mantenerse en cumplimiento con leyes como el Reglamento General de Protección de Datos (GDPR) y la Ley Gramm-Leach-Bliley (GLBA).

Implementar controles de ciberseguridad

Regulaciones como el GDPR y la GLBA también suelen exigir medidas de protección para evitar filtraciones en primer lugar. Incluso fuera de ese tipo de legislación, la historia de DeepSeek con filtraciones resalta la necesidad de salvaguardas de seguridad adicionales.

Como mínimo, las empresas de fintech deberían cifrar todos los datos accesibles por IA tanto en reposo como en tránsito. También es ideal realizar pruebas de penetración periódicas para encontrar y corregir vulnerabilidades.

Las organizaciones de fintech también deberían considerar el monitoreo automatizado de sus aplicaciones de DeepSeek, ya que dicha automatización ahorra $2.2 millones en costos de filtración en promedio, gracias a respuestas más rápidas y efectivas.

Auditar y monitorear todas las aplicaciones de IA

Incluso después de seguir estos pasos, es crucial permanecer vigilante. Audite la aplicación basada en DeepSeek antes de desplegarla para buscar señales de sesgo o vulnerabilidades de seguridad. Recuerde que algunos problemas pueden no ser perceptibles al principio, por lo que es necesario hacer revisiones continuas.

Cree un equipo de trabajo dedicado para monitorear los resultados de la solución de IA y asegurarse de que se mantenga ética y cumpla con cualquier regulación. También es mejor ser transparente con los clientes sobre esta práctica. La tranquilidad puede ayudar a construir confianza en un sector, de otro modo, dudoso.

Las empresas de Fintech deben considerar la ética de la IA

Los datos de fintech son particularmente sensibles, por lo que todas las organizaciones de este sector deben tomarse en serio herramientas que dependan de datos como la IA. DeepSeek puede ser un recurso empresarial prometedor, pero solo si su uso sigue pautas estrictas de ética y seguridad.

Una vez que los líderes de fintech entiendan la necesidad de ese cuidado, pueden asegurarse de que sus inversiones en DeepSeek y otros proyectos de IA permanezcan seguros y justos.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado