DeepSeek V4 provoca debate en EE. UU.: un think tank dice que depende de chips prohibidos para estar medio año atrasado, CEO de Silicon Valley dice que es innovación abierta

robot
Generación de resúmenes en curso

Según Beating Monitoreo, la Comisión de Relaciones Exteriores de EE. UU. (CFR) y el investigador senior en China y tecnologías emergentes, Chris McGuire (exmiembro del Consejo de Seguridad Nacional de la Casa Blanca y del Departamento de Defensa), publicaron que V4 no ha cambiado el panorama de competencia en IA entre China y EE. UU.
Él citó el texto original del informe V4 y señaló que DeepSeek reconoce que su capacidad de razonamiento “está atrasada aproximadamente de 3 a 6 meses respecto a los modelos de vanguardia”, comparándose con GPT-5.2 y Gemini 3.0 Pro lanzados hace medio año.
También cuestionó que, aunque el informe V4 revela que la adaptación del razonamiento utiliza GPU de NVIDIA y NPU de Huawei Ascend, no se divulguen los modelos específicos de GPU utilizados ni los costos (V3 afirmó haber usado 2000 unidades H800, con un costo de 5.57 millones de dólares), sugiriendo que el silencio implica el uso de chips NVIDIA Blackwell sujetos a control de exportaciones.
Anteriormente, funcionarios del gobierno de EE. UU. propusieron de forma anónima en febrero una afirmación similar, a lo que NVIDIA calificó de “forzada”; DeepSeek negó haber utilizado Blackwell, afirmando que el entrenamiento se realizó en NVIDIA H800 y Huawei Ascend 910C.

El CEO de Replit, Amjad Masad, respondió con firmeza, diciendo que mientras los políticos y lobbistas estadounidenses fomentan el pánico por la “destilación china”, los científicos chinos están compartiendo públicamente verdaderos avances en IA.
Citando las innovaciones estructurales listadas en un tuit oficial de DeepSeek, incluyendo la compresión de atención a nivel de tokens (DeepSeek Sparse Attention) y una mejora significativa en la eficiencia del cálculo de contexto largo, señaló que la potencia de inferencia por token y el uso de caché KV en V4-Pro con un contexto de 1 millón son mucho menores que en V3.2.
Masad cree que estas innovaciones a nivel de arquitectura no tienen relación con la destilación de datos de entrenamiento, y que todos pueden beneficiarse del código abierto, incluyendo laboratorios en EE. UU.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado