Amazon ubicado en Austin, el laboratorio de chips AWS está desarrollando su chip de IA Trainium, y el último chip Trainium3 logra reducir costos hasta un 50% en comparación con servidores en la nube tradicionales manteniendo un rendimiento comparable. Estos chips ahora también han sido optimizados para inferencia de IA, proporcionando soporte a servicios como Amazon Bedrock, y respaldan modelos de IA convencionales incluyendo Anthropic Claude, que ya se ejecutan en más de 1 millón de chips Trainium2. Amazon recientemente llegó a un acuerdo con OpenAI para proporcionar una capacidad de Trainium de 2 gigavatios. El equipo del laboratorio se enfoca en el rápido "lanzamiento" y diseño de chips, con el objetivo de proporcionar una alternativa rentable para contrarrestar la dominante GPU de Nvidia.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado