¡OpenAI acaba de anunciar el lanzamiento oficial del último o3-mini! Este pequeño modelo de razonamiento está especialmente optimizado para el campo STEM (ciencia, matemáticas, programación), y ofrece una poderosa capacidad de razonamiento lógico al mismo tiempo que mantiene bajos costos y baja latencia. En comparación con su predecesor, o1-mini, o3-mini tiene un cálculo más rápido, respuestas más precisas y una tasa de error de latencia del 39%, lo que lo convierte en uno de los modelos de IA ligeros más competitivos en la actualidad.
o3-mini ahora está disponible para su acceso a través de ChatGPT (incluidos los planes Plus, Team, Pro) y OpenAI API, y la versión empresarial estará disponible en febrero. Además, vale la pena destacar que este es el primer modelo de inferencia que se abre para que los usuarios gratuitos lo prueben, y cualquier persona puede experimentarlo seleccionando el modo "Reason" en ChatGPT o regenerando respuestas.
¡Actualización completa! o3-mini es 5 veces más fuerte que o1-mini en 5 puntos clave
Soporte de varias funciones para desarrolladores, directamente en el entorno de producción
o3-mini es el primer modelo de inferencia en miniatura de OpenAI que admite las funciones populares para los desarrolladores, que incluyen:
Llamada de función (Function Calling) - Integración perfecta de IA y aplicaciones
Salidas estructuradas - Generar JSON, tablas
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
OpenAI lanza el nuevo modelo gratuito O3-mini: el modelo de inferencia más potente y compacto, ¡una actualización de bajo costo y alto rendimiento!
¡OpenAI acaba de anunciar el lanzamiento oficial del último o3-mini! Este pequeño modelo de razonamiento está especialmente optimizado para el campo STEM (ciencia, matemáticas, programación), y ofrece una poderosa capacidad de razonamiento lógico al mismo tiempo que mantiene bajos costos y baja latencia. En comparación con su predecesor, o1-mini, o3-mini tiene un cálculo más rápido, respuestas más precisas y una tasa de error de latencia del 39%, lo que lo convierte en uno de los modelos de IA ligeros más competitivos en la actualidad.
o3-mini ahora está disponible para su acceso a través de ChatGPT (incluidos los planes Plus, Team, Pro) y OpenAI API, y la versión empresarial estará disponible en febrero. Además, vale la pena destacar que este es el primer modelo de inferencia que se abre para que los usuarios gratuitos lo prueben, y cualquier persona puede experimentarlo seleccionando el modo "Reason" en ChatGPT o regenerando respuestas.
¡Actualización completa! o3-mini es 5 veces más fuerte que o1-mini en 5 puntos clave
o3-mini es el primer modelo de inferencia en miniatura de OpenAI que admite las funciones populares para los desarrolladores, que incluyen:
Llamada de función (Function Calling) - Integración perfecta de IA y aplicaciones
Salidas estructuradas - Generar JSON, tablas