San Francisco, le 10 juin 2025 — OpenAI a officiellement lancé o3-pro, son modèle de langage le plus performant et le plus fiable à ce jour, désormais disponible pour les utilisateurs de ChatGPT Pro et Team. Remplaçant l'ancien o1-pro, le modèle o3-pro est également disponible immédiatement pour les développeurs d'API, les comptes Entreprise et Éducation y ayant accès dès la semaine prochaine. Cette version met l'accent sur le raisonnement avancé, une fiabilité constante et une meilleure intégration des outils, ciblant les cas d'usage professionnels et professionnels.
Selon OpenAI, o3-pro surpasse o1-pro et le modèle o3 précédent dans les benchmarks internes et externes, notamment en sciences, mathématiques, codage et prise de décision à enjeux élevés. Le modèle obtient des scores élevés lors du test de fiabilité 4/4 d'OpenAI, conçu pour évaluer la capacité d'un modèle à produire systématiquement des réponses correctes lors de requêtes répétées. Comparé à ses principaux concurrents tels que Gemini 2.5 Pro de Google et Claude 3 Opus d'Anthropic, o3-pro a affiché des performances supérieures lors de benchmarks rigoureux comme AIME (mathématiques) et GPQA (sciences de niveau master).
Avec cette version, OpenAI a également annoncé un changement majeur dans sa stratégie tarifaire. o3-pro se positionne comme un modèle premium (20 $ par million de jetons d'entrée et 80 $ par million de jetons de sortie). Parallèlement, l'entreprise a réduit le coût du modèle o3 de base de 80 %, le rendant ainsi plus accessible aux développeurs et aux startups, à respectivement 2 $ et 8 $ par million de jetons d'entrée et de sortie.
Le modèle o3-pro est doté de puissantes fonctionnalités, notamment la navigation web avancée, l'exécution de code Python, le raisonnement basé sur la vision, l'analyse de fichiers et la prise en charge de la personnalisation de la mémoire dans ChatGPT. Cependant, cette version présente quelques limitations temporaires. Au lancement, il ne prend pas en charge la génération d'images, l'espace de travail Canvas ni les sessions de chat temporaires, et ses temps de réponse sont plus lents que ceux des modèles précédents en raison de la puissance de calcul de ses capacités de raisonnement plus poussées. Les premiers retours des développeurs indiquent que les réponses complexes peuvent prendre jusqu'à deux à trois minutes.
Le PDG d'OpenAI, Sam Altman, a également confirmé que la sortie initialement prévue à la mi-juin d'un modèle de pondération ouverte a été reportée à la fin de l'été, bien que la société ait réaffirmé son engagement en faveur du développement d'une IA ouverte.
Malgré les compromis en termes de latence, les premières analyses suggèrent qu'o3-pro établit de nouvelles normes en matière de performances d'IA fiables et cohérentes. Ce modèle devrait être particulièrement utile dans les domaines exigeant précision et répétabilité, tels que l'analyse juridique, la recherche scientifique, la modélisation financière et l'automatisation d'entreprise. L'alliance de la précision, de la flexibilité et de la nouvelle tarification témoigne de la volonté d'OpenAI d'ouvrir la voie, tant aux consommateurs qu'aux développeurs, vers une IA générative plus fiable et plus robuste.
Premiers pas avec o3-pro
CometAPI fournit une interface REST unifiée qui regroupe des centaines de modèles d'IA sous un point de terminaison cohérent, avec gestion intégrée des clés API, des quotas d'utilisation et des tableaux de bord de facturation. Plus besoin de jongler avec plusieurs URL et identifiants de fournisseurs.
Les développeurs peuvent accéder API o3-Pro(modèle: "o3-Pro"ou alors"o3-pro-2025-06-10") à travers API CometLes derniers modèles listés sont ceux en vigueur à la date de publication de l'article. Pour commencer, explorez les fonctionnalités du modèle dans la section cour de récréation et consultez le Guide de l'API Pour des instructions détaillées, veuillez vous connecter à CometAPI et obtenir la clé API avant d'y accéder. API Comet proposer un prix bien inférieur au prix officiel pour vous aider à vous intégrer.
