OpenAI publie ses premiers modèles d’IA ouverts depuis 2019

OpenAI publie enfin ses nouveaux modèles openweights, et ce alors que les convictions de Meta semblent vaciller. Ils incluent ses dernières techniques en matière de raisonnement, mais ne sont pas multimodaux et auront fort à faire pour s’imposer face aux modèles chinois.

OpenAI a publié deux modèles GPT-OSS le 5 août au soir. Il s’agit de ses premiers modèles ouverts depuis GPT-2, qui était sorti en 2019. L’entreprise avait promis qu’elle le ferait après avoir essuyé de nombreuses critiques ces dernières années sur son choix de fermer son écosystème, d’autant plus ironique étant donné son nom.

Les deux variantes sont gpt-oss-120b et gpt-oss-20b, qui comportent respectivement 117 et 21 milliards de paramètres. Ils sont disponibles sur Hugging Face et GitHub, sous licence Apache 2.0. OpenAI vante que gpt-oss-20b puisse tourner sur un simple PC haut de gamme, mais il est recommandé d’avoir une station de travail ou un système multi-GPU pour utiliser gpt-oss-120b.

Sur le papier, les performances sont au rendez-vous. OpenAI a publié des résultats de benchmark impressionnants, et indique que GPT-OSS intègre les techniques de raisonnement par “chaîne de pensée” (CoT) et d’utilisation d’outils (notamment Python) qu’elle a développé pour ses modèles commerciaux comme ceux de la famille o3. Dans les faits, les premiers retours utilisateurs semblent plus mitigés, avec notamment un nombre important d’hallucinations rapportées.

L’optimisation pour les benchmarks est une stratégie classique dans la tech, mais qui peut vite faire déchanter. Meta en a récemment fait les frais avec Llama-4, qui s’est avéré être un échec malgré un lancement en grande pompe . Les modèles GPT-OSS sont par ailleurs quantifiés en MXFP4 (pour en réduire la taille), ce qui limite la possibilité de créer des modèles dérivés et personnalisés pour les entreprises ou développeurs indépendants.

Pas de multimodalité

GPT-OSS risque donc d’avoir du mal à s’imposer face à la concurrence, notamment chinoise. Qwen 3 devrait rester la coqueluche du secteur pendant encore quelques temps. L’autre limitation de GPT-OSS est l’absence de multimodalité. Les deux modèles ne traitent que du texte, pas d’image ou de son, contrairement aux modèles Llama de Meta par exemple. Ils devraient malgré tout trouver leur utilité, et leur sortie ne peut qu’enrichir la communauté et se doit d’être saluée. D’autant plus alors que Mark Zuckerberg semble faire marche arrière sur sa stratégie open source depuis l’échec de Llama-4.

OpenAI a d’ailleurs indiqué que l’accueil de GPT-OSS conditionnerait la sortie ou pas d’autres modèles ouverts à l’avenir. Un bon entendeur. A noter au passage que même si ces modèles soient présentés comme ouverts, ils ne le sont qu’à moitié. Ils sont “openweight”, ce qui signifie que ni le code source, ni les données d’entraînement ne sont partagées. C’est devenu la pratique dans l’industrie, et les modèles Llama de Meta ou Gemma de Google suivent le même principe. Le français Mistral a publié quelques modèles complètement ouverts, comme Mistral NeMo, mais cela reste rare.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *