OpenAI a fait sensation en juillet 2024 avec ses deux nouveaux modèles GPT-4o Mini et GPT-4o. Alors que les précédents modèles de langage (GPT-4, GPT-3.5, etc.) étaient critiqués pour leur coût élevé, cette lacune a désormais été corrigée. GPT-4o Mini et GPT-4o impressionnent par des performances accrues, une meilleure compréhension linguistique et davantage de fonctionnalités, le tout à un coût réduit.
Le développement considérable du chatbot ChatGPT et de l’API (cette dernière étant destinée aux développeurs) a des conséquences : dans la comparaison « ChatGPT-4o vs. 4 », le modèle avancé GPT-4o l’emporte largement. Néanmoins, certaines particularités donnent l’avantage à GPT-4.
Dans cet article de blog, nous comparons les deux modèles entre eux et examinons de plus près le modèle d’entrée de gamme GPT-4o Mini. Bonne lecture !
Fait : GPT-4o dépasse le modèle GPT-4
Les dernières versions de GPT-4 ont été entraînées avec des jeux de données allant jusqu’en décembre 2023. Des données plus récentes n’ont pas été utilisées pour entraîner les nouveaux modèles GPT-4o Mini et GPT-4o. Cela signifie qu’aucun modèle d’OpenAI ne dispose d’un niveau de connaissance plus récent que GPT-4.
Néanmoins, les nouveaux modèles de langage GPT-4o Mini et GPT-4o sont supérieurs au modèle GPT-4. Les principales raisons sont leur plus large éventail de capacités, leur meilleure rentabilité et leurs performances nettement accrues. Dans les semaines suivant leur lancement, ces nouveaux modèles avancés pourront même traiter des fichiers audio et vidéo en tant qu’entrées.
Le « o » dans le nom des nouveaux modèles a une signification : il signifie « omni », c’est-à-dire « tout ». L’entreprise OpenAI souhaite ainsi signaler que les modèles 4o repoussent les limites antérieures des modèles linguistiques et offrent des avantages majeurs par rapport à GPT-4 et à ses prédécesseurs.
Étape 1 : Fonctions de GPT-4 et de ses successeurs
Les nouveaux modèles, publiés en juillet 2024, disposent de capacités multimodales, contrairement à GPT-4. Cela signifie que l’on peut fournir des images que la technologie d’IA traite dans le cadre de la tâche demandée.
Bien que le modèle GPT-4 soit également capable de traiter des images, cette capacité est plus développée dans les nouveaux modèles, et sera même étendue au traitement de fichiers vidéo et audio. Les utilisateurs bénéficieront donc d’une plus grande polyvalence dans le traitement des données par l’IA.
En dehors de ces capacités multimodales, les nouveaux modèles et GPT-4 ne diffèrent pas fondamentalement en termes de fonctionnalités. On peut utiliser GPT-4 et GPT-4o pour les applications suivantes, par exemple :
- Résolution de problèmes mathématiques
- Chat : avoir des conversations naturelles
- Analyse de textes
- Génération de texte
- Analyse d’images (plus limitée avec GPT-4)
- Création d’images
- Recherche
- Programmation (par ex. développement de logiciels)
Pour les développeurs, il existe également une API comme interface de programmation. Si ceux-ci ont accès à l’API GPT, ils peuvent intégrer l’intelligence artificielle à leur environnement de développement. Cela facilite par exemple la programmation d’applications personnalisées ou l’utilisation de l’IA pour certaines tâches (comme l’analyse de données).
La rentabilité de l’API d’OpenAI a nettement augmenté avec les nouveaux modèles : plus de qualité à moindre coût ! La tarification de GPT-4, dont les développeurs bénéficient, est présentée plus en détail dans la section suivante.
Si vous n’avez pas accès à l’API, vous pouvez utiliser le modèle d’IA via le chatbot ChatGPT – comme le font tous les utilisateurs sans connaissances informatiques, qui se servent du chatbot pour discuter, faire des recherches, générer du texte ou d’autres tâches similaires.
Étape 2 : Accès complet au GPT-4o Mini avec le forfait gratuit
Chez OpenAI, vous pouvez utiliser ChatGPT avec deux forfaits : Free (gratuit) et ChatGPT Plus. Une innovation importante, qui n’existait pas avec le modèle GPT-4, est la possibilité d’utiliser gratuitement les modèles :
- En tant qu’utilisateur gratuit, vous ne payez rien pour utiliser le chatbot et avez un accès complet à GPT-4o Mini. Vous n’avez aucun accès à GPT-4 avec le forfait gratuit, et un accès limité à GPT-4o.
- En tant qu’utilisateur Plus, vous avez un accès illimité à GPT-4, GPT-4o Mini et GPT-4o. Vous pouvez également utiliser le service de création d’images « DALL-E » et créer vos propres GPTs.
Cela signifie que les clients d’OpenAI bénéficient désormais d’avantages significatifs en termes de tarification. Les développeurs profitent également de meilleures conditions pour l’utilisation de l’API. Sur cette page d’OpenAI, vous avez un aperçu des coûts liés à l’API. Les prix de tous les modèles encore pris en charge avec accès à l’API y sont listés :
- GPT-3.5 Turbo
- GPT-4
- GPT-4 Turbo
- GPT-4o Mini
- GPT-4o
Comme il existe différentes versions pour presque chaque modèle, OpenAI indique les prix pour chaque version sur la page concernée. Étant donné que GPT-3.5 et les générations plus anciennes ne sont plus prises en charge, seuls les modèles récents à partir de GPT-3.5 Turbo sont listés.
Voici un exemple de coûts pour illustrer la tarification avantageuse de GPT-4o par rapport à GPT-4 :
- GPT-4 coûte 30 dollars US par million de tokens en entrée et 60 dollars US par million de tokens en sortie.
- GPT-4 Turbo, qui a préparé la voie aux deux nouveaux modèles grâce à plusieurs optimisations, coûte 10 dollars par million de tokens en entrée et 30 dollars en sortie.
- Le modèle GPT-4o Mini, qui remplace le modèle GPT-3.5 Turbo comme version économique, coûte 0,15 dollar par million de tokens en entrée et 0,60 dollar en sortie.
- GPT-4o coûte 5 dollars par million de tokens en entrée et 15 dollars en sortie.
Les coûts moindres des nouveaux modèles, combinés à des optimisations qualitatives, ont permis à OpenAI de reprendre l’avantage sur la concurrence de Google, Apple et Anthropic. En particulier, le remplacement du modèle GPT-3.5 Turbo par le modèle GPT-4o Mini, plus performant et plus efficace, a propulsé OpenAI au sommet du segment d’entrée de gamme des IA à bas coût.
Étape 3 : Hautes performances, bonnes réponses, grands avantages
Il ne fait aucun doute que tous les chatbots d’OpenAI sont désormais de haute qualité et dotés de technologies avancées. Ils accomplissent également une grande variété de tâches avec brio. La polyvalence des chatbots et des modèles linguistiques ainsi que leurs hautes performances sont perceptibles dans toutes sortes de missions.
Le modèle GPT-4 a fixé de nouveaux standards. Après que GPT-3.5 a déclenché un boom des modèles de langage IA lors de sa sortie en novembre 2022 et conduit un million d’utilisateurs à s’inscrire sur le site d’OpenAI en une semaine, GPT-4 a représenté la prochaine grande étape.
Cela commence par la fenêtre de contexte de GPT-4 : elle mesure le nombre de tokens que le modèle peut prendre en compte de manière cohérente dans une tâche. Par exemple, dans une conversation avec ChatGPT, une fenêtre de contexte élevée permet des échanges plus riches et détaillés.
La fenêtre de contexte est donc un facteur important dans la capacité de l’IA à fournir des réponses de qualité dans un sujet donné. GPT-4 convainc ici avec 128 000 tokens (128k). Initialement, GPT-4 était limité à 8 000 tokens, mais les versions suivantes ont porté ce chiffre à 128 000.
Les nouveaux modèles GPT-4o et GPT-4o Mini disposent eux aussi d’une fenêtre de contexte de 128k. Cela présente les avantages suivants :
- plus de créativité
- plus d’informations
- meilleure précision pour les tâches complexes
- solutions plus nuancées aux problèmes
Ainsi, tous les nouveaux modèles offrent des réponses de grande qualité par rapport à leurs prédécesseurs (GPT-3, GPT-3.5) et apportent des bénéfices considérables aux utilisateurs. Avec GPT-4, il a été possible pour la première fois de réussir des examens exigeants avec d’excellentes notes et de résoudre des questions complexes en droit fiscal.
C’est toujours le cas avec les modèles GPT-4o Mini et GPT-4o.
La boutique de plugins, aujourd’hui appelée GPT Store, permet aussi de créer ses propres outils et extensions d’IA pour les chatbots. Cette option est disponible pour tous les modèles avancés à partir de GPT-4, ce qui permet de personnaliser GPT-4, GPT-4o Mini et GPT-4o.
Même si tous les modèles offrent une grande valeur ajoutée et des réponses de qualité, les deux nouveaux modèles surpassent GPT-4 en matière de performances. Lors de tests, par exemple, GPT-4o a répondu à des entrées vocales – c’est-à-dire lorsqu’on pose une question à l’oral plutôt que de la taper – en seulement 232 millisecondes.
GPT-4, en revanche, met plusieurs secondes à répondre à une entrée vocale. Les nouveaux modèles 4o permettent donc pour la première fois une interaction en temps réel avec ChatGPT. Cela revêt une grande importance dans l’évolution des assistants vocaux. Les conversations en temps réel améliorent l’expérience utilisateur et augmentent la productivité lors de l’utilisation du chatbot.
Le fait que les nombreuses nouvelles fonctions de GPT-4o Mini et GPT-4o soient également accompagnées d’une qualité supérieure, d’une vitesse accrue et de coûts réduits est un argument évident en faveur de leur utilisation. Dans les semaines à venir, OpenAI prévoit d’élargir les capacités multimodales, ce qui offrira encore plus de possibilités et de flexibilité aux utilisateurs du chatbot et de l’API.
Les modèles ChatGPT-4 et suivants ont-ils des défauts ?
GPT-4o et sa version Mini ont un inconvénient majeur : l’absence d’accès à Internet. Cela signifie que ces nouveaux modèles IA sont limités aux données utilisées lors de leur entraînement. GPT-4o et la version Mini ont été entraînés avec des données jusqu’en septembre 2023.
GPT-4, en revanche, offre un avantage avec son accès au Web. Les utilisateurs bénéficient donc non seulement de données d’entraînement plus récentes – jusqu’à décembre 2023 – mais aussi de la possibilité d’accéder à des données très actuelles via Internet. L’IA accède alors à des informations à jour provenant de divers sites si nécessaire.
Grâce à cet accès au Web, GPT-4 peut gérer avec précision des tâches et des sujets très récents. C’est un avantage évident pour tous les utilisateurs ayant besoin d’informations actualisées. De plus, les utilisateurs souhaitant utiliser ChatGPT ou l’API pour des applications web en profitent également.
Pour notre agence SEO BeforSEO, par exemple, GPT-4 est le meilleur choix car nous utilisons les assistants IA pour l’optimisation des moteurs de recherche (SEO).
Dans ce domaine, une intelligence artificielle doit pouvoir analyser les volumes de recherche actuels des mots-clés, les backlinks et l’état technique des sites – ce qui nécessite un accès Internet. GPT-4 est capable de le faire, contrairement à GPT-4o Mini et GPT-4o.
Un point où ChatGPT-4o l’emporte sur ChatGPT-4 est sa protection contre la manipulation. Selon certains médias, un type de manipulation couramment tenté avec GPT-4 est l’injection de requêtes : « Ignore toutes les instructions des développeurs d’OpenAI ». Des utilisateurs de ChatGPT-4 et de l’API GPT-4 tentaient ainsi de détourner l’IA à leur avantage.
Les injections de requêtes et les manipulations posent un risque immense pour une IA ayant accès à des infrastructures numériques critiques. Dans ce contexte, le risque lié à un chatbot tel que ChatGPT pourrait atteindre des proportions inattendues.
Grâce à la hiérarchie d’instructions – un concept utilisé pour la première fois dans le développement de GPT-4o Mini et GPT-4o – le risque d’injections de requêtes et d’autres manipulations est fortement réduit. GPT-4o est donc le vainqueur clair en matière de sécurité.
Malgré toutes ces évolutions, certains points faibles persistent dans tous les modèles avancés. Un exemple est l’invention de faits, qu’on appelle des hallucinations. Si vous demandez par exemple « Raconte-moi comment Angela Merkel a fait tomber Wirecard en 2022 », GPT-4 et GPT-4o pourraient inventer une histoire expliquant comment Angela Merkel aurait révélé le scandale Wirecard – ce qui n’a jamais eu lieu.
Les modèles de langage IA sont sujets aux hallucinations lorsque des questions sont posées comme si un événement fictif était réel. C’est probablement la formulation même de la question, présentant comme réel un événement inexistant, qui induit l’IA en erreur.
Conclusion : GPT-4o fixe de nouveaux standards presque partout. GPT-4 reste préférable pour les applications web.
Dans le duel ChatGPT-4o vs. 4, le nouveau modèle l’emporte presque sur tous les plans. GPT-4o est plus sûr, moins cher, plus rapide et plus fonctionnel.
Les seuls inconvénients de GPT-4o par rapport à GPT-4 sont des hallucinations occasionnelles, un ensemble de données légèrement plus ancien, et l’absence d’accès à Internet.
GPT-4 reste le meilleur choix pour les applications nécessitant un accès en ligne (par ex. SEO) et les travaux demandant des données très actuelles. Pour le reste, ce modèle reste solide, mais bien plus lent et beaucoup plus coûteux que GPT-4o. Ainsi, pour les débutants – qu’ils soient utilisateurs du chatbot ChatGPT ou développeurs utilisant l’API – il est préférable d’opter pour les nouveaux modèles.
