GPT-4o

grand modèle multimodal créé par OpenAI
(Redirigé depuis GPT-4o mini)

GPT-4o (abréviation de « GPT-4 omni ») est un transformateur pré-entraîné génératif (grand modèle de langage, ou LLM) multilingue et multimodal conçu par l'entreprise OpenAI et rendu public en mai 2024.

GPT-4o

Informations
Développé par OpenAI
Première version [1]Voir et modifier les données sur Wikidata
Langues Multilingue
Type Transformateur pré-entraîné génératif (LLM)
Licence Licence propriétaireVoir et modifier les données sur Wikidata
Site web openai.com/gpt-4o

Chronologie des versions

Il est dit multimodal (OpenAI parle d'« omnimodèle »[2], d'où la lettre « O » ou l'appellation « omni ») c'est-à-dire qu'il peut à la fois, et en temps réel, traiter et générer : du texte, du son et des images[3]. Il peut converser avec un ou plusieurs interlocuteurs, en plusieurs langues, en utilisant la parole en temps réel. Utilisé via un smartphone, il peut même adapter ses réponses après avoir analysé l'environnement visuel et les signaux émotionnels de ses interlocuteurs.

Son API est deux fois plus rapide que son prédécesseur, GPT-4 Turbo[3]. Son nouveau tokenizer utilise moins de tokens, notamment pour les langues non basées sur l'alphabet latin, ce qui rend ce modèle moins « coûteux » en ressources pour ces langues[4].

Historique

modifier

Ce modèle a été annoncé par Mira Murati, CTO d'OpenAI, lors d'une démo diffusée en direct le 13 mai 2024, et intégré à ChatGPT le même jour ; soit la veille de « Google I/O », la conférence où Google annonce de nouveaux produits (Google est l'un des principaux concurrents d'OpenAI dans les domaines des LLM[5]).

Avant ce lancement, GPT-4o a été initialement lancé sur LMSYS, sous la forme de trois modèles différents : gpt2-chatbot, im-a-good-gpt2-chatbot et im-also-a-good-gpt2-chatbot. Le 7 mai 2024, Sam Altman a publié le tweet « im-a-good-gpt2-chatbot », interprété comme une confirmation du fait qu'OpenAI était responsable de ces nouveaux modèles (alors mystérieux) et effectuait des tests A/B[6].

Il ne sera gratuit via ChatGPT que pour un certain nombre de questions, en fonction du degré d'utilisation du modèle, et de la demande ; quand cette limite sera atteinte, ChatGPT basculera la conversation sur GPT-3.5.

Capacités

modifier

GPT-4o a obtenu des résultats de pointe sur des tests de performance en qualité vocale, vision et multilinguisme ; et selon OpenAI, il est 2 fois plus rapide, deux fois moins cher que GPT-4 Turbo[4].

  • Contrairement à GPT-3.5 et GPT-4 (qui dépendent d'autres modèles pour traiter le son), GPT-4o prend en charge, nativement, les conversations vocales, avec des réponses plus fluides et rapides[4] (Remarque : cette fonctionnalité n'a pas encore été publiée, la fonctionnalité vocale de l'application ChatGPT est toujours l'ancienne version[7]).
  • Son API est deux fois plus rapide que son prédécesseur, GPT-4 Turbo[3]. Ars Technica (mai 2024) note qu'une réponse à une entrée audio se fait en environ 320 millisecondes (moyenne), un score comparable au temps de la moyenne linguistique d'une réponse humains dans une conversation normale (« interaction verbale informelle » mesuré par une étude publiée dans PNAS en 2009). Ce délai est bien plus court que le décalage antérieur de 2 à 3 secondes qui caractérisaient les meilleurs des modèles précédents[2], et GPT-4o se comporte de plus en plus comme un locuteur humain, en répondant quand vient son tour, en évitant les lacunes et les chevauchements, en s'appuyant sur les indices fournis par la grammaire, la prosodie, le ton et le vocabulaire pour déterminer quand lancer sa réponse orale, dans un timing optimisé ;
  • GPT-4o a battu de nouveaux records en termes de traduction automatique[8], avec plus de 50 langues prises en charge[10], couvrant donc plus de 97 % des locuteurs. Lors de l'événement de démonstration par OpenAI, en direct le 13 mai 2024, Mira Murati a montré la capacité multilingue du modèle en lui parlant en italien et en le faisant traduire entre anglais et l'italien[8].
  • Le nouveau tokenizer réduit pour plusieurs langues le nombre de tokens nécessaires pour encoder des phrases, diminuant ainsi les coûts énergétiques et financiers pour les serveurs d'OpenAI. En particulier pour les langues qui ne sont pas basées sur l'alphabet latin[4].
  • GPT-4o a été rapidement qualifié de chatbot émotionnel (par Ars Technica par exemple) car il peut, assez fidèlement, analyser les émotions des personnes qui interagissent avec lui. Il le fait en mode audio-vidéo via le micro et la caméra du smartphone ou de l'ordinateur, en exploitant des indices subtils détectés, via la caméra et le micro, dans les expressions faciales, le langage corporel (non verbal, avec par exemple, la position de la tête, des hochements de tête ou mouvements de négation, les jeux de regard ou mouvements de main, etc., qui chez l'humain s'intègrent dans la conversation, plus ou moins inconsciemment ou parfois intrusivement et ce, avant même les réponses verbales en général), ainsi que dans le ton de la voix[2]. Le modèle peut alors s'adapter, en temps réel, au contexte émotionnel de la conversation, et à l’humeur de l'interlocuteur en changeant notamment de ton et de style verbal d'une manière qui permet à l'intelligence artificielle d'engager des conversations bien plus naturelles et empathiques que précédemment avec les utilisateurs[2].

À son lancement en mai 2024, GPT-4o est le meilleur grand modèle de langage du classement Elo de LMSYS, avec un avantage particulièrement significatif en programmation informatique[11]. Une fois largement disponible, il aura accès à la navigation Web, à l’analyse des données, au GPT Store et à des fonctionnalités de mémoire jusqu'alors réservées aux abonnés à ChatGPT Plus, Team et Enterprise[2].

Jionghao Lin et al. (mai 2024) notent que dans le domaine éducatif ou professionnel, les rétroactions, bilans et corrections faites par ce type d'intelligence artificielle pourraient bénéficier de leur caractère nativement multimodal. En effet, de tels « feedback multimodaux » permettent a priori d'améliorer l'apprentissage grâce à des commentaires pouvant associer le son et l'image au texte habituel. Automatiser la production de feed-backs mobilisant trois canaux sensoriels pourrait permettre de renforcer les acquisitions, et ce pour un grand nombre d’apprenants[12].

Risques, limites, précautions

modifier

OpenAI se dit conscient des défis de sécurité et de protection des données alors que ce modèle fonctionne en temps réel. Selon OpenAI, pour accroître la sécurité des interaction des humains avec ce modèle :

  • GPT-4o intègre la sécurité par son design initial, et pour toutes les modalités, grâce à des techniques de type filtrage des données d’entraînement ; l’affinement du comportement du modèle par post-entraînement ; filtrage des sorties vocales ;
  • GPT-4o est testé par « une vaste équipe rouge externe avec plus 70 experts externes dans des domaines tels que la psychologie sociale, les biais les préjugés et l’équité et la désinformation, pour identifier les risques introduits ou amplifiés par les modalités nouvellement ajoutées ». Et les utilisateurs seront invités à signaler d'éventuels problèmes, au fur et à mesure de leur découverte »[2] ;
  • GPT-4o est lancé avec quelques voix prédéfinies et respectant les politiques de sécurité de l'entreprise qui a stoppé.

GPT-4o mini

modifier

Le 18 juillet 2024, OpenAI a lancé une version plus petite et moins chère, GPT-4o mini[13].

Selon OpenAI, son faible coût devrait être particulièrement utile pour les entreprises, les startups et les développeurs qui cherchent à l'intégrer dans leurs services. Ce type d'utilisation implique souvent un grand nombre d'appels à l'interface de programmation (API) d'OpenAI[14]. Celle-ci coûte 0,15 $ par million de tokens en entrée et 0,60 $ par million de tokens en sortie, contre 5 $ et 15 $ respectivement pour GPT-4o. Il est également nettement plus performant et 60 % moins cher que GPT-3.5 Turbo, qu'il a remplacé sur ChatGPT[15]. GPT-4o mini sera disponible à l'automne 2024 sur les appareils mobiles et les ordinateurs de bureau Mac d'Apple, via le service Apple intelligence[14].

Références

modifier
  1. (en) « OpenAI launches new AI model GPT-4o and desktop version of ChatGPT »,
  2. a b c d e et f (en) Benj Edwards, « Major ChatGPT-4o update allows audio-video talks with an “emotional” AI chatbot », sur Ars Technica, (consulté le )
  3. a b et c Célia Séramour, « Avec GPT-4o, OpenAI veut défier toute concurrence sur les modèles multimodaux », L'Usine Digitale,‎ (lire en ligne, consulté le )
  4. a b c et d (en) « Hello GPT-4o », sur OpenAI, .
  5. (en) Sumeet Wadhwani, « AI Galore: Key Announcements From Google I/O 2024 », sur Spiceworks, (consulté le )
  6. (en) Carl Franzen, « OpenAI announces new free model GPT-4o and ChatGPT for desktop », (consulté le )
  7. (en) « OpenAI GPT-4o: How to access GPT-4o voice mode; insights from Sam Altman », The Times of India,‎ (ISSN 0971-8257, lire en ligne, consulté le )
  8. a b et c (en) Ryan Daws, « GPT-4o delivers human-like AI interaction with text, audio, and vision integration », sur AI news, (consulté le )
  9. (en) « OpenAI Launched GPT-4o: The Future of AI Interactions Is Here », sur The digital speaker, (consulté le )
  10. (en-US) Wiggers, « OpenAI debuts GPT-4o 'omni' model now powering ChatGPT », TechCrunch, (consulté le )
  11. (en) Carl Franzen, « OpenAI announces new free model GPT-4o and ChatGPT for desktop », sur VentureBeat, (consulté le ).
  12. Lin, J., Chen, E., Gurung, A., & Koedinger, K. R. (2024). MuFIN: A Framework for Automating Multimodal Feedback Generation using Generative Artificial Intelligence.| url=https://files.osf.io/v1/resources/3asxz/providers/osfstorage/66450a364664da9366ed6bb7
  13. Dominique Filippone, « GPT-4o mini : un LLM multimodal petit mais costaud », sur Le Monde Informatique, (consulté le )
  14. a et b (en) Carl Franzen, « OpenAI unveils GPT-4o mini — a smaller, much cheaper multimodal AI model », sur VentureBeat, (consulté le )
  15. Julien Cadot, « La version gratuite de ChatGPT devient meilleure grâce à GPT-4o mini », sur Numerama, (consulté le )

Voir aussi

modifier

Articles connexes

modifier

Liens externes

modifier