« OpenAI » : différence entre les versions

Contenu supprimé Contenu ajouté
Alenoach (discuter | contributions)
Ajout d'une phrase et de sources, reformulation
Alexcan62 (discuter | contributions)
Ajout d'hyperliens manquants vers d'autres articles + Corrections de fautes d'orthographes
Ligne 17 :
== Historique ==
 
OpenAI est fondée en tant qu'[[association à but non lucratif]], le {{date-|11|décembre|2015}}, avec pour siège social initial historique le [[Pioneer Building (San Francisco)|Pioneer Building]] de [[San Francisco]], au nord de la [[Silicon Valley]] en [[Californie]]<ref name="clubic">{{Lien web |auteur=Thomas Pontiroli |titre=OpenAI, ou l'espoir d'une IA à visage humain |url=http://pro.clubic.com/actualite-e-business/actualite-789448-openai.html |site=[[Clubic]] |date=14 décembre 2015}}.</ref>{{,}}<ref name="zdnet">{{Lien web| auteur=Thierry Noisette |url=http://www.zdnet.fr/actualites/intelligence-artificielle-openai-est-cree-par-elon-musk-peter-thiel-amazon-web-services-et-d-autres-39829714.htm |titre=« Intelligence artificielle: OpenAI est créé par Elon Musk, Peter Thiel, Amazon Web Services et d'autres » |date=13 décembre 2015 |site=[[ZDNet]]}}.</ref>{{,}}<ref name="lemonde">{{Article |langue=fr |titre=Elon Musk lance un centre sur l’intelligence artificielle pour « bénéficier à l’humanité » |url=https://www.lemonde.fr/pixels/article/2015/12/14/elon-musk-lance-un-centre-sur-l-intelligence-artificielle-pour-beneficier-a-l-humanite_4831944_4408996.html |périodique=[[Le Monde]] |date=2015-12-14 |consulté le=2019-03-19}}.</ref>{{,}}<ref name="bfmtv">{{Lien web |langue=fr |titre=OpenAI: Musk veut l’intelligence artificielle au service de tous |url=https://hightech.bfmtv.com/internet/openai-elon-musk-veut-que-l-intelligence-artificielle-soit-au-service-de-tous-936928.html |site=[[BFM TV]] |consulté le=2019-03-19}}.</ref>, suivie en 2020, dans les mêmes lieux, de la seconde startup [[Neuralink]] de recherche en [[neurotechnologie]] d'[[Elon Musk]].
 
<gallery mode="packed">
Ligne 31 :
Les fondateurs se sont engagés en 2015 sur un budget global d'un milliard de [[Dollar américain|dollars]], cependant seule une faible part serait utilisée dans les premières années<ref name="openai-introduction">{{Lien web |langue=en |titre=Introducing OpenAI |url=https://openai.com/blog/introducing-openai/ |site=OpenAI}}.</ref>.
 
[[Elon Musk]] quitte la société en 2018 à la suite d'un conflit de direction<ref>{{Lien web |langue=fr |auteur=Joséphine Boone |titre=Qui est Open AI, le laboratoire derrière l'intelligence artificielle star ChatGPT ? |url=https://www.lesechos.fr/tech-medias/intelligence-artificielle/open-ai-le-laboratoire-a-lorigine-de-lintelligence-artificielle-star-chatgpt-1886876 |accès url=limité |site=[[Les Échos]] |date=2022-12-07 |consulté le=2022-12-24}}.</ref>{{,}}<ref>{{Lien web |langue=fr-FR |prénom=Julien |nom=Lausson |titre=Pourquoi Elon Musk râle contre OpenAI alors qu'il en est le fondateur ? |url=https://www.numerama.com/tech/651582-pourquoi-elon-musk-rale-contre-openai-alors-quil-en-est-le-fondateur.html |accès url=libre |site=[[Numerama]] |date=2020-09-28 |consulté le=2022-12-24}}.</ref>.
 
En {{date-|mars 2019}}, l'association devient une entreprise à but lucratif plafonné pour attirer des capitaux<ref>{{Article | langue = en | titre = OpenAI shifts from nonprofit to ‘capped-profit’ to attract capital | périodique = TechCrunch | jour = 11 | mois = mars | année = 2019 | url texte = https://techcrunch.com/2019/03/11/openai-shifts-from-nonprofit-to-capped-profit-to-attract-capital/}}.</ref>{{,}}<ref>{{Lien web |langue=fr |titre=OpenAI devient une société à "but lucratif plafonné" pour attirer de nouveaux capitaux |url=https://siecledigital.fr/2019/03/13/openai-devient-une-societe-a-but-lucratif-plafonne-pour-attirer-de-nouveaux-capitaux/ |site=Siècle Digital |date=2019-03-13 |consulté le=2019-07-15}}.</ref>. L'objectif de ce nouveau statut est de permettre aux investisseurs de recevoir une partie des bénéfices de la société jusqu’à un maximum de 100 fois la mise de départ<ref name=":0">{{Lien web |langue=fr |auteur=Malagigi Boutot |titre=OpenAI, une « entreprise à but lucratif plafonné » unique au monde |url=https://generationsnouvelles.net/openai-une-entreprise-a-but-lucratif-plafonne-unique-au-monde/ |accès url=libre |site=Générations nouvelles |date=8 décembre 2022 |consulté le=16-01-2023}}.</ref>.
Ligne 37 :
En 2019, [[Microsoft]] a par ailleurs annoncé son intention d'investir un milliard de dollars dans OpenAI, en échange d'un partenariat privilégié avec OpenAI, lorsque la société commercialisera ses technologies d'intelligence artificielle<ref>{{Lien web |langue=fr |auteur=François Manens |titre=Pourquoi Microsoft mise un milliard de dollars sur la pépite OpenAI |url=https://www.latribune.fr/technos-medias/informatique/pourquoi-microsoft-mise-un-milliard-de-dollars-sur-la-pepite-openai-824337.html |accès url=libre |site=[[La Tribune (France, 1985)|La Tribune]] |date=24 juillet 2019 |consulté le=16-01-2023}}.</ref>.
 
En 2020, OpenAI lance [[GPT-3]], un modèle de langage entraîné sur de larges quantités de texte issus d'internet<ref name=":6">{{Lien web |langue=fr |prénom=Bastien |nom=L |titre=ChatGPT : qu'est-ce que c'est ? Le guide complet |url=https://www.lebigdata.fr/chatgpt |site=www.lebigdata.fr |consulté le=2023-06-16}}</ref>. Puis en 2021, OpenAI annonce [[DALL-E]], la première version d'un modèle capable de générer des images à partir de descriptions textuelles.
 
En 2021, OpenAI a lancé le ''OpenAI Startup Fund''. Grâce à un fonds initial de {{nobr|100 millions}} de dollars, celui-ci cherche à investir dans quelques startups d'intelligence artificielle pouvant avoir un effet transformateur sur la société, dans des domaines tels que les [[soins de santé]], le [[changement climatique]] ou l'[[éducation]], et {{Citation|où les outils d'IA peuvent autonomiser les gens en les aidant à être plus productifs<ref>{{Lien web |langue=en |titre=OpenAI Startup Fund |url=https://openai.com/fund/ |site=OpenAI |consulté le=2022-04-21}}.</ref>{{,}}<ref>{{Lien web |langue=en |prénom=Devin |nom=Coldewey |titre=OpenAI's $100M startup fund will make 'big early bets' with Microsoft as partner |url=https://techcrunch.com/2021/05/26/openais-100m-startup-fund-will-make-big-early-bets-with-microsoft-as-partner/ |site=TechCrunch |date=2021-05-26 |consulté le=2024-06-27}}</ref>.}}
Ligne 49 :
Le {{date-|14 mars 2023}}, OpenAI annonce officiellement [[GPT-4]], un modèle de langage plus puissant et capable aussi d'analyser des images<ref name=":4">{{Lien web |langue=fr |prénom=Sabrina |nom=Ortiz {{!}} |titre=GPT-4 : tout savoir sur le nouveau chatbot |url=https://www.zdnet.fr/pratique/gpt-4-tout-savoir-sur-le-nouveau-chatbot-39955618.htm |site=ZDNet France |date=2023-03-16 |consulté le=2023-06-16}}</ref>. Une version de ChatGPT basée sur GPT-4 devient accessible via l'abonnement payant "ChatGPT Plus"<ref name=":4" />.
 
En mai 2023, les cofondateurs d'OpenAI [[Sam Altman]], Greg Brockman et [[Ilya Sutskever]] publient des recommandations sur la gouvernance des [[Superintelligence|superintelligences]]<ref name=":5">{{Lien web |langue=en-US |titre=Governance of superintelligence |url=https://openai.com/blog/governance-of-superintelligence |site=openai.com |consulté le=2023-06-16}}</ref>{{,}}<ref name=":7">{{Lien web |prénom=Decrypt / Jose Antonio |nom=Lanz |titre=OpenAI affirme que l'IA «dépassera le niveau de compétence des experts dans la plupart des domaines» dans 10 ans |url=https://decrypt.co/fr/142164/openai-affirme-que-lia-depassera-le-niveau-de-competence-des-experts-dans-la-plupart-des-domaines-dans-10-ans |site=Decrypt |date=2023-05-24 |consulté le=2023-06-16}}</ref>. Ils y déclarent qu'en moins de 10 ans, l'IA pourrait dépasser les compétences des meilleurs experts dans la plupart des domaines, ouvrant la voie à un futur {{citation|radicalement plus prospère}} à condition de {{citation|gérer les risques pour y arriver}}<ref>{{Lien web |langue=en-US |titre=Governance of superintelligence |url=https://openai.com/blog/governance-of-superintelligence |site=openai.com |consulté le=2023-06-16 |extrait=Given the picture as we see it now, it’s conceivable that within the next ten years, AI systems will exceed expert skill level in most domains, and carry out as much productive activity as one of today’s largest corporations.In terms of both potential upsides and downsides, superintelligence will be more powerful than other technologies humanity has had to contend with in the past. We can have a dramatically more prosperous future; but we have to manage risk to get there.}}</ref>. Ils y recommandent d'encourager la recherche sur la question du contrôle des superintelligences, ainsi que d'améliorer la coordination internationale par exemple à travers un projet commun, et de créer une organisation de surveillance similaire à l'[[Agence internationale de l'énergie atomique]] (AIEA) pour superviser les modèles d'IA les plus puissants. Ils estiment cependant que ces mesures ne devraient concerner que les modèles d'IA dépassant un certain seuil d'aptitude, afin de ne pas entraver l'innovation pour des modèles moins dangereux<ref name=":5" />{{,}}<ref name=":7" />.
 
Après avoir ouvert un bureau londonien en juin 2023, son premier hors des États-Unis, OpenAI annonce également s'installer dans l'Union européenne en ouvrant un bureau à [[Dublin]] fin 2023<ref>{{Lien web |langue=fr |titre=OpenAI: le créateur de ChatGPT ouvre un bureau à Dublin |url=https://www.france24.com/fr/info-en-continu/20230914-openai-le-cr%C3%A9ateur-de-chatgpt-ouvre-un-bureau-%C3%A0-dublin |site=[[France 24]] |date=2023-09-14 |consulté le=2023-09-14}}.</ref>.
 
En {{date-|novembre 2023}}, [[Sam Altman]] est destitué de son poste de CEO en raison du manque de confiance du conseil d'administration à son égard, la directrice technique [[Mira Murati]] prenant la relève de manière intérimaire<ref>{{Lien web |langue=en-US |titre=OpenAI announces leadership transition |url=https://openai.com/blog/openai-announces-leadership-transition |site=openai.com |date=2023-11-17 |consulté le=2023-11-17}}</ref>. Le même jour, Greg Brockman, cofondateur d'OpenAI, annonce son départ comme président du [[conseil d'administration]]<ref>{{Lien web| langue=en| url=https://www.techrepublic.com/article/sam-altman-ousted-openai/ |titre=Sam Altman removed as CEO of OpenAI, CTO Mira Murati appointed interim CEO |site=TechRepublic |date=17 novembre 2023 |consulté le=18 novembre 2023}}</ref>. Deux jours plus tard, Emmett Shear est annoncé au poste de CEO par intérim<ref>{{Lien web |langue=en |prénom=Tom |nom=Warren |titre=OpenAI’s new CEO is Twitch co-founder Emmett Shear |url=https://www.theverge.com/2023/11/20/23968848/openai-new-ceo-emmett-shear-twitch-co-founder-hiring |site=The Verge |date=2023-11-20 |consulté le=2023-11-20}}</ref>, tandis qu’Altman et Brockman rejoignent les rangs de Microsoft<ref>{{Lien web |langue=en |prénom=Tom |nom=Warren |titre=Microsoft hires former OpenAI CEO Sam Altman |url=https://www.theverge.com/2023/11/20/23968829/microsoft-hires-sam-altman-greg-brockman-employees-openai |site=The Verge |date=2023-11-20 |consulté le=2023-11-20}}</ref>. Quelques jours plus tard, [[Sam Altman]] redevient CEO d'OpenAI et Greg Brockman réintègre le conseil d'administration.
 
Le 13 mai 2024, OpenAI intègre son nouveau modèle [[GPT-4o]] à ChatGPT. Celui-ci peut traiter et générer du texte, du son ainsi que des images. Il est également deux fois plus rapide que GPT-4 Turbo, tout en offrant de meilleures performances<ref>{{Article|langue=fr|auteur1=Célia Séramour|titre=Avec GPT-4o, OpenAI veut défier toute concurrence sur les modèles multimodaux|périodique=L'Usine Digitale|date=2024-05-14|lire en ligne=https://www.usine-digitale.fr/article/avec-gpt-4o-openai-veut-defier-toute-concurrence-sur-les-modeles-multimodaux.N2212917|consulté le=2024-05-19}}</ref>.
 
Le 14 mai 2024, le scientifique en chef [[Ilya Sutskever]] démissionne et est remplacé par Jakub Pachocki<ref>{{Lien web |langue=en |titre=Ilya Sutskever, Co-Founder and Chief Scientist, Leaves OpenAI |url=https://time.com/6978195/ilya-sutskever-leaves-open-ai/ |site=Time |date=2024-05-15 |consulté le=2024-05-19}}</ref>. Quelques heures plus tard, [[Jan Leike]], qui menait avec [[Ilya Sutskever]] le projet de « superalignement », démissionne également, citant une érosion de la confiance dans la direction et un manque de priorisation de la sécurité<ref>{{Lien web |langue=en |prénom=Sigal |nom=Samuel |titre="I lost trust": Why the OpenAI team in charge of safeguarding humanity imploded |url=https://www.vox.com/future-perfect/2024/5/17/24158403/openai-resignations-ai-safety-ilya-sutskever-jan-leike-artificial-intelligence |date=2024-05-17 |consulté le=2024-05-19}}</ref>. Cela fait suite à des démissions et licenciements d'autres chercheurs en [[sûreté de l'IA]] dans les mois qui précèdent<ref>{{Lien web |langue=en |prénom=Matthias |nom=Bastian |titre=OpenAI's AI safety teams lost at least seven researchers in recent months |url=https://the-decoder.com/openais-ai-safety-teams-lost-at-least-seven-researchers-in-recent-months/ |date=2024-05-18 |consulté le=2024-05-19}}</ref>. Le 5 août 2024, John Schulman, co-fondateur d'OpenAI et figure clé du développement de ChatGPT, a quitté OpenAI pour rejoindre la startup concurrente [[Anthropic]] et se concentrer sur la recherche en [[alignement de l'IA]]<ref name=":3">{{Lien web |langue=en-US |prénom=Kyle |nom=Wiggers |titre=OpenAI co-founder Schulman leaves for Anthropic, Brockman takes extended leave |url=https://techcrunch.com/2024/08/05/openai-co-founder-leaves-for-anthropic/ |site=TechCrunch |date=2024-08-06 |consulté le=2024-08-07}}</ref>.
 
Fin septembre 2024, [[Mira Murati]] annonce son départ de l'entreprise, en même temps que Bob McGrew, directeur de la recherche de l'entreprise, et Barret Zoph, vice-président de la recherche. Avec ces départs, [[Sam Altman]] et Wojciech Zaremba sont alors les seuls cofondateurs restants de l'équipe initiale (de 11 personnes)<ref>{{Article|langue=fr|prénom1=|nom1=|titre=OpenAI perd sa CTO Mira Murati et deux membres clés de son équipe de recherche|périodique=26 septembre 2024|date=2024-09-26|lire en ligne=https://www.usine-digitale.fr/article/openai-perd-sa-directrice-technique-mira-murati-et-deux-membres-cles-de-son-equipe-de-recherche.N2219276|consulté le=2024-09-27}}</ref>{{,}}<ref>{{Lien web |langue=fr |titre=Le départ surprise de «l’architecte de ChatGPT» fragilise OpenAI en pleine levée de fonds |url=https://www.lefigaro.fr/secteur/high-tech/le-depart-surprise-de-l-architecte-de-chatgpt-fragilise-openai-en-pleine-levee-de-fonds-20240926 |site=Le Figaro |date=2024-09-26 |consulté le=2024-09-27}}</ref>. Cela survient peu après que des rumeurs aient suggéré un potentiel changement de la structure de l'entreprise, qui passerait d'une entité à but lucratif plafonné (OpenAI Global, LLC) contrôlée par une entité à but non lucratif (OpenAI, Inc.) à une [[Benefit corporation|entreprise d'utilité publique]], qui serait plus propice à la recherche de bénéfices<ref>{{Lien web |langue=fr-ca |prénom= |nom= |titre=La cheffe de la technologie d’OpenAI Mira Murati démissionne |url=https://ici.radio-canada.ca/nouvelle/2107853/demission-open-ai-mira-murati-cheffe-technologie |site=Radio-Canada |date=2024-09-27 |consulté le=2024-09-27}}</ref>{{,}}<ref>{{Lien web |langue=fr |titre=OpenAI: Sam Altman de plus en plus seul à la tête de l'entreprise |url=https://www.bfmtv.com/tech/intelligence-artificielle/vague-de-departs-fracture-interne-qu-est-ce-qui-cloche-chez-open-ai_AV-202409260410.html |site=BFMTV |consulté le=2024-09-27}}</ref>.
 
== Motivations ==
Certains scientifiques comme [[Stephen Hawking]] et [[Stuart Russell]] ont évoqué le risque que l'IA soit dans le futur capable de s'auto-améliorer, ce qui selon eux pourrait causer une « [[explosion d'intelligence]] » pouvant mener à l'[[extinction de l'humanité]]. Le cofondateur [[Elon Musk]] a décrit l'IA comme la « pire menace existentielle »<ref>{{Lien web |langue=en |prénom=Kelsey |nom=Piper |titre=Why Elon Musk fears artificial intelligence |url=https://www.vox.com/future-perfect/2018/11/2/18053418/elon-musk-artificial-intelligence-google-deepmind-openai |site=[[Vox (site web)|Vox]] |date=2018-11-02 |consulté le=2023-04-26}}.</ref>. OpenAI a été créée dans le but de réduire ces risques. Les fondateurs en ont fait un organisme à but non lucratif, afin qu'elle concentre ses recherches sur les moyens de rendre l'IA bénéfique pour l'humanité<ref>{{Article|langue=en-GB|titre=Tech giants pledge $1bn for 'altruistic AI' venture, OpenAI|périodique=BBC News|date=2015-12-12|lire en ligne=https://www.bbc.com/news/technology-35082344|consulté le=2023-04-26}}.</ref>.
 
[[Elon Musk]] et [[Sam Altman]] ont affirmé être en partie motivés par la sûreté des intelligences artificielles et les [[Risque de catastrophe planétaire lié à l'intelligence artificielle générale|risques de catastrophe planétaire liés à l'intelligence artificielle générale]]<ref>{{Article|langue=en|titre=Open AI: Effort to democratize artificial intelligence research?|périodique=Christian Science Monitor|date=2015-12-14|issn=0882-7729|lire en ligne=https://www.csmonitor.com/Technology/2015/1214/Open-AI-Effort-to-democratize-artificial-intelligence-research|consulté le=2023-04-26}}.</ref>{{,}}<ref name=":1">{{Article|langue=en-US|prénom1=Cade|nom1=Metz|titre=Inside OpenAI, Elon Musk's Wild Plan to Set Artificial Intelligence Free|périodique=Wired|date=2016-04-27|issn=1059-1028|lire en ligne=https://www.wired.com/2016/04/openai-elon-musk-sam-altman-plan-to-set-artificial-intelligence-free/|consulté le=2023-04-26|extrait=If you have a button that could do bad things to the world, you don't want to give it to everyone.}}</ref>. Selon OpenAI, {{Citation|il est difficile d'imaginer à quel point l'IA de niveau humain pourrait améliorer la société, et il est tout aussi difficile d'imaginer à quel point ça pourrait nuire à la société si c'était mal conçu ou utilisé}}<ref>{{Lien web |langue=en-US |titre=Introducing OpenAI |url=https://openai.com/blog/introducing-openai |site=openai.com |consulté le=2023-04-26 |extrait=It's hard to fathom how much human-level AI could benefit society, and it's equally hard to imagine how much it could damage society if built or used incorrectly.}}</ref>. Remettre à plus tard la recherche sur la sûreté pourrait être dangereux : {{Citation|il est difficile de prédire quand l'IA de niveau humain pourrait devenir faisable}}<ref>{{Article|langue=en|titre=Tech leaders launch nonprofit to save the world from killer robots|périodique=Christian Science Monitor|date=2015-12-14|issn=0882-7729|lire en ligne=https://www.csmonitor.com/Science/2015/1214/Tech-leaders-launch-nonprofit-to-save-the-world-from-killer-robots|consulté le=2023-04-26|extrait=Because of AI's surprising history, it's hard to predict when human-level AI might come within reach.}}</ref>. OpenAI affirme que l'IA {{Citation|devrait être une extension de la volonté humaine et, dans un esprit de liberté, distribuée aussi largement et aussi équitablement que possible}}<ref>{{Article|langue=en-GB|titre=Tech giants pledge $1bn for 'altruistic AI' venture, OpenAI|périodique=BBC News|date=2015-12-12|lire en ligne=https://www.bbc.com/news/technology-35082344|consulté le=2023-04-26|extrait=should be an extension of individual human wills and, in the spirit of liberty, as broadly and evenly distributed as is possible safely}}.</ref>. [[Sam Altman]] s'attend en 2015 à ce que ce projet dépasse un jour l'intelligence humaine<ref name=":2">{{Article|langue=en-US|prénom1=Cade|nom1=Metz|titre=Elon Musk's Billion-Dollar AI Plan Is About Far More Than Saving the World|périodique=Wired|date=2015--12-15|issn=1059-1028|lire en ligne=https://www.wired.com/2015/12/elon-musks-billion-dollar-ai-plan-is-about-far-more-than-saving-the-world/|consulté le=2023-04-26}}.</ref>.
 
L'ancien PDG de Infosys Vishal Sikka a annoncé en 2015 que le fait que OpenAI soit ouvert et produise des résultats dans l'intérêt général de l'humanité était une condition essentielle de son support, ajoutant que {{Citation|OpenAI s'aligne très bien avec nos valeurs de longue date}}<ref>{{lien web |auteur1=Vishal Sikka |titre=OpenAI: AI for All |url=http://www.infosysblogs.com/infytalk/2015/12/openai_ai_for_all.html |website=InfyTalk |éditeur=[[Infosys]] |date=December 14, 2015 |consulté le=22 décembre 2015 |extrait=OpenAI aligns very nicely with our long-held values. |archive-url=https://web.archive.org/web/20151222094518/http://www.infosysblogs.com/infytalk/2015/12/openai_ai_for_all.html |archive-date=December 22, 2015}}.</ref>. Cade Metz, du magazine ''[[Wired (magazine)|Wired]]'', suggère que des corporations comme Amazon pourraient être motivées par le fait d'utiliser des logiciels et des données [[open source]] pour se mettre au niveau de corporations comme Google et Facebook, qui ont d'énormes quantités de données propriétaires<ref name=":2" />.
 
== Stratégie ==
[[Elon Musk]] a posé la question : {{Citation|Quelle est la meilleure chose que vous puissiez faire pour garantir que le futur soit bien ? Nous pourrions nous poser à l'écart ou encourager une surveillance réglementaire, ou nous pourrions participer avec la bonne structure et avec des personnes qui se soucient profondément du fait de développer l'IA de manière sûre et bénéfique pour l'humanité<ref>{{Lien web |langue=en-US |titre=Silicon Valley investors to bankroll artificial-intelligence center |url=https://www.seattletimes.com/business/technology/silicon-valley-investors-to-bankroll-artificial-intelligence-center/ |site=The Seattle Times |date=2015-12-13 |consulté le=2023-04-26 |extrait=What is the best thing we can do to ensure the future is good? We could sit on the sidelines or we can encourage regulatory oversight, or we could participate with the right structure with people who care deeply about developing AI in a way that is safe and is beneficial to humanity.}}</ref>.}} Il a reconnu qu'{{Citation|il y a toujours un risque pour qu'en essayant de faire avancer l'IA [amicale] on puisse créer ce qui nous inquiète<ref>{{Lien web |langue=en-US |titre=Silicon Valley investors to bankroll artificial-intelligence center |url=https://www.seattletimes.com/business/technology/silicon-valley-investors-to-bankroll-artificial-intelligence-center/ |site=The Seattle Times |date=2015-12-13 |consulté le=2023-04-26 |extrait=There is always some risk that in actually trying to advance AI we may create the thing we are concerned about}}.</ref>}} mais affirme que la meilleure défense est {{Citation|de permettre au plus grand nombre d'avoir accès à l'IA. Si tout le monde a des pouvoirs d'IA, alors il n'y a aucun individu ou petit groupe d'individus possédant des super-pouvoirs d'IA<ref>{{Lien web |langue=en-US |titre=Silicon Valley investors to bankroll artificial-intelligence center |url=https://www.seattletimes.com/business/technology/silicon-valley-investors-to-bankroll-artificial-intelligence-center/ |site=[[The Seattle Times]] |date=2015-12-13 |consulté le=2023-04-26 |extrait=to empower as many people as possible to have AI. If everyone has AI powers, then there's not any one person or a small set of individuals who can have AI superpower.}}</ref>.}}
 
La stratégie contre-intuitive d'[[Elon Musk]] et [[Sam Altman]] pour réduire les risques à grande échelle posés par l'IA, qui consiste à donner à tout le monde accès à l'IA, est controversée même parmi ceux qui s'inquiètent de [[Risque de catastrophe planétaire lié à l'intelligence artificielle générale|risques de catastrophe planétaire liés]]. Le philosophe [[Nick Bostrom]] est sceptique face à cette approche : {{Citation|Si vous avez un bouton qui pourrait avoir un mauvais effet sur le monde, vous n'avez pas envie de le donner à tout le monde<ref name=":1" />.}} Au cours d'une conversation sur la [[singularité technologique]] en 2016, [[Sam Altman]] a dit qu'ils ne prévoyaient pas de diffuser tout leur [[code source]] et a mentionné un plan pour permettre à des gens du monde entier d'élire des représentants pour un nouveau [[conseil d'administration]]<ref>{{Lien web |langue=en-US |prénom=Condé |nom=Nast |titre=Sam Altman’s Manifest Destiny |url=https://www.newyorker.com/magazine/2016/10/10/sam-altmans-manifest-destiny |site=The New Yorker |date=2016-10-03 |consulté le=2023-04-26}}.</ref>.
 
La décision initiale d'OpenAI, en 2019, de ne pas diffuser le code source de GPT-2 pour éviter le risque d'usages malveillants a été critiquée par les partisans d'un modèle ouvert au grand public, notamment parce que la recherche scientifique aurait besoin qu'OpenAI publie son travail pour pouvoir répliquer les résultats et pour mettre en place des [[Contre-mesure|contre-mesures]]. Delip Rao, expert en génération de texte, suggère aussi qu'OpenAI n'a pas {{Citation|passé suffisamment de temps à prouver que c'était dangereux}}<ref>{{Lien web |langue=en-US |prénom=James |nom=Vincent |titre=AI researchers debate the ethics of sharing potentially harmful programs |url=https://www.theverge.com/2019/2/21/18234500/ai-ethics-debate-researchers-harmful-programs-openai |site=The Verge |date=2019-02-21 |consulté le=2023-04-28 |extrait=The words ‘too dangerous’ were casually thrown out here without a lot of thought or experimentation. I don’t think [OpenAI] spent enough time proving it was actually dangerous.}}</ref>.
Ligne 89 :
{{Article détaillé|GPT-3}}
 
La [[Version d'un logiciel#Version bêta|version bêta]] privée du successeur de GPT-2 ouvre en {{date-|juillet 2020}}. Encore plus puissante, cette intelligence artificielle destinée au traitement du langage naturel présente {{nobr|175 milliards}} de paramètres, soit au moins dix fois plus que n'importe quel programme comparable jusqu'alors<ref>{{Lien web |langue=fr |titre=GPT-3 : OpenAI dévoile son impressionnant modèle de traitement de langage naturel |url=https://siecledigital.fr/2020/07/21/gpt-3-limpressionnant-modele-de-traitement-du-langage-naturel-dopenai/ |site=Siècle digital |date=2020-07-21 |consulté le=2020-08-07}}.</ref>{{,}}<ref>{{Lien web |langue=fr-FR |prénom=Zacharie |nom=Tazrout |titre=Whisper, le système de reconnaissance vocale d'OpenAI, devient open source |url=https://siecledigital.fr/2022/09/27/whisper-le-systeme-de-reconnaissance-vocale-dopenai-devient-open-source/ |site=Siècle Digital |date=2022-09-27 |consulté le=2023-04-26}}.</ref> Différentes versions de [[GPT-3]] peuvent être testées via le "playground" d'OpenAI<ref>{{Lien web |langue=fr-FR |prénom=Aurore |nom=Gayte |titre=GPT-3 : comment générer du texte grâce à l'intelligence artificielle d'OpenAI |url=https://www.numerama.com/tech/1195664-openai-comment-generer-du-texte-grace-au-modele-de-langage-gpt3.html |site=Numerama |date=2022-11-30 |consulté le=2023-06-16}}</ref>.
 
=== GPT-4 ===
{{Article détaillé|GPT-4}}
Le 14 mars 2023, OpenAI annonce la sortie de [[GPT-4]], qui est capable de traiter non seulement du texte, mais aussi des images<ref>{{Lien web |langue=en-US |prénom=James |nom=Vincent |titre=OpenAI announces GPT-4 — the next generation of its AI language model |url=https://www.theverge.com/2023/3/14/23638033/openai-gpt-4-chatgpt-multimodal-deep-learning |site=The Verge |date=2023-03-14 |consulté le=2023-04-26}}.</ref>. [[GPT-4]] peut lire, analyser et générer jusqu'à {{unité|25 000 mots}}<ref>{{Lien web |langue=fr-FR |prénom=Etudes |nom=Tech |titre=Ce qu'il est possible de faire avec Chat GPT-4 d'Open Ai |url=https://etudestech.com/decryptage/chat-gpt-4-fonctionnalites-open-ai-intelligence-artificielle/ |site=Études Tech |date=2023-04-25 |consulté le=2023-04-26}}.</ref>, et écrire dans tous les principaux langages de programmation.
 
=== ChatGPT ===
{{Article détaillé|ChatGPT}}
[[File:Chatgpt-screenshot.png|vignette|[[ChatGPT]] 3.5 en 2024.]]
Dérivé du modèle GPT-3.5 et lancé en novembre 2022, [[ChatGPT]] est un [[modèle de langage]] formé à partir d'une vaste quantité de données textuelles afin d'acquérir une compréhension approfondie du langage humain. [[ChatGPT]] peut être utilisé pour générer du texte de manière autonome, en imitant les styles et les sujets de conversation humains. Il peut également être utilisé pour améliorer les systèmes de dialogue en leur fournissant des réponses naturelles et pertinentes. En outre, [[ChatGPT]] peut s'adapter aux nouvelles données et retours des utilisateurs pour affiner ses capacités linguistiques, quand bien même cela suppose de renouveler un entraînement pour les intégrer<ref>{{lien web |auteur=Martin Clavey |titre=ChatGPT : Open AI rend son bot plus responsable |url=https://www.nextinpact.com/article/70516/chatgpt-open-ai-rend-son-bot-plus-responsable |accès url=payant |éditeur=[[Next INpact]] |date=01-12-2022 |consulté le=04-12-2022}}.</ref>{{,}}<ref>{{lien web |langue=en |auteur=Mike Pearl |titre=The ChatGPT chatbot from OpenAI is amazing, creative, and totally wrong |url=https://mashable.com/article/chatgpt-amazing-wrong |accès url=libre |éditeur=Mashable |date=03-12-2022 |consulté le=04-12-2022}}.</ref>{{,}}<ref>{{Lien web |langue=en |auteur=Kevin Roose |titre=The Brilliance and Weirdness of ChatGPT |url=https://www.nytimes.com/2022/12/05/technology/chatgpt-ai-twitter.html |accès url=payant |éditeur=The New York Times |date=5 décembre 2022 |consulté le=6 décembre 2022}}.</ref>.
 
L'une des caractéristiques de ChatGPT qui contribue à sa qualité de réponse est sa capacité à tenir compte du contexte grâce à sa mémorisation de la conversation en cours (jusqu'à un maximum de {{unité|3000 mots}} environ)<ref>{{Lien web |langue=en |titre=Does ChatGPT remember what happened earlier in the conversation? |url=https://help.openai.com/en/articles/6787051-does-chatgpt-remember-what-happened-earlier-in-the-conversation |site=help.openai.com |consulté le=2023-01-06}}.</ref>.
 
Dès la sortie de [[GPT-4]], ce modèle est ajouté à [[ChatGPT]] pour ses utilisateurs payants. OpenAI continue ensuite à développer des outils pour [[GPT-4]] et à les intégrer sur [[ChatGPT]], comme les [[plugin]]s {{anglais|Avanced data analysis}}, {{anglais|Bing search}} ou {{nobr|[[DALL-E]] 3}}<ref>{{Lien web |langue=en-US |titre=ChatGPT plugins |url=https://openai.com/blog/chatgpt-plugins |site=openai.com |consulté le=2023-10-07}}.</ref>
 
Une application mobile officielle voit également le jour sous Android et iOS, qui permet notamment de discuter de vive voix avec [[ChatGPT]] pour les abonnés<ref>{{Lien web |langue=en-US |titre=Introducing the ChatGPT app for iOS |url=https://openai.com/blog/introducing-the-chatgpt-app-for-ios |site=openai.com |consulté le=2023-10-07}}.</ref>{{,}}<ref>{{Lien web |langue=en-US |titre=ChatGPT can now see, hear, and speak |url=https://openai.com/blog/chatgpt-can-now-see-hear-and-speak |site=openai.com |consulté le=2023-10-07}}.</ref>
 
=== DALL-E ===
{{Article détaillé|DALL-E}}
Dérivé du modèle [[GPT-3]], OpenAI développe également un générateur d'images nommé [[DALL-E]], [[mot-valise]] évoquant à la fois le robot de [[Pixar]] [[WALL-E]] et le peintre [[Salvador Dalí]]. Ce modèle génératif peut créer des images originales à partir de texte<ref>{{Lien web |langue=fr |prénom=Valentin |nom=Cimino |titre=DALL-E : l'IA d'OpenAI capable de générer une image à partir d'une phrase |url=https://siecledigital.fr/2021/01/08/dall-e-open-ai-image-phrase/ |site=Siècle digital |date=2021-01-08 |consulté le=2023-01-24}}.</ref>. Le programme est capable de mettre en illustration des concepts très abstraits, voire farfelus, comme les dessins d'un radis promenant un chien en laisse<ref>{{Lien web |langue=fr |prénom=Elina |nom=S |titre=DALL-E : la nouvelle IA d’OpenAI crée des images à partir de textes |url=https://www.lebigdata.fr/openai-presente-dalle |site=LeBigData.fr |date=2021-01-07 |consulté le=2023-01-16}}</ref>.
 
==== DALL-E 2 ====
Ligne 114 :
 
==== DALL-E 3 ====
Fin septembre 2023, OpenAI annonce sortir [[DALL-E]] 3, son dernier modèle de génération d'images à partir de texte, qui permet depuis de générer du texte cohérent sur les images. {{nobr|DALL-E 3}} est également ajouté sur ChatGPT-4 pour les utilisateurs abonnés<ref>{{Lien web |langue=en-US |titre=DALL·E 3 |url=https://openai.com/dall-e-3 |site=openai.com |consulté le=2023-10-07}}.</ref>.
 
=== Sora ===
Ligne 130 :
 
=== GPTBot et collecte de contenu ===
Pour entrainer ses modèles, OpenAI procède à un crawling du web par son bot, nommé GPTBot. En janvier 2024, 88% des principaux médias américains d'information bloquent GPTBot. Une analyse du magazine [[Wired (magazine)|Wired]] indique que les médias de droite ont plus tendance à refuser de bloquer le scraping de leur sites<ref>{{Lien web |langue=fr-FR |prénom=Zacharie |nom=Tazrout |titre=Whisper, le système de reconnaissance vocale d'OpenAI, devient open source |url=https://siecledigital.fr/2022/09/27/whisper-le-systeme-de-reconnaissance-vocale-dopenai-devient-open-source/ |site=Siècle digital |date=2022-09-27 |consulté le=2023-04-26}}.</ref>. En France, des médias de premier plan (Radio France, BFM TV, le groupe TF1 , Le Figaro, L'Express, Le Point, Libération, Le ouvelNouvel Obs, Mediapart, Télérama) bloquent l'accès d'OpenAI à leurs contenus<ref>{{Lien web |langue=fr |titre=IA : le robot GPTBot d’OpenAI crispe les médias internationaux |url=https://www.lexpress.fr/economie/medias/ia-le-robot-gptbot-dopenai-qui-crispe-les-medias-internationaux-XXB27RQ4IFDJRJWI6MPNIGGKCA/ |site=L'Express |date=2023-08-30 |consulté le=2024-06-05}}</ref>{{,}}<ref>{{Lien web |langue=en |prénom=Olivier |nom=Martinez |titre=Quels sites bloquent GPTbot d’OpenAI, Bard de Google et Claude d’Anthropic en France le 22 décembre? |url=https://medium.com/@omartinez.android/quels-sites-bloquent-gptbot-dopenai-bard-de-google-et-claude-d-anthropic-en-france-le-22-d%C3%A9cembre-f3a5a5677890 |site=Medium |date=2023-12-22 |consulté le=2024-06-05}}</ref>. Parmi les sites qui ont restreint l’accès au robot, on retrouve également Amazon et Quora.
 
== Controverses ==
 
=== Contrat avec Sama ===
Une enquête de l’hebdomadaire [[Time (magazine)|''Time'']] publiée le 18 janvier 2023 décrit un contrat que OpenAI a passé avec Sama, une entreprise basée à [[San Francisco]] qui emploie des travailleurs au [[Kenya]]. OpenAI souhaitait entraîner un algorithme d'apprentissage automatique pour filtrer des textes en fonction de leur toxicité, permettant d'épurer les données d'entraînement de modèles de langage comme [[ChatGPT]] et les rendant ainsi moins toxiques. Pour entraîner cet algorithme à reconnaître si un texte est toxique ou non, OpenAI avait besoin d'exemples annotés et a fait appel à l'entreprise Sama pour l'annotation. Des employés de celle-ci se sont déclarés psychologiquement marqués par ce travail, les textes décrivant parfois des automutilations, incestes, contenus pédopornographiques ou tortures. Sur une journée de neuf heures, des employés ont déclaré devoir lire entre 150 et {{nobr|250 textes}} faisant chacun de 100 à {{unité|1000 mots}} et y signaler les passages sensibles. Le salaire versé par Sama à ses annotateurs était de 1,32 à {{nobr|2 dollars}} de l’heure hors taxe (OpenAI ayant versé à Sama pour la prestation {{nobr|12,50 dollars}} par heure de travail)<ref>{{Lien web |langue=fr |titre=Intelligence artificielle. Au Kenya, l’enfer des petites mains précaires de ChatGPT |url=https://www.courrierinternational.com/article/intelligence-artificielle-au-kenya-l-enfer-des-petites-mains-precaires-de-chatgpt |site=[[Courrier international]] |date=2023-01-19 |consulté le=2023-01-20}}.</ref>{{,}}<ref>{{Lien web |langue=en |titre=Exclusive: The $2 Per Hour Workers Who Made ChatGPT Safer |url=https://time.com/6247678/openai-chatgpt-kenya-workers/ |site=Time |date=2023-01-18 |consulté le=2023-08-11}}.</ref>.
 
=== Activités à but lucratif ===
Ligne 142 :
=== Bref départ d'Altman et de Brockman ===
 
Le {{Date-|17 novembre 2023}}, [[Sam Altman]] est destitué de son poste de [[directeur de l'information]] à la suite d'une décision du [[conseil d'administration]], composé de [[Helen Toner]], [[Ilya Sutskever]], [[Adam D'Angelo]] et Tasha McCauley, citant un manque de confiance en lui. [[Mira Murati]], [[directrice de la technologie]], assure l'intérim. [[Greg Brockman]], président de OpenAI, est également destitué de son poste de président du conseil d'administration<ref name=":23">{{Lien web|titre=OpenAI announces leadership transition|url=https://openai.com/blog/openai-announces-leadership-transition|date=2023-11-17|site=openai.com|langue=en-US|consulté le=17 novembre 2023|archive-url=https://web.archive.org/web/20231117212221/https://openai.com/blog/openai-announces-leadership-transition}}</ref>{{,}}<ref name="guard-17nov2023">{{Lien web|prénom1=Blake|nom1=Montgomery|prénom2=Dani|nom2=Anguiano|titre=OpenAI fires co-founder and CEO Sam Altman for allegedly lying to company board|url=https://www.theguardian.com/technology/2023/nov/17/openai-ceo-sam-altman-fired|date=2023-11-17|site=[[The Guardian]]|consulté le=17 novembre 2023|archive-url=https://web.archive.org/web/20231117210649/https://www.theguardian.com/technology/2023/nov/17/openai-ceo-sam-altman-fired|langue=en}}</ref>. Peu après cette annonce, Brockman démissionne de la présidence de l'entreprise et rapporte certains détails des événements<ref name=":24">{{Lien web|prénom1=Jay|nom1=Peters|titre=OpenAI co-founder Greg Brockman is leaving, too|url=https://www.theverge.com/2023/11/17/23966277/openai-co-founder-greg-brockman-leaving|site=The Verge|langue=en|date=2023-11-18|consulté le=18 novembre 2023|archive-url=https://web.archive.org/web/20231118003259/https://www.theverge.com/2023/11/17/23966277/openai-co-founder-greg-brockman-leaving}}</ref>{{,}}<ref>{{Lien web|url=https://x.com/gdb/status/1725736242137182594|titre=Sam and I are shocked and saddened by what the board did today|éditeur=X|date=2023-11-17|date d'accès=2023-11-17|consulté le=20 novembre 2023|archive-url=https://web.archive.org/web/20231120201122/https://twitter.com/gdb/status/1725736242137182594}}</ref>. Cette situation est suivie par la démission de trois chercheurs seniors de OpenAI : le directeur de recherche et responsable du GPT-4 Jakub Pachocki, le responsable des risques liés à l'IA Aleksander Madry et le chercheur Szymon Sidor<ref>{{Lien web|titre=Three Senior OpenAI Researchers Resign as Crisis Deepens|url=https://www.theinformation.com/articles/three-senior-openai-researchers-resign-as-crisis-deepens|date d'accès=2023-11-18|site=The Information|consulté le=November 18, 2023|archive-url=https://web.archive.org/web/20231118065056/https://www.theinformation.com/articles/three-senior-openai-researchers-resign-as-crisis-deepens}}</ref>{{,}}<ref>{{Lien web|prénom1=Benj|nom1=Edwards|titre=Details emerge of surprise board coup that ousted CEO Sam Altman at OpenAI|url=https://arstechnica.com/information-technology/2023/11/report-sutskever-led-board-coup-at-openai-that-ousted-altman-over-ai-safety-concerns/|date d'accès=2023-11-19|site=Ars Technica|date=2023-11-18|langue=en-us|consulté le=19 novembre 2023|archive-url=https://web.archive.org/web/20231119020114/https://arstechnica.com/information-technology/2023/11/report-sutskever-led-board-coup-at-openai-that-ousted-altman-over-ai-safety-concerns/}}</ref>. Les journalistes Kara Swisher et Alex Heath indiquent que [[Ilya Sutskever]], leader de l'équipe de recherche de OpenAI, a joué un rôle "déterminant" dans le licenciement d'Altman<ref>{{Lien web|prénom1=Alex|nom1=Heath|titre=What happened to Sam Altman?|url=https://www.theverge.com/2023/11/17/23966446/what-happened-to-sam-altman-open-ai|site=The Verge|date=2023-11-18|langue=en|consulté le=18 novembre 2023|archive-url=https://web.archive.org/web/20231118035251/https://www.theverge.com/2023/11/17/23966446/what-happened-to-sam-altman-open-ai}}</ref>.
 
Le {{date-|18 novembre 2023}}, des discussions auraient eu lieu concernant le retour d'Altman dans son rôle de directeur de l'information sous la pression des investisseurs tels que [[Microsoft]] et [[Thrive Capital]], qui ont condamné le départ d'Altman<ref>{{Lien web|prénom1=Keach Hagey|nom1=Seetharaman|titre=OpenAI Investors Trying to Get Sam Altman Back as CEO After Sudden Firing|url=https://www.wsj.com/tech/openai-trying-to-get-sam-altman-back-4b728049|site=WSJ|consulté le=18 novembre 2023|archive-url=https://web.archive.org/web/20231118233153/https://www.wsj.com/tech/openai-trying-to-get-sam-altman-back-4b728049}}</ref>. Bien qu'Altman lui-même se soit exprimé en faveur de son retour chez OpenAI, il a déclaré envisager de créer une nouvelle entreprise et d'emmener avec lui d'anciens employés de OpenAI si les discussions n'aboutissaient pas<ref>{{Lien web|prénom1=Cade|nom1=Metz|prénom2=Mike|nom2=Isaac|prénom3=Erin|nom3=Griffith|titre=Sam Altman Is Said to Be Discussing Return to OpenAI With Company’s Board|url=https://www.nytimes.com/2023/11/18/technology/sam-altman-openai-board.html?smid=nytcore-ios-share|site=The New York Times|date=2023-11-19|consulté le=19 novembre 2023|archive-url=https://web.archive.org/web/20231119014720/https://www.nytimes.com/2023/11/18/technology/sam-altman-openai-board.html?smid=nytcore-ios-share}}</ref>. S'il revenait, il a dit que les membres du conseil d'administration démissionneraient "en principe" de l'entreprise<ref>{{Lien web|prénom1=Nilay|nom1=Patel|titre=OpenAI board in discussions with Sam Altman to return as CEO|url=https://www.theverge.com/2023/11/18/23967199/breaking-openai-board-in-discussions-with-sam-altman-to-return-as-ceo|site=The Verge|langue=en|date=2023-11-18|consulté le=18 november 2023|archive-url=https://web.archive.org/web/20231118225333/https://www.theverge.com/2023/11/18/23967199/breaking-openai-board-in-discussions-with-sam-altman-to-return-as-ceo}}</ref>. Le {{date-|19 novembre 2023}}, les négociations avec Altman pour revenir à l'entreprise échouent et Murati est remplacée par [[Emmett Shear]] pour assurer l'intérim en tant que directeur de l'information<ref name=":25">{{Lien web|prénom1=Alex|nom1=Heath |titre=The deal to bring Sam Altman back to OpenAI has fallen apart |url=https://www.theverge.com/2023/11/20/23967515/sam-altman-openai-board-fired-new-ceo |site=The Verge |langue=en |date=19 novembre 2023 |consulté le=20 novembre 2023 |archive-date=20 novembre 2023 |archive-url=https://web.archive.org/web/20231120053238/https://www.theverge.com/2023/11/20/23967515/sam-altman-openai-board-fired-new-ceo }}</ref>. Le conseil d'administration a contacté le PDG d'[[Anthropic]], [[Dario Amodei]], qui était un ancien exécutif chez OpenAI. Le but était de remplacer [[Sam Altman]] mais aussi potentiellement de [[Fusion-acquisition|fusionner]] les deux entreprises, mais Dario Amodei a décliné les deux offres<ref>{{Lien web |nom1=Dastin |prénom1=Jeffrey |titre=OpenAI's board approached Anthropic CEO about top job and merger |url=https://www.reuters.com/technology/openais-board-approached-anthropic-ceo-about-top-job-merger-sources-2023-11-21/ |site=Reuters |langue=en |date=21 novembre 2023 |consulté le=21 novembre 2023}}</ref>.
 
Le {{date-|20 novembre 2023}}, le PDG de Microsoft, [[Satya Nadella]], annonce que Altman et Brockman rejoindront l'entreprise pour diriger une nouvelle équipe de recherche sur l'IA avancée, et déclarent rester engagés envers OpenAI malgré les événements<ref>{{Lien web |nom1=Warren |prénom1=Tom |titre=Microsoft hires former OpenAI CEO Sam Altman |url=https://www.theverge.com/2023/11/20/23968829/microsoft-hires-sam-altman-greg-brockman-employees-openai |site=The Verge |langue=en |date=20 novembre 2023 |consulté le=20 novembre 2023 |archive-date=20 novembre 2023 |archive-url=https://web.archive.org/web/20231120133123/https://www.theverge.com/2023/11/20/23968829/microsoft-hires-sam-altman-greg-brockman-employees-openai }}</ref>. Le partenariat n'a pas été certifié alors qu'Altman donne une autre opportunité au conseil d'administration de négocier avec lui<ref>{{Lien web |nom1=Patel |prénom1=Nilay |titre=Sam Altman is still trying to return as OpenAI CEO |url=https://www.theverge.com/2023/11/20/23969586/sam-altman-plotting-return-open-ai-microsoft |site=The Verge |langue=en |date=20 novembre 2023 |consulté le=20 novembre 2023 |archive-date=20 novembre 2023 |archive-url=https://web.archive.org/web/20231120191138/https://www.theverge.com/2023/11/20/23969586/sam-altman-plotting-return-open-ai-microsoft}}</ref>. Environ 738 des 770 employés d'OpenAI, y compris Murati et Sutskever, ont signé une lettre ouverte déclarant qu'ils quitteraient leur emploi et rejoindraient Microsoft si le conseil d'administration ne réembauche pas Altman comme PDG puis démissionne<ref>{{Lien web |titre=OpenAI Staff Near Total Mutiny With Threat to Jump to Microsoft |url=https://news.bloomberglaw.com/us-law-week/openai-staff-threaten-to-go-to-microsoft-if-board-doesnt-quit |site=Bloomberg |langue=en |consulté le=20 novembre 2023 |archive-date=20 novembre 2023 |archive-url=https://web.archive.org/web/20231120201119/https://news.bloomberglaw.com/us-law-week/openai-staff-threaten-to-go-to-microsoft-if-board-doesnt-quit}}</ref>{{,}}<ref>{{Lien web |nom1=Knight |prénom1=Will |titre=OpenAI Staff Threaten to Quit Unless Board Resigns |url=https://www.wired.com/story/openai-staff-walk-protest-sam-altman/ |site=Wired |consulté le=20 novembre 2023 |archive-date=20 novembre 2023 |archive-url=https://web.archive.org/web/20231120150129/https://www.wired.com/story/openai-staff-walk-protest-sam-altman/ }}</ref>. Les investisseurs envisagent d'intenter une action en justice contre les membres du conseil d'administration en réponse aux démissions massives potentielles et au renvoi d'Altman<ref>{{Lien web |nom1=Tong |prénom1=Anna |nom2=Hu |prénom2=Krystal |nom3=Tong |prénom3=Anna |nom4=Hu |prénom4=Krystal |titre=Exclusive: OpenAI investors considering suing the board after CEO's abrupt firing |url=https://www.reuters.com/technology/openai-investors-considering-suing-board-after-ceos-abrupt-firing-sources-2023-11-20/ |website=Reuters |langue=en |date=20 novembre 2023}}</ref>. En réponse, la direction d'OpenAI a envoyé une note interne aux employés indiquant que les négociations avec Altman et le conseil d'administration sont de nouveau en cours et prendront du temps<ref>{{Lien web |nom1=Lawler |prénom1=Richard |titre=OpenAI exec to employees: “our number one goal remains to reunify OpenAI.” |url=https://www.theverge.com/2023/11/21/23970550/openai-exec-to-employees-our-number-one-goal-remains-to-reunify-openai |site=The Verge |langue=en |date=21 novembre 2023}}</ref>.
Ligne 151 :
 
=== Accords de non-dénigrement ===
Le 17 mai 2024, un article du journal [[Vox (site web)|Vox]] rapporte que OpenAI demande aux employés qui partent de signer un accord de non-dénigrement qui leur interdit à vie de critiquer OpenAI, ou même de reconnaître l'existence de l'accord. Daniel Kokotajlo, un ancien employé, a publiquement déclaré avoir renoncé à ses actions acquises dans OpenAI afin de partir sans signer l'accord<ref>{{Lien web |langue=en |prénom=Kelsey |nom=Piper |titre=ChatGPT can talk, but OpenAI employees sure can’t |url=https://www.vox.com/future-perfect/2024/5/17/24158478/openai-departures-sam-altman-employees-chatgpt-release |date=2024-05-17 |consulté le=2024-05-19}}</ref>{{,}}<ref>{{Lien web |langue=en |auteur=Jon Christian |titre=OpenAI Employees Forced to Sign NDA Preventing Them From Ever Criticizing Company |url=https://futurism.com/the-byte/openai-nda-criticism |site=Futurism |date=18 mai 2024 |consulté le=2024-05-19}}</ref>. [[Sam Altman]] a affirmé qu'il n'avait pas connaissance de la clause d'annulation des actions en cas de non-signature de l'accord, et que OpenAI ne l'a jamais utilisée pour annuler les actions d'un employé<ref>{{Lien web |langue=en |auteur=Hannah Getahun |prénom=Hannah |nom=Getahun |titre=Sam Altman addresses 'potential equity cancellation' in OpenAI exit agreements after 2 high-profile departures |url=https://www.businessinsider.com/sam-altman-openai-nda-clause-vested-equity-ilya-sutskever-2024-5 |site=Business Insider |date=19 mai 2024 |consulté le=2024-05-19}}</ref>. Vox a ensuite publié des documents et emails divulgués remettant en cause cette affirmation<ref>{{Lien web |langue=en |prénom=Kelsey |nom=Piper |titre=Leaked OpenAI documents reveal aggressive tactics toward former employees |url=https://www.vox.com/future-perfect/351132/openai-vested-equity-nda-sam-altman-documents-employees |site=Vox |date=2024-05-22 |consulté le=2024-06-06}}</ref>. Le 23 mai 2024, OpenAI a envoyé une note libérant ses anciens employés de l'accord<ref>{{Lien web |langue=en |prénom=Hayden |nom=Field |titre=OpenAI sends internal memo releasing former employees from controversial exit agreements |url=https://www.cnbc.com/2024/05/24/openai-sends-internal-memo-releasing-former-employees-from-non-disparagement-agreements-sam-altman.html |site=CNBC |date=2024-05-24 |consulté le=2024-06-06}}</ref>.
 
=== Plainte de NOYB ===
Ce document provient de « https://fr.wikipedia.org/wiki/OpenAI ».