Après des mois de travail, OpenAI renonce finalement à sa conversion totale en société à but lucratif, sous la pression des autorités et de la société civile…
OpenAI revient donc sur sa décision de restructuration vers un modèle entièrement lucratif. Après plusieurs mois de controverse, la startup créatrice de ChatGPT annonce qu’elle conservera une gouvernance assurée par sa structure mère à but non lucratif, tout en convertissant sa branche commerciale en Public Benefit Corporation (PBC). Cette entité hybride permettra à l’entreprise de continuer à générer des profits, tout en se revendiquant porteuse d’un objectif d’intérêt général.
Depuis sa création en 2015 en tant qu’organisation à but non lucratif, OpenAI a multiplié les mutations structurelles. En 2019, elle introduisait un modèle à profit limité (capped-profit) pour attirer des investissements sans renier sa mission originelle : garantir que l’intelligence artificielle générale bénéficie à l’humanité toute entière. La volonté affichée en 2024 de passer à un modèle de société lucrative classique a cependant suscité une levée de boucliers.
Une coalition d’acteurs issus de la recherche, de la société civile, d’anciens employés et d’organisations syndicales, soutenue par plusieurs prix Nobel et des juristes, s’est opposée à cette bascule. Tous dénonçaient une érosion des garde-fous éthiques et une mise en péril des actifs à vocation caritative. Des lettres ouvertes ont été adressées aux procureurs généraux de Californie et du Delaware. En parallèle, Elon Musk, cofondateur d’OpenAI, a intenté une action en justice accusant l’entreprise de trahir ses engagements initiaux. Sa demande d’injonction a été rejetée, mais un procès est prévu au printemps 2026.
Face à ces pressions, OpenAI avait mis en place une commission d’experts pour analyserles défis majeurs auxquels font face les associations et organisations caritatives aujourd’hui et réfléchir aux voies d’évolution de sa structure.
Finalement, OpenAI préfère conserver sa structure hybride. « Nous avons pris cette décision après avoir entendu les voix de responsables civiques et à la suite de discussions constructives avec les bureaux des procureurs généraux », a déclaré Sam Altman, CEO d’OpenAI, dans une lettre adressée aux salariés. Il y affirme que le modèle retenu garantira la poursuite de la mission de l’organisation, tout en permettant une évolution vers une structure de capital plus classique, dans laquelle « tout le monde détient des actions ».
Le président du conseil d’administration, Bret Taylor, a réaffirmé que « OpenAI a été fondée comme une organisation à but non lucratif, et elle continuera à être supervisée et contrôlée par cette structure ».
Le passage à un PBC permettra, selon l’entreprise, d’aligner les impératifs financiers avec l’objectif sociétal tout en élargissant les ressources de la fondation. La structure à profit limité, jugée trop rigide dans un contexte de forte concurrence autour de l’AGI, est donc abandonnée.
Il reste à voir si ce compromis sera suffisant pour apaiser les critiques et répondre aux attentes des autorités. Et celui-ci soulève déjà de nombreuses interrogations.
D’abord, cette annonce permettra-t-elle à OpenAI de se débarrasser du « harcèlement » dont elle se sent victime de la part d’Elon Musk ? Rien n’est moins sûr, la démarche du milliardaire n’étant, sur le fond, pas idéologique mais financière et motivée par des conflits de personnes.
Ensuite, OpenAI a annoncé il y a à peine un mois une gigantesque levée de fonds de 40 milliards de dollars dont 30 milliards étaient promis sous condition d’une restructuration en société lucrative. Le passage à un PBC est-il suffisant pour satisfaire Softbank et les autres investisseurs ? C’est loin d’être évident.
Enfin, comment ce changement de planification impactera la roadmap d’OpenAI ? Dans une lettre aux employés, Sam Altman, donne quelques éléments. Il explique : « Nous sommes engagés sur cette voie de l’IA démocratique. Nous souhaitons mettre des outils extraordinaires entre les mains de tous. Nous sommes émerveillés et ravis par ce que les utilisateurs créent avec nos outils, et par leur enthousiasme à les utiliser. Nous voulons rendre open source des modèles très performants. Nous souhaitons donner à nos utilisateurs une grande liberté dans la façon dont ils utilisent nos outils dans des limites larges, même si nous ne partageons pas toujours le même cadre moral, et leur permettre de prendre des décisions concernant le comportement de ChatGPT. Nous croyons que c’est la meilleure voie à suivre—l’AGI devrait permettre à toute l’humanité de s’entraider. Nous comprenons que certaines personnes ont des opinions très différentes. Nous voulons construire un cerveau pour le monde et le rendre super facile à utiliser pour tout ce que les gens souhaitent (avec peu de restrictions ; la liberté ne devrait pas empiéter sur celle des autres, par exemple). »
En attendant, les débats autour de la gouvernance des entreprises développant des technologies à fort impact sociétal, comme l’intelligence artificielle, ne sont manifestement pas près de s’éteindre.