OpenAI est un hybride à but non lucratif et entreprise : un expert en gestion explique comment ce modèle fonctionne – et comment il a alimenté le tumulte autour de l’éviction éphémère du PDG Sam Altman

Follow
( 2 Followers )
X

Follow

E-mail : *
Le PDG d’OpenAI, Sam Altman, a connu un mois de novembre tumultueux. chauffé par Ohsumi/Getty ImagesLe conseil d’administration d’OpenAI, créateur des populaires outils d’intelligence artificielle ChatGPT et DALL-E, a licencié Sam Altman, son PDG, fin novembre 2023. Le chaos s’est ensuivi bien que les investisseurs et les employés se sont rebellés. Au moment où le chaos s’est calmé cinq jours plus tard, Altman était revenu triomphalement au sein d’OpenAI au milieu de l’euphorie du personnel, et trois des membres du conseil d’administration qui avaient demandé son éviction avaient démissionné. La structure du conseil d’administration – un conseil d’administration à but non lucratif supervisant une filiale à but lucratif – semble avoir joué un rôle dans ce drame. En qualité de scientifique en gestion qui étudie la responsabilité, la gouvernance et la efficacité organisationnelles, j’aimerais expliquer comment cette approche hybride est censée fonctionner. Gouvernance hybride Altman a cofondé OpenAI en 2015 en tant qu’organisation à but non lucratif exonérée d’impôt dont le but est de « bâtir une intelligence artificielle générale (AGI) qui soit sûre et profite à toute l’humanité ». Afin de lever plus de capitaux que ce qu’elle pouvait amasser avec le concours de des dons caritatifs, OpenAI a ensuite créé une société holding qui lui permet de prélever de l’argent auprès des investisseurs pour une filiale à but lucratif qu’elle a créée. Les dirigeants d’OpenAI ont choisi cette structure de « gouvernance hybride » pour lui permettre de rester fidèle à sa propre mission sociale tout en exploitant le pouvoir des marchés pour développer ses opérations et ses revenus. Fusionner le profit avec le but a permis à OpenAI de lever des milliards auprès d’investisseurs en quête de rendements financiers tout en équilibrant « la commercialité avec la sécurité et la durabilité, plutôt que de se concentrer sur la pure maximisation du profit », d’après une explication sur son site Le web. Les grands investisseurs ont donc un grand intérêt dans le réussite de ses opérations. Cela est particulièrement vrai pour Microsoft, qui détient 49 % de la filiale à but lucratif d’OpenAI après avoir investi 13 milliards de dollars dans l’entreprise. Mais ces investisseurs n’ont pas droit à des sièges au conseil d’administration comme ils le feraient dans des entreprises typiques. Et les bénéfices qu’OpenAI retourne à ses investisseurs sont plafonnés à environ 100 fois ce que les investisseurs initiaux ont investi. Cette structure l’oblige à redevenir une organisation à but non lucratif une fois ce point atteint. Au moins en principe, cette conception visait à dissuader l’entreprise de s’écarter de son objectif qui est de profiter à l’humanité sain et sauf et à éviter de compromettre sa propre mission en recherchant imprudemment des profits. Autres modèles de gouvernance hybrides Il y a plusieurs plus de modèles de gouvernance hybrides qu’on ne le pense. Par exemple, le Philadelphia Inquirer, un journal à but lucratif, appartient au Lenfest Institute, une organisation à but non lucratif. Cette structure permet au journal d’attirer des investissements sans compromettre son objectif : un journalisme au service des besoins de ses communautés locales. Patagonia, créateur et fournisseur de vêtements et d’équipements d’extérieur, en est un autre exemple marquant. Son fondateur, Yvon Chouinard, et ses héritiers ont transféré définitivement leur propriété à une fiducie sans but lucratif. Tous les bénéfices de Patagonia financent maintenant des facteurs environnementales. Anthropic, l’un des concurrents d’OpenAI, dispose aussi d’une structure de gouvernance hybride, mais elle est configurée différemment de celle d’OpenAI. Elle compte deux organes directeurs distincts : un conseil d’administration et ce qu’elle appelle une fiducie de prestations de manière durable. Anthropic étant une société d’utilité publique, son conseil d’administration peut extraire en compte les intérêts d’autres parties prenantes que ses propriétaires, y compris le grand public. Et BRAC, une organisation internationale de développement fondée au Bangladesh en 1972 et qui compte parmi les plus grandes ONG au monde, contrôle plusieurs sociétés sociales à but lucratif qui profitent aux pauvres. Le modèle de BRAC ressemble à celui d’OpenAI dans le sens où une organisation à but non lucratif possède des sociétés à but lucratif. Origine du conflit du conseil d’administration avec Altman La principale responsabilité du conseil d’administration à but non lucratif est de garantir que la mission de l’organisation qu’il supervise est respectée. Dans les modèles de gouvernance hybrides, le conseil d’administration doit s’assurer que les pressions du marché visant à accumuler de l’argent pour les investisseurs et les actionnaires ne l’emportent pas sur la mission de l’organisation – un risque connu sous le nom de dérive de mission. Les conseils d’administration des organisations à but non lucratif ont trois devoirs principaux : le devoir d’obéissance, qui les oblige à agir dans l’intérêt de la mission de l’organisation ; le devoir de diligence, qui leur impose de faire preuve de diligence raisonnable dans la prise de décisions ; et le devoir de loyauté, qui les engage à éviter ou à résoudre les conflits d’intérêts. Il apparaît que le conseil d’administration d’OpenAI ait cherché à exercer son devoir d’obéissance lorsqu’il a choisi de limoger Altman. La raison officielle invoquée était qu’il n’était « pas toujours franc dans ses communications » avec le conseil d’administration. Les justifications supplémentaires soulevées de manière anonyme par des personnes identifiées comme « anciens employés concernés d’OpenAI » n’ont pas été vérifiées. En outre, Helen Toner, membre du conseil d’administration, qui a quitté le conseil d’administration au milieu de ce bouleversement, a co-écrit un document de recherche juste un mois avant la défaite des efforts visant à destituer Altman. Toner et ses co-auteurs ont salué les précautions d’Anthropic et ont critiqué les « coupes frénétiques » d’OpenAI autour de la sortie de son chatbot ChatGPT populaire. Mission contre argent Ce n’était pas la première tentative visant à évincer Altman au motif qu’il s’éloignait de sa propre mission. En 2021, le responsable de la sécurité de l’IA de l’organisation, Dario Amodei, a tenté en vain de persuader le conseil d’administration d’évincer Altman à cause de problèmes de sécurité, juste après que Microsoft ait investi 1 milliard de dollars dans l’entreprise. Amodei a ensuite quitté OpenAI, avec une douzaine d’autres chercheurs, et a fondé Anthropic. La bascule entre mission et argent est peut-être mieux incarnée par Ilya Sutskever, co-fondateur d’OpenAI, son chercheur en chef et l’un des trois membres du conseil d’administration qui ont été expulsés ou démissionnés. Sutskever a d’abord défendu la décision d’évincer Altman au motif qu’elle était nécessaire pour protéger la mission consistant à rendre l’IA bénéfique à l’humanité. Mais il a ensuite changé d’avis en tweetant : “Je regrette en profondeur ma participation aux actions du conseil d’administration.” Il a finalement signé la lettre des employés appelant à la réintégration d’Altman et reste le chercheur en chef de l’entreprise. L’ex cadre d’OpenAI, Dario Amodei, a cofondé Anthropic, une autre société d’IA dotée d’un conseil d’administration à but non lucratif. Il en est dorénavant le PDG. Kimberly White/Getty Images pour TechCrunch Risque associé à l’IA Une question tout également importante est de savoir si le conseil a exercé son devoir de diligence. Je pense qu’il est raisonnable que le conseil d’administration d’OpenAI se demande si la société a publié ChatGPT avec des garde-fous suffisants en novembre 2022. Depuis lors, les grands modèles de langage ont effectué des ravages dans de nombreux secteurs. J’ai été témoin de cela en qualité de professeur. Il est devenu quasiment impossible dans de nombreux cas de savoir si les étudiants trichent durant leurs devoirs en utilisant l’IA. Certes, ce risque est dérisoire en comparaison de la compétence de l’IA à faire des choses encore pires, par exemple en aidant à concevoir des agents pathogènes potentiellement pandémiques ou en créant de la désinformation et des deepfakes qui sapent la confiance sociale et mettent en péril la démocratie. D’un autre côté, l’IA a le potentiel d’perpétuer d’énormes avantages à l’humanité, notamment en accélérant la programmation de vaccins salvateurs. Par contre les risques potentiels sont catastrophiques. Et une fois cette technologie puissante lancée, il n’existe plus d’« interrupteur d’arrêt » connu. Les conflits d’intérêts Le troisième devoir, la loyauté, dépend de la question de savoir si les membres du conseil d’administration ont eu ou non des conflits d’intérêts. De toute évidence, avaient-ils l’intention de accumuler de l’argent grâce aux produits d’OpenAI, au point de compromettre sa propre mission dans l’attente d’un gain financier ? En règle générale, les membres du conseil d’administration d’une organisation à but non lucratif ne sont pas rémunérés et ceux qui ne travaillent pas pour l’organisation n’y ont aucun intérêt financier. Les…

Voir aussi

Pourquoi n’y a-t-il aucun son dans l’espace ? Un astronome explique pourquoi dans l’espace personne ne peut vous entendre crier

Follow ( 0 Followers ) X Follow E-mail : * Follow Unfollow La matière dans …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *