Helen Toner, ancienne membre du conseil d’administration d’OpenAI, a révélé que le conseil d’administration n’était pas au courant du lancement de ChatGPT jusqu’à ce qu’il soit annoncé publiquement sur Twitter. Toner l’a révélé lors d’une interview sur le TED AI Show avec Bilawal Sidhu.

Pendant le podcast, Toner a fourni son récit le plus détaillé à ce jour des circonstances ayant conduit au renvoi d’Altman en novembre de l’année précédente. Elle a expliqué que la décision a été influencée par une série d’événements non divulgués qui ont soulevé des inquiétudes parmi les membres du conseil d’administration.

❗EXCLUSIF :”Nous avons entendu parler de ChatGPT sur Twitter.”

Que s’est-il VRAIMENT passé chez OpenAI, Helen Toner, ancienne membre du conseil d’administration, la brise ? silence avec de nouveaux détails choquants sur le licenciement de Sam Altman. Écoutez l’histoire exclusive et inédite sur The TED AI Show

Voici juste un aperçu : pic.twitter.com/7hXHcZTP9e

— Bilawal Sidhu (@bilawalsidhu) 28 mai 2024

Toner a donné une conférence TED il y a quelques semaines, dans laquelle elle a partagé sa vision sur la manière dont l’IA devrait être gouvernée, sans partager aucun détail sur la tourmente qui a frappé OpenAI ou son rôle dans tout cela. Avec l’interview, cela change, puisque Toner attaque directement Sam Altman et l’accuse de mentir et de cacher des détails importants au conseil d’administration d’OpenAI.
 
[contenu intégré]

Troubles au sein du leadership d’OpenAI et réactions négatives des employés

Au lendemain du lancement de ChatGPT, OpenAI a connu des bouleversements internes considérables. Un an plus tard, le PDG Sam Altman a été démis de ses fonctions de manière inattendue par le conseil d’administration et remplacé par la CTO Mira Murati. Cependant, Altman a été réintégré en quelques jours, grâce au fort soutien du PDG de Microsoft, Satya Nadella. Cette réintégration a entraîné le départ de Toner et d’autres membres du conseil d’administration.

Après le licenciement brutal d’Altman, les employés ont vivement réagi, dont beaucoup ont menacé de démissionner. Cette pression interne a conduit à la réintégration d’Altman et au départ ultérieur de Toner et d’autres membres du conseil d’administration, mettant en évidence les profondes divisions au sein de l’organisation.

Le conseil d’administration d’OpenAI a été conçu pour donner la priorité au bien-être public plutôt qu’au profit, fonctionnant comme une organisation à but non lucratif. entité. Malgré cette mission, le conseil d’administration n’a pas été informé des développements significatifs, comme la sortie de ChatGPT en novembre 2022.

Critiques internes et départs

Autre clé les chiffres ont également critiqué l’orientation de l’entreprise. Le co-fondateur Ilya Sutskever et le chercheur en sécurité Jan Leike ont quitté OpenAI, exprimant leurs inquiétudes quant à la décision de l’entreprise d’arrêter les travaux de superalignement. Cette recherche garantit que les systèmes d’IA s’alignent sur les valeurs et les intentions humaines.

Comme annoncé hier, Leike dirigera une nouvelle équipe de « superalignement » chez Anthropic. Leike a annoncé via un post sur X que sa nouvelle équipe chez Anthropic se concentrerait sur sur diverses facettes de la sûreté et de la sécurité de l’IA. Les principaux domaines d’intervention comprendront la surveillance évolutive, la généralisation de faible à forte et la recherche d’alignement automatisée.

OpenAI a créé un comité de sûreté et de sécurité en réponse aux demandes internes et critiques externes. Ce nouvel organisme vise à examiner les procédures de sécurité de l’entreprise liées au développement de produits, en veillant à ce que les opérations soient conformes à sa mission fondamentale de bien public. Le comité comprend le PDG d’OpenAI, Sam Altman, les membres du conseil d’administration Bret Taylor, Adam D’Angelo et Nicole. Seligman, avec le scientifique en chef Jakub Pachocki et le chef de la sécurité Matt Knight.

Categories: IT Info