O CEO da OpenAI, Sam Altman, abordou preocupações sobre uma cláusula nos documentos de saída da empresa que poderia potencialmente revogar o patrimônio adquirido. Altman esclareceu que a OpenAI nunca aplicou esta cláusula e não o fará se os funcionários se recusarem a assinar acordos de separação ou de não depreciação.
Como revelado recentemente, a OpenAI fez com que novos funcionários assinassem acordos de confidencialidade (NDAs) altamente restritivos que impedi-los de criticar a OpenAI indefinidamente. Esses acordos também estipulam que qualquer violação pode resultar na perda de patrimônio adquirido, que para muitos pode chegar a milhões de dólares.
Preocupações com o patrimônio dos funcionários
Altman, numa declaração nas redes sociais, enfatizou que o capital adquirido permanece seguro independentemente da assinatura de acordos de separação. Reconheceu a presença de uma cláusula controversa nos documentos de saída, mas garantiu que nunca foi posta em prática. “Isso é por minha conta e uma das poucas vezes em que fiquei genuinamente envergonhado de executar o openai”, escreveu Altman.
em relação a coisas recentes sobre como a openai lida com o patrimônio:
nunca recuperamos o patrimônio adquirido de ninguém, nem faremos isso se as pessoas não o fizerem assinar um acordo de separação (ou não concordar com um acordo de não depreciação). Patrimônio adquirido é patrimônio adquirido, ponto final.
houve…
— Sam Altman (@sama). ) 18 de maio de 2024
Os comentários de Altman chegam resposta às preocupações crescentes recentemente sobre a forma como a OpenAI lida com o patrimônio dos funcionários, particularmente em relação ao potencial de cancelamento de capital vinculado aos acordos de não depreciação revelados.
Reações do público e da mídia
A questão gerou discussões significativas em diversas plataformas e fóruns de mídia social. No X (antigo Twitter), usuários e jornalistas questionaram a ética e a transparência de tais cláusulas. Alguns sugeriram que a cláusula ainda estaria em vigor se não fosse o escrutínio da mídia. Outros pediram que a OpenAI libertasse ex-funcionários destes acordos restritivos e lhes permitisse vender o seu capital.
Fico feliz que a OpenAI reconheça isto como uma vergonha, um erro e que não está bem. Está em seu poder corrigir, liberando todos que foram ameaçados de perda de patrimônio pelos NDAs que assinaram sob essa ameaça.
— Kelsey Piper (@KelseyTuoc) 18 de maio de 2024
Cultura de segurança e respostas de liderança
Além das preocupações com a equidade, a cultura de segurança da OpenAI também tem sido criticada atualmente. Jan Leike renunciou ao cargo de chefe de alinhamento da OpenAI e levantou questões sobre a priorização da empresa no desenvolvimento de produtos em detrimento da segurança. A saída de Leike gerou respostas de Altman e Greg Brockman, que reiteraram seu compromisso com a segurança e a pesquisa de IA.
Altman e Brockman responderam às críticas afirmando que estão gratos pelas contribuições de Leike e continuarão a concentre-se na segurança da IA. Eles reconheceram os desafios de navegar no caminho para a Inteligência Geral Artificial (AGI) e enfatizaram a importância da pesquisa contínua em segurança.