TL;DR
Plano de Política: OpenAI lançou um documento de 13 páginas propondo impostos sobre robôs, um fundo nacional de riqueza e semanas de trabalho subsidiadas de quatro dias para se preparar para a automação orientada por IA. Propostas Económicas: A empresa pretende transferir a carga fiscal do trabalho para o capital e distribuir a prosperidade gerada pela IA através de um fundo modelado no Fundo Permanente do Alasca. Medidas de segurança: a OpenAI exige manuais de contenção para IA auto-replicável, gatilhos automáticos de redes de segurança vinculados a métricas de desemprego e infraestrutura de rede expandida. Ceticismo: Os críticos questionam o momento das propostas, dado o IPO pendente da OpenAI com uma avaliação de 852 mil milhões de dólares e a sua recente conversão para uma entidade com fins lucrativos.
A OpenAI lançou um documento político de 13 páginas em 6 de abril, instando o governo dos EUA a tributar os lucros gerados pela IA, criar um fundo nacional de riqueza e subsidiar uma semana de trabalho de quatro dias, expondo sua visão de como o país deve se preparar para a automação generalizada.
Intitulada Política Industrial para a Era da Inteligência, a documento propõe transferir a carga tributária do trabalho para o capital, criando um fundo nacional de riqueza modelado em Fundo Permanente do Alasca e incentivo a semanas de trabalho de 32 horas financiadas por impostos sobre lucros gerados pela IA. A OpenAI preparou o plano à medida que se aproxima de um IPO com uma avaliação estimada em US$ 852 bilhões, levantando questões sobre se a empresa que está construindo superinteligência também deveria projetar a rede de segurança para sua disrupção. Semanas de trabalho
Em sua essência, o plano da OpenAI exige a transferência da carga tributária do trabalho para o capital. À medida que a IA automatiza mais trabalho, argumenta a empresa, os lucros corporativos e os ganhos de capital se expandirão, enquanto a receita tributária sobre a folha de pagamento diminuirá, ameaçando o financiamento da Seguridade Social, Medicaid, SNAP e assistência habitacional. Medicaid, SNAP e assistência habitacional – colocando-os em risco.”
OpenAI, Política Industrial para a Era da Inteligência
Para colmatar essa lacuna, a OpenAI lança um imposto sobre robôs, um conceito que o cofundador da Microsoft, Bill Gates, propôs pela primeira vez em 2017, onde os sistemas automatizados seriam tributados a taxas comparáveis aos trabalhadores humanos que substituem. A OpenAI não especifica uma taxa de imposto corporativa alvo no documento, e suas propostas sugerem impostos mais altos sobre a renda corporativa, retornos baseados em IA ou ganhos de capital, deixando os detalhes para os formuladores de políticas.
No entanto, essa imprecisão é notável, dado que Trump reduziu a taxa de imposto corporativo de 35% para 21% durante seu primeiro mandato e mostrou pouco interesse em aumentá-la novamente.
Além da tributação, o projeto propõe um fundo de riqueza pública que daria a cada cidadão uma participação. no crescimento económico impulsionado pela IA, com retornos distribuídos diretamente ao público. Inspirado no Fundo Permanente do Alasca, o mecanismo foi concebido para garantir que a prosperidade gerada pela IA não se concentre apenas entre acionistas e executivos.
Além disso, a OpenAI prevê que o fundo invista em ativos de longo prazo ligados à economia da IA, criando o que equivale a um dividendo nacional proveniente da automação.
Juntamente com o fundo de riqueza, a OpenAI recomenda incentivar os empregadores a pilotar semanas de trabalho de 32 horas sem reduzir o salário, vinculados a ganhos de produtividade decorrentes da adoção da IA. Os trabalhadores também se beneficiariam de contas de benefícios portáteis que os acompanhariam em todos os empregos, embora ainda dependessem das contribuições do empregador ou da plataforma. Propostas adicionais incluem aumentar a equiparação à reforma, cobrir uma parcela maior dos custos de saúde e subsidiar cuidados a crianças e idosos.
Para uma indústria que tem resistido em grande parte aos apelos à redistribuição da riqueza, as propostas representam um passo invulgar. A OpenAI está efetivamente a argumentar que as empresas que lucram fortemente com a automação devem financiar os custos de transição para os trabalhadores despedidos, uma posição que a coloca em desacordo com grande parte do establishment político de tendência libertária do Vale do Silício.
Infraestruturas e medidas de segurança
No que diz respeito à segurança, o documento apela a novos sistemas de segurança e supervisão, novos órgãos de supervisão e salvaguardas direcionadas contra utilizações de alto risco, incluindo ataques cibernéticos e ameaças biológicas. A OpenAI propõe o desenvolvimento de manuais de contenção especificamente para sistemas de IA auto-replicáveis, um reconhecimento de que os modelos de fronteira podem eventualmente representar riscos que os quadros regulamentares existentes não podem resolver.
Além disso, o plano propõe gatilhos automáticos de redes de segurança que expandiriam os programas sociais com base em métricas de deslocamento, como o aumento do desemprego, em vez de esperar que o Congresso aja. Sob esse modelo, os benefícios aumentariam temporariamente quando os indicadores econômicos cruzassem limites predefinidos e depois diminuiriam à medida que as condições se estabilizassem.
“Alguns serão bons. Alguns serão ruins. Mas sentimos uma sensação de urgência. E queremos ver o debate sobre essas questões realmente começar a acontecer com seriedade.”
Sam Altman, CEO da OpenAI (via Axios)
Enquanto isso, a infraestrutura também aparece com destaque no projeto. A OpenAI propõe fortalecer a rede elétrica para atender às crescentes demandas de energia da IA, com subsídios, créditos fiscais ou participações acionárias para acelerar a construção.
Sua iniciativa Projeto Stargate, um investimento em grande escala na infraestrutura de IA dos EUA anunciada em janeiro de 2025, ressalta como a capacidade energética central se tornou para o modelo de negócios da empresa. Ao enfatizar a expansão da rede e a contenção de segurança, a OpenAI se posiciona como defensora simultânea de uma implantação mais rápida de IA e de proteções mais fortes, um ato de equilíbrio que enfrentará escrutínio à medida que as propostas avançam no processo político.
Para continuar a conversa sobre políticas, a OpenAI planeja sediar discussões em seu Workshop em Washington, D.C., que será inaugurado em maio de 2026. Separadamente, a empresa anunciou bolsas de estudo e subsídios de pesquisa de até US$ 100.000, ou mais. até US$ 1 milhão em créditos de API, para projetos que se baseiam em suas ideias políticas.
O presidente Trump assinou uma ordem executiva em dezembro de 2025 limitando as regulamentações de IA em nível estadual em nome da segurança nacional e econômica, criando um vácuo de política federal que o projeto da OpenAI agora busca preencher. Em 2025, a empresa tornou-se uma entidade com fins lucrativos, concluindo uma reestruturação formal na qual a filial com fins lucrativos assumiu um mandato de benefício público, enquanto a organização sem fins lucrativos original manteve uma participação acionária. Os críticos questionam se a sua missão declarada é compatível com as obrigações dos acionistas, especialmente porque o presidente da OpenAI, Greg Brockman, doou milhões ao presidente Donald Trump.
Além disso, no seu documento, a OpenAI reconheceu os riscos, incluindo a deslocação de empregos, a utilização indevida por maus atores, a fuga dos sistemas de IA ao controlo humano e uma maior concentração de riqueza e poder. No entanto, o plano oferece poucos detalhes de implementação, sem taxas de imposto específicas, prazos para o fundo de riqueza ou mecanismos de aplicação.
Em contraste, o senador Bernie Sanders e a deputada Alexandria Ocasio-Cortez têm trabalhado em projetos de lei que imporiam uma moratória nacional sobre novos centros de dados de IA até que o Congresso aprove legislação de segurança, sugerindo que alguns legisladores são a favor de uma linha mais dura do que a proposta pela OpenAI.
A evolução da posição de Altman em relação à regulamentação acrescenta ainda mais contexto. Em maio de 2023, ele testemunhou perante o Senado dos EUA e abraçou abertamente os apelos à regulamentação da IA, cedendo aos legisladores a forma de governar a tecnologia.
Três anos depois, no entanto, a OpenAI está a criar as suas próprias prescrições políticas em vez de esperar que o Congresso aja. Essa mudança da deferência regulatória para a autoria política proativa reflete a transformação mais ampla da empresa de pesquisa sem fins lucrativos para potência comercial.
Como resultado, a questão é se a OpenAI está genuinamente tentando moldar uma transição justa ou simplesmente tentando definir os termos antes que os reguladores o façam. A Anthropic divulgou seu próprio plano político seis meses antes, tornando a OpenAI relativamente atrasada na conversa política entre empresas de IA de ponta.
A OpenAI reconheceu a incerteza sobre como a transição se desenrolará, mas defendeu processos democráticos que dêem aos cidadãos poder para moldar o futuro da IA. A sua estrutura centra-se em três objetivos declarados: distribuir de forma mais ampla a prosperidade impulsionada pela IA, criar salvaguardas para reduzir os riscos sistémicos e garantir o acesso generalizado para que o poder económico não se concentre ainda mais.
O Japão, a Coreia do Sul e a Estónia já estão a integrar a IA nos serviços públicos e nos sistemas educativos, exemplos que o líder político da OpenAI, Chris Lehane, citou como modelos para o planeamento proativo da força de trabalho. Se o Congresso aceitar alguma dessas propostas, ou se elas permanecerem como um exercício pré-IPO de posicionamento público, dependerá de o apetite político para tributar os lucros da IA conseguir superar o poder de lobby da indústria que propõe os impostos.