A AMD anunciou na terça-feira que seu mais novo hardware suporta os novos modelos `GPT-ROSS’da OpenAI. O suporte é para seus mais recentes produtos de consumo, como chips Ryzen AI e placas gráficas Radeon. Em uma chave primeiro, a AMD diz que seu chip Ryzen AI Max+ 395 pode executar o enorme modelo de parâmetro de 120 bilhões em um PC local. A alteração permite aplicativos de IA mais rápidos, privados e offline. Os desenvolvedores podem usar a ferramenta LM Studio para executar os modelos hoje, facilitando o acesso à IA poderosa. href=”https://www.amd.com/en/blogs/2025/how-to-drun-openai-gpt-oss-20b-120b-models-on-amd-ryzen-ai-radeon.html”Target=”_”> reivindica um mundo-First para seu consumidor hardware . A empresa anunciou seu processador Ryzen AI Max+ 395, quando configurado com 128 GB de RAM, é o primeiro chip de consumidor capaz de executar localmente o enorme parâmetro de 117 bilhões do OpenAI `GPT-OSS-120B`. src=”https://winbuzzer.com/wp-content/uploads/2025/08/amd-openai-pornthship.jpg”>

Este é um marco significativo. Ele muda as cargas de trabalho da AI da classe Datacenter da nuvem para um desktop ou laptop. Segundo a AMD, o sistema atinge um desempenho muito utilizável de até 30 tokens por segundo, tornando a IA local complexa uma realidade prática para desenvolvedores e pesquisadores.

[Conteúdo incorporado]

Os requisitos técnicos são íngremes, mas reveladores. O modelo `GPT-OSS-120B` precisa de cerca de 61 GB de VRAM. This fits within the 96GB of dedicated graphics memory available on the specialized Ryzen AI Max+ 395 platform, a capability AMD destacou recentemente . A empresa enfatiza seu excelente tempo para o primeiro tido (TTFT), que garante desempenho responsivo para fluxos de trabalho agênticos que dependem de saídas iniciais rápidas. Eles representam um pivô estratégico para o OpenAI. Esse design ativa apenas uma fração dos parâmetros totais para uma determinada tarefa, reduzindo drasticamente o custo computacional e tornando-os viáveis para a execução do dispositivo. Este modelo estrutura a saída do modelo em canais separados para raciocínio, uso de ferramentas e a resposta final, dando aos desenvolvedores controle mais transparente. href=”https://rocm.blogs.amd.com/developer-guides/2025/08/05/day-0-developer-guide-brning-the-latest-open-models-from-penai-on-amd-ai-hardware.html”alvo=”_”A ferramenta principal é o LM Studio, um aplicativo gratuito que simplifica o download e a execução de LLMs. Os usuários também precisam instalar o mais recente amd software: adrenalin edition drivers (versão 25.8 ou superior) para desbloquear os recursos necessários. Descarga todas as camadas computacionais para a GPU e, em seguida, carregando o modelo na memória. Embora o modelo 120B possa levar tempo para carregar devido ao seu tamanho, o resultado é um poderoso mecanismo de raciocínio que executa totalmente localmente. Foi uma parte essencial de um evento cuidadosamente orquestrado em todo o setor, projetado para estabelecer o `GPT-Oss’e a harmonia como um novo padrão. A Microsoft divulgou suas plataformas locais do Windows AI Foundry e Foundry para executar os modelos no Windows e MacOS. A Qualcomm também se juntou, permitindo o suporte no dispositivo para PCs movidos a Snapdragon. Os analistas sugerem que”em parte, trata-se de reafirmar o domínio do OpenAI no ecossistema de pesquisa”. Esse sentimento é ecoado no enquadramento do lançamento do OpenAI, com a empresa afirmando que”o amplo acesso a esses modelos capazes de pesos abertos criados nos EUA ajuda a expandir os trilhos democráticos da IA”. Ao fornecer modelos poderosos, acessíveis e amplamente suportados, a empresa está fazendo um argumento atraente para seu ecossistema. Como observou Asha Sharma, da Microsoft,”pela primeira vez, você pode executar modelos OpenAI como GPT-ROSS-120B em uma única GPU corporativa-ou executar o GPT-ROSS-20B localmente”. destacando a nova realidade híbrida de IA

Categories: IT Info