A IBM lançou seus novos modelos de AI de granito 4.0, oferecendo um grande salto em eficiência para as empresas. Target=”_ Blank”> Mamba-2 e Transformer Arquiteturas. Essa abordagem reduz as necessidades de memória em mais de 70 %, o que reduz os custos de hardware para tarefas complexas.

Os modelos são construídos para uso corporativo, concentrando-se na confiança e no alto desempenho. Eles estão disponíveis agora em ibm’s watsonx.ai , Hugging Face e outras plataformas. src=”Data: imagem/svg+xml; nitro-inempty-id=mty0otoxmjg1-1; base64, phn2zyb2awv3qm94psiwidagmti4mca3mj AiihdpzhropsixmjgwiiBozwlnahq9ijcymcigEg1sbnm9Imh0dha6ly93d3cudzmub3jnlziwmdavc3znij48l3n2zz4=”>

granito 4.0 marca a decisão da IBM de fornecer uma ferramenta de IA poderosa, porém acessível, para o mercado global, posicionando-o como um concorrente-chave.

Uma arquitetura híbrida para resolver o problema de eficiência da IA ​​

No coração do granito 4.0 é uma solução inteligente para um dos maiores desafios da IA: o imenso quadrado computacional de modelos de transformadores. Isso os torna caros para executar. Eles Combinando Mamba-2 altamente eficientes, com um pequeno número de blocos tradicionais em A 9: 1: 1: 1 ratio muito mais adequado para documentos longos .

Este design híbrido entrega os melhores de ambos os mundos. Ele mantém a precisão contextual pela qual os transformadores são conhecidos ao aproveitar a velocidade e a eficiência da memória de Mamba. href=”https://www.aiml.com/ibm-launches-granite-4-0-hybrid-ai-models-with-lower-memory-e-hardware-costs/”Target=”_ em branco”> diminuindo a barreira para a entrada de muitas organizações . Os pesquisadores estão explorando vários métodos, das cascatas especulativas do Google a técnicas de compressão sem perdas como o DFLOAT11, todas com o objetivo de tornar grandes modelos mais acessíveis e sustentáveis. A inovação arquitetônica da IBM é uma grande entrada neste campo. A empresa afirma que a nova arquitetura pode reduzir os requisitos de memória da GPU em mais de 70% durante a inferência, especialmente para cargas de trabalho com contextos longos ou muitos usuários simultâneos. Isso se traduz diretamente em custos operacionais mais baixos.

A família Granite 4.0 inclui vários tamanhos para atender às necessidades diferentes. A programação possui dois modelos de mistura de especialistas (MOE), H-small (~ 9b parâmetros ativos) e Horquitais H (~ 1b ativo), juntamente com um modelo híbrido 3B denso. O modelo de granito-4.0-H-small se destaca nas tarefas seguintes a instruções (IFEVAL) e é altamente competitivo na chamada de funções (BFCLV3), de acordo com os dados da IBM. src=”Data: imagem/svg+xml; nitro-inempty-id=mty1nzoxndk1-1; base64, phn2zyb2awv3qm94psiwidagmti4mca2ndai IhdpzhropsixmjgwiiBozwlnahq9ijy0mcigEg1sbnm9Imh0dHa6ly93d3CudzMub3Jnlziwmdavc3znij48l3n2zz4=”>

Isso demonstra sua prontidão para fluxos de trabalho complexos e agênticos comuns em ambientes de negócios. Eles também foram treinados em sequências de amostra de até 512k tokens, garantindo um desempenho robusto em tarefas que exigem janelas de contexto muito longas. O granito 4.0 é liberado sob a licença permissiva do Apache 2.0, incentivando ampla adoção e modificação. href=”https://www.iso.org/standard/88934.html”Target=”_ Blank”> alcançado ISO/IEC 42001: 2023 Certificação . Indústrias. A empresa planeja expandir a família com variantes de”pensamento”focadas em raciocínio mais tarde em 2025.

Categories: IT Info