Ai Chip Unicorn Groq está traçando uma grande expansão global depois de garantir uma nova rodada de financiamento de US $ 750 milhões que aumentou sua avaliação para US $ 6,9 bilhões.
A startup baseada nos EUA planeja estabelecer mais de uma dúzia de novos data centers no próximo ano , para atender a uma demanda de repercussão para o seu mais de um dos dois centers de um dos dois centers do que um dos dois centers do próximo ano. Parcerias, incluindo uma profunda aliança com a entidade nacional da IA da Arábia Saudita, o Humain e uma integração com a plataforma do desenvolvedor abraçando o rosto. Push to desafiar players estabelecidos como a Nvidia, oferecendo hardware especializado e de baixo custo. Com alta velocidade e baixo custo. Target=”_ Blank”> BlackRock e Deutsche Telekom Capital Partners . No entanto, o caminho não está isento de desafios.
Foi relatado em julho que a GROQ havia revisado sua previsão de receita de 2025 de mais de US $ 2 bilhões para US $ 500 milhões, um movimento que destaca a volatilidade inerente do mercado de hardware de IA. Apesar disso, apesar disso, a empresa reivindica a oferta de falta de suprimentos. Um porta-voz observou anteriormente que, mesmo com infraestrutura duplicada,”ainda não haveria capacidade suficiente para atender à demanda hoje”. Alianças. Essa integração torna o groq e provedor de inferência oficial na plataforma . Vem da Arábia Saudita, que finalizou um contrato de investimento de US $ 1,5 bilhão em fevereiro de 2025. Essa parceria faz do GROQ um provedor de tecnologia importante para Humain, a nova entidade estatal do reino. Ele se baseia em colaborações anteriores, incluindo um projeto 2024 com a Aramco para estabelecer um data center de IA, que serviu como um campo de teste inicial para a tecnologia da GROQ na região. Ao garantir o acesso à tecnologia de chips de ponta dos EUA, o reino visa construir uma capacidade soberana de IA, um objetivo central para seu plano de infraestrutura de vários bilhões de dólares.
Isso reflete uma compreensão diferenciada do cenário de hardware. O CEO Humanin Tareq Amin enfatizou a urgência, dizendo: “O mundo está com fome de capacidade. Existem dois caminhos que você pode seguir: você leva devagar e definitivamente não estamos levando devagar, ou você vai rápido. href=”https://groq.com/lpu-architecture”Target=”_ Blank”> Arquitetura da Unidade de Processamento de Idioma (LPU) . Diferentemente das GPUs versáteis de que a maioria da indústria de IA, as LPUs são projetadas especificamente para as demandas de inferência de IA, co-locando computação e memória no chip.
O design da LPU aborda diretamente uma mudança fundamental nas cargas de AI. Enquanto os modelos mais antigos foram ligados à computação, os transformadores modernos são ligados à memória. A arquitetura de Groq é uma aposta direta sobre essa nova realidade.
Este design especializado elimina gargalos de largura de banda de memória que podem dificultar o desempenho da GPU em tarefas baseadas em idiomas.
Os resultados são impressionantes. A empresa artificial independente confirmou a implantação do GROQ do modelo QWEN3 32B do Alibaba, é executado em aproximadamente 535 tokens por segundo. A Companhia oferece acesso ao poderoso modelo QWEN3 32B a apenas US $ 0,29 por milhão de tokens de entrada e tokens de saída de US $ 0,59 por milhão, uma taxa atraente projetada para minar os provedores de nuvem em exercício. Proposição contra serviços como a AWS Bedrock e o Google Vertex Ai. Startups como Positron também estão entusiastas