xAI di Elon Musk ha annunciato l’intenzione di costruire un supercomputer volto a migliorare le capacità di Grok, un chatbot con intelligenza artificiale generativa disponibile su X tramite un modello di abbonamento. Queste informazioni sono emerse da una presentazione per gli investitori esaminata da The Information.
Collaborazione con Oracle e Nvidia
Si prevede che la costruzione di questo supercomputer costerà miliardi di dollari, riflettendo l’alto costo delle decine di migliaia di Nvidia Sono necessarie GPU H100. Questo investimento sostanziale sottolinea la portata e l’ambizione dei piani di xAI. Il supercomputer fungerà da spina dorsale per lo sviluppo di modelli linguistici più sofisticati, migliorando le capacità di Grok.
xAI sta valutando una partnership con Oracle per sviluppare il supercomputer pianificato, che dovrebbe essere completato entro la fine del 2025. Il progetto utilizzerà una configurazione GPU quattro volte più grande degli attuali cluster più grandi. Musk ha indicato che le future versioni di Grok richiederanno oltre 100.000 GPU H100, significativamente più delle 20.000 GPU utilizzate per addestrare Grok 2. L’ambizioso progetto è stato paragonato alle gigafactory di Tesla, definendolo una”gigafactory di elaborazione”. p>
Posizione di mercato e caratteristiche di Grok
Grok, sebbene non così ampiamente riconosciuto come ChatGPT di OpenAI, offre vantaggi unici. È accessibile su x.com ma richiede una quota di abbonamento. Una delle caratteristiche distintive di Grok è il suo accesso diretto a tutti i post su X, che Musk promuove come alternativa alle fonti di notizie tradizionali. A differenza di OpenAI, che mantiene il controllo proprietario su ChatGPT, xAI ha reso open source i pesi e l’architettura di Grok-1. L’attuale versione, Grok 1.5, rilasciata ad aprile, può elaborare informazioni visive come queste come fotografie e diagrammi oltre al testo.
Si prevede che lo sviluppo di un supercomputer xAI avrà implicazioni significative per il settore dell’intelligenza artificiale. Nvidia trarrà grandi benefici dall’aumento della domanda per le sue GPU H100. Inoltre, si prevede che questa iniziativa stimolerà l’innovazione in tutto il settore, spingendo concorrenti come OpenAI e Google a migliorare i loro modelli per rimanere competitivi. Tuttavia, l’immensa potenza computazionale richiesta solleva preoccupazioni sul consumo energetico. Resta da vedere come Musk affronterà queste sfide ambientali, potenzialmente attraverso l’uso di fonti di energia rinnovabile e sforzi per ridurre al minimo il consumo di acqua.