IBM ha presentato oggi i suoi processori quantistici di prossima generazione, accelerando i tempi per costruire un utile computer quantistico.

Martedì, durante l’evento annuale per gli sviluppatori, l’azienda ha presentato il processore Nighthawk da 120 qubit, costruito per risolvere problemi più complessi. Ha inoltre rivelato il chip sperimentale Loon, un passo fondamentale verso sistemi a prova di errore.

Questi miglioramenti hardware, oltre ai nuovi progressi nella correzione degli errori, mantengono IBM sulla buona strada per ottenere un”vantaggio quantistico”entro il 2026 e una macchina tollerante ai guasti entro il 2029. La notizia riscalda la corsa quantistica, a seguito di un recente importante passo avanti da parte del rivale Google.

Nighthawk e Loon: un doppio passo avanti nella progettazione dei processori

Con il suo hardware più recente, IBM scommette che la connettività complessa e la potente correzione degli errori supereranno il numero di qubit grezzi dei rivali. IBM ha presentato due processori distinti, ciascuno affrontando una parte diversa della sfida quantistica.

In primo luogo, IBM Quantum Nighthawk è progettato per fornire un vantaggio quantistico entro i prossimi due anni. Previsto per la fine del 2025, sarà caratterizzato da 120 qubit collegati da 218 accoppiatori sintonizzabili di nuova generazione.

Processore IBM Nighthawk Quantum (Fonte: IBM)

Secondo IBM, questa architettura consentirà agli utenti di eseguire circuiti con il 30% in più di complessità rispetto all’attuale processore Heron, mantenendo bassi tassi di errore.

IBM ha inoltre delineato un’ambiziosa roadmap prestazionale per i sistemi basati su Nighthawk, mirando a la capacità di gestire fino a 7.500 porte a due qubit entro il 2026 e 15.000 entro il 2028.

Mentre Nighthawk allarga i confini dell’utilità a breve termine, il processore sperimentale Loon getta le basi per il futuro dell’informatica tollerante ai guasti.

Loon introduce una nuova architettura in cui ciascun qubit si connette ad altri sei, incluso verticalmente, una capacità che nessun altro computer quantistico superconduttore ha dimostrato. Una connettività così densa e tridimensionale è fondamentale per implementare gli efficienti codici di correzione degli errori necessari per macchine veramente scalabili.

IBM Processore Loon Quantum (Fonte: IBM)

Per anni, alcuni ricercatori si sono chiesti se connessioni così complesse fossero fattibili. Jay Gambetta dell’IBM ha notato lo scetticismo, affermando a New Scientist che era come se la gente dicesse:”‘Sei nel campo della teoria, non puoi rendertene conto’. E [ora] lo dimostreremo”. [essere] sbagliato.”

Accelerare la tabella di marcia: correzione degli errori e fabbricazione su scala industriale

Dietro gli annunci dei processori si nasconde un traguardo fondamentale della produzione. IBM ha spostato la sua produzione primaria di wafer quantistici in un impianto di fabbricazione avanzato da 300 mm presso il Albany NanoTech Complex.

Il passaggio a strumenti standard del settore ha già raddoppiato la velocità dei suoi cicli di ricerca e sviluppo. Consente progettazioni di chip più complesse e segnala il passaggio dal lavoro di laboratorio specializzato alla produzione su scala industriale, un passo fondamentale per la costruzione di sistemi più grandi.

Al passo con questo ritmo industriale rappresenta un significativo passo avanti in termini di software e correzione degli errori. IBM ha annunciato di aver dimostrato con successo la decodifica in tempo reale degli errori quantistici utilizzando codici qLDPC avanzati su hardware classico, un passo cruciale per la tolleranza agli errori che è stato raggiunto un anno intero prima del previsto.

Per rendere accessibili questi miglioramenti hardware, IBM sta migliorando il suo stack software Qiskit. Una nuova interfaccia C++ aiuterà a colmare il divario tra gli ambienti di calcolo quantistico e ad alte prestazioni (HPC).

Inoltre, le nuove tecniche di mitigazione degli errori basate sull’HPC possono ridurre il costo dell’estrazione di risultati accurati di oltre 100 volte. L’attenzione su uno stack hardware e software completo è centrale nella visione dell’azienda.

Come ha affermato Jay Gambetta, Direttore della ricerca IBM e IBM Fellow,”Crediamo che IBM sia l’unica azienda in grado di inventare e scalare rapidamente software, hardware, fabbricazione e correzione degli errori quantistici per sbloccare applicazioni trasformative.”

La corsa quantistica si riscalda: la strategia di IBM in un campo affollato

In un campo affollato di architetture concorrenti, l’approccio modulare di IBM mira a costruire innanzitutto una base affidabile. Gli annunci di IBM si collocano in un ambiente fortemente competitivo.

Proprio il mese scorso, Google ha affermato di aver ottenuto un”vantaggio quantico verificabile”, mentre il concorrente Quantinuum ha recentemente presentato il suo sistema Helios a 98 qubit, che chiama il computer quantistico commerciale più accurato al mondo.

La strategia di IBM è in netto contrasto con questi rivali e altri come Microsoft e Amazon, che stanno perseguendo tecnologie di qubit completamente diverse.

Big Blue è focalizzata sul perfezionamento dei suoi qubit superconduttori progettando una migliore connettività e sviluppando un robusto framework di correzione degli errori che possa funzionare su sistemi ibridi quantistici classici.

Affrontare la sfida fondamentale dell’instabilità dei qubit è un’impresa sforzo a livello di settore. Una recente scoperta dell’Università di Princeton, estranea al lavoro di IBM, illustra l’importanza di questo problema.

I ricercatori hanno sviluppato un nuovo design di qubit che rimane stabile 15 volte più a lungo degli attuali standard del settore.

Andrew Houck di Princeton ha commentato i progressi generali, affermando:”Questo progresso porta l’informatica quantistica fuori dal regno del meramente possibile e nel regno della pratica. Ora possiamo iniziare a fare progressi molto più rapidamente.”

In definitiva, l’ultima novità di IBM il successo riformula una parte fondamentale del contesto quantistico. L’attenzione si sta spostando dal conteggio grezzo dei qubit alla progettazione di sistemi verificabili, ripetibili e pratici. Stephen Bartlett dell’Università di Sydney ha offerto una prospettiva misurata sui nuovi processori, affermando:”Non è una soluzione miracolosa che risolve tutti i problemi… ma è comunque un passo importante e significativo verso questo.”

Dimostrando che i componenti fondamentali per un futuro tollerante agli errori possono essere costruiti e scalati, IBM ha avvicinato notevolmente quel futuro.

Categories: IT Info