Qubit – ovvero, come ti rivoluziono l’informatica con la meccanica quantistica

La notizia è di una settimana fa: nei laboratori della University of Southern California è stato brevettato il primo calcolatore quantistico, il D-Wave Lab1. Il primo modello è stato venduto al colosso americano dell’alta tecnologia Lockheed Martin, mentre altre due macchine sono state acquistate da Amazon e da una cordata formata da due nomi non esattamente sconosciuti: NASA e Google.

Google Nasa

Tanto clamore (e tanti soldi) non per caso: il progetto della D-Wave potrebbe essere infatti un passo in avanti epocale per la storia della tecnologia. Il Lab1 (e suo fratello, il Lab2) sono infatti i primi calcolatori basati non più sui bit, ma sui qubit (contrazione di “quantum bit”). Di che si tratta?

In informatica il bit è l’unità di informazione fondamentale che costituisce il linguaggio binario: un bit corrisponde quindi a uno 0 o ad un 1. Un bit svolge quindi la stessa funzione di una lettera nel linguaggio. Per costruire un computer occorre però che ad un bit corrisponda un sistema fisico (proprio come ad una lettera occorre far corrispondere un suono); occorre quindi considerare, all’interno di tale sistema, una grandezza che possa assumere solo due valori, a cui si fanno corrispondere lo 0 e l’1: ad esempio un interruttore acceso o spento, un circuito in cui passa o non passa corrente e via dicendo; nei computer moderni i bit sono costituiti da microscopici cristalli di silicio.

Una foto di uno dei primi prototipi di processore a qubit. Una foto di uno dei primi prototipi di processore a qubit.

Il qubit è ciò che si ottiene quando il sistema fisico utilizzato per rappresentare le unità di informazione non risponde più alle leggi della fisica classica, ma a quelle della meccanica quantistica. Qual è la differenza? Un sistema classico su cui non si ha nessuna “informazione” può trovarsi indifferentemente in uno qualsiasi degli stati possibili; un sistema quantistico su cui non si ha nessuna informazione invece, si trova contemporaneamente in tutti gli stati possibili. Provo a spiegare in maniera più semplice.

Significa che un qubit, fintanto che non viene processato (ovvero: computato, letto), possiede contemporaneamente i valori di 0 e di 1. Tutto ciò può apparire paradossale: è come se una lampadina potesse essere contemporaneamente accesa e spenta, ma è esattamente ciò che intendeva Niels Bohr quando disse: “Chi non rimane shockato dalla meccanica quantistica non ha capito una sola parola”.

Quanta informazione può contenere dunque un qubit? In teoria, infinita, visto che esistono infinite possibili sovrapposizioni diverse dei valori 0 e 1. In pratica tuttavia, siccome nel momento in cui l’informazione viene processata il valore del qubit collassa su 0 o su 1, un qubit non può contenere più informazione di un bit classico.

Se a livello di informazione immagazzinata però, un computer quantistico non presenta vantaggi rispetto a quelli attuali, la capacità di calcolo invece aumenta esponenzialmente. Supponiamo ad esempio di dover applicare un operatore a 2 bit classici, e di dover calcolare tutti i possibili output: come si procede? Occorre considerare tutte le configurazioni possibili (sono quattro: 00, 01, 10 e 11), e operare su ciascuna di esse.

Quanti qubit servirebbero per fare lo stesso calcolo con un processore quantistico? Ogni qubit è contemporaneamente 0 e 1, quindi in un sistema di 2 qubit coesistono tutte e quattro le combinazioni. Basta quindi operare su tale sistema per ottenere il risultato desiderato: abbiamo utilizzato solo due unità di informazione, invece di 4.

Estendendo il calcolo, si dimostra facilmente che un processore quantistico in grado di operare su N qubit, ha la potenza di calcolo di un processore classico che opera su 2^N bit: un aumento appunto esponenziale!

Cosa potrebbe fare un computer del genere? Detto in gergo informatico, potrebbe rendere semplici dei calcoli complessi. In informatica un calcolo semplice è un calcolo in grado di essere processato con un numero di iterazioni pari ad una potenza del numero di bit che costituiscono i dati, mentre un calcolo complesso è un calcolo che richiede un numero di iterazioni pari al fattoriale del numero di bit che costituiscono i dati. Per dare un’idea della differenza, un calcolo semplice su una stringa di lunghezza 100 bit potrebbe richiedere da qualche milione a qualche migliaio di miliardi di iterazioni: potrebbero sembrare molte, ma per la potenza di calcolo di un processore moderno in realtà sono un numero assolutamente gestibile.

Invece, un calcolo complesso su una stringa della medesima lunghezza richiederebbe un numero di iterazioni dell’ordine di 10^157, che significa che se oggi, senza computer quantistici, impiegassimo nel calcolo un miliardo dei più moderni processori facendoli lavorare in parallelo, impiegheremmo comunque un tempo superiore a svariati miliardi di miliardi di volte l’età dell’universo.

Tra i problemi complessi al giorno d’oggi ci sono il computo di particolari funzioni matematiche, come la trasformata di Fourier, la fattorizzazione in numeri primi di grandi interi (e con grandi intendo lunghi centinaia di cifre), ma anche la ricerca all’interno di un database (pensate come sarebbe facile se il processore potesse raffrontare con la stringa di ricerca tutti i file del database in contemporanea).

Questa formula è un esempio di problema informaticamente complesso. Non l'avreste mai detto eh? Questo è un esempio di problema complesso. Non l’avreste detto, eh?

Per riportare la cosa ad un livello meno tecnico, e più legato all’esperienza di tutti i giorni, si potrebbero svolgere in tempi brevissimi e in maniera efficace calcoli meteorologici, per ottenere previsioni del tempo precise al secondo e al metro; si potrebbero gestire enormi flussi di dati in pochissimo tempo – ad esempio le aziende potrebbero scansionare in pochi minuti tutti i dati di tutti i social network del mondo per fare delle analisi di mercato di enorme portata e precisione, e lo stesso potrebbero fare gli istituti di statistica per tracciare le tendenze politiche e sociali di un paese o di un’area geografica; le elaborazioni di immensi pacchetti di dati, come quelli relativi ai più importanti esperimenti scientifici mondiali (ad esempio quelli che si svolgono presso il CERN di Ginevra) avverrebbero in pochi minuti; si potrebbero costruire modelli informatici precisissimi a scopo di simulazione, il che porterebbe a incredibili passi avanti tanto nell’ingegneria quanto nella biochimica (analisi dei processi cerebrali, tanto per fare un esempio).

quantum computing

Insomma, sebbene i processori prodotti dalla D-Wave abbiano ancora una capacità di calcolo limitata, costituiscono il primo esemplare di una tecnologia dal potenziale immenso. Naturalmente, non è tutto rose e fiori: operare su stati quantistici è estremamente complesso, e alle energie macroscopiche gli stati fisici che costituiscono i qubit (solitamente stati di spin di elettroni o stati di polarizzazione di fotoni) sono soggetti a eccessive interazioni, che rompono le sovrapposizioni di stati. Di conseguenza occorre che l’intero sistema sia mantenuto ad energia bassissima, ovvero ad una temperatura prossima allo zero assoluto, il che pone diversi ostacoli a livello tecnologico. Non per nulla i prototipi Lab1 e Lab2 sono stati venduti rispettivamente a 10 e 15 milioni di dollari.

Alcuni scienziati inoltre, si sono dimostrati scettici riguardo alle reali proprietà quantistiche dei processori D-Wave, in quanto questi non sfruttano il fenomeno quantistico dell’entanglement. Da un punto di vista matematico, queste critiche non sembrano fondate: l’aumento esponenziale di prestazioni di un processore a qubit è matematicamente possibile anche senza sfruttare tale fenomeno, ma “matematicamente” e “praticamente” non sono la stessa cosa, e pertanto bisognerà attendere che tali brevetti vengano messi alla prova nelle prossime settimane. Le premesse comunque rimangono ottime.

Luca Romano

Non è poi un futuro così lontano... Non è poi un futuro così lontano…

@twitTagli

PS: Esiste un altro campo dove le prestazioni di un processore quantistico gli permetterebbero operazioni impossibili coi computer di oggi, ed è quello dell’hacking. Un computer quantistico con sufficiente potenza di calcolo (non un prototipo quindi) sarebbe in grado di violare in pochi secondi qualunque sistema di sicurezza basato sulla tecnologia classica: dai conti in banca dei privati cittadini al database del Pentagono. Senza-nessuna-difficoltà. Tuttavia, la soluzione a questo problema esiste, ed ancora una volta arriva dalla fisica moderna: ma di questo parleremo un’altra volta.

Post Correlati