Sono i classici "articoli" sensazionalistici che puntano all'effetto wow, ma di concreto c'è pochissimo. Per carità, la tecnologia è concreta, ma siamo lontanissimi anche solo da un utilizzo "High End" aziendale, figuriamoci a livello consumer. I problemi da superare sono enormi, e spaziano dall'hardware (sono processori che funzionano solo a temperature bassissime, prossime allo zero assoluto, e non ci vuole un genio a capire che difficoltà questo comporta a livello consumer) fino al software (la programmazione ad algoritmi quantistici è difficile a dire poco, e realisticamente le cpu quantistiche non saranno multi purpose ma verranno utilizzate come coprocessori per specifiche operazioni).
Insomma, per un PC quantistico in casa minimo ci vorranno 20 anni, ci si rivede con calma.
Verissimo, sono solo articoli clickbait per guadagnare visualizzazioni, perché c'é una differenza fondamentale tra un pc che funziona per stati determinati e uno quantistico: oltre alla questione tecnica (dimensioni, temperature, affidabilitá nel tempo, ecc...) non fanno la stessa cosa, non sono intercambiabili.
(=> inizio modalitá semplifico di brutto: fisici, lo so che approssimeró all'estremo tutto, ma la fisica quantistica é controintuitiva ed é come il principio di intederminazione: non é possibile avere contemporaneamente rigorosa esattezza e spiegazione priva di matematica e fisica avanzata)
Un computer classico é in grado di eseguire qualsiasi codice o operazione proprio perché basato su un'architettura di tipo "operazione-indirizzo-dato". E con queste é in grado di adattarsi a qualsiasi applicazione o richiesta.
Il computer quantistico invece si basa sul fatto di avere un certo numero Qbit che durante il calcolo si trovano in uno stato indeterminato (o meglio, che possono assumere uno qualunque degli stati ammessi) e che vengono condensati solo a posteriori in un unico stato a seconda del tipo di risultato che si vuole ottenere. Questo fa si che il computer quantistico sia impagabile nel simulare situazioni dove si vuol scoprire quale combinazione di stati conduca alla condizione piú stabile di un sistema (o a minor energia).
Quando il computer di Google ha dimostrato la superioritá quantistica sui computer tradizionali, lo ha fatto andando a risolvere (trovare la condizione finale stabile) di un sistema composto da molteplici elementi i quali potevano assumere molteplici condizioni/stati. Un computer tradizionale, per fare la stessa cosa, avrebbe cominciato a simulare il sistema ciclando sostanzialmente tra tutte le condizioni possibili (da cui la durata folle del calcolo richiesto). Il computer quantistico invece per sua natura é indeterminato, quindi le infinite combinazioni di stati coesistono contemporaneamente (occhio, sto semplificando paurosamente quello che ha fatto, ma ci vuole altrimenti un trattato di fisica per spiegarlo punto per punto) e quello che deve fare é solo farle collassare in modo da ottenere lo stato finale voluto (solitamente quello di "minor energia", ma volendo puó essere quello si vuole): a quel punto, rileggendo i singoli elementi (i Qbit) si scopre la soluzione del problema.
Ripeto, questa é una semplificazione estrema di cosa hanno fatto, ma il concetto di base é quello: il computer quantistico non ha rivali se il problema da risolvere coinvolge pesantemente delle "probabilitá" o se puó essere ricondotto ad una questione di probabilitá. É utile per simulare sistemi complessi, per simulazioni di fisica nucleare, per problemi riconducibili alla ricerca del "percorso piú breve" in un sistema completto, ecc.... ma se la questione é fare una sequenza molto lunga di calcoli (come dover elaborare i singoli frame di un gioco per una scheda grafica), allora diventa inutile: in questi casi a farla da padrone é la frequenza, quindi il numero di operazioni che il sistema puó eseguire nel tempo. E i computer quantistici non sono basati sulla frequenza di esecuzione.
É analogo a quello che succede giá nelle automobili da tempo: l'elettronica per il controllo motore é presente fin dagli anni 90 ed il problema di eseguire il maggior numero di calcoli c'é sempre stato, eppure vengono usati microprocessori con frequenze di funzionamento molto basse. Fino a pochi anni fa, si usavano ancora micro che giravano a 64MHz (oggi si arriva sui 300 o anche 600): perché non usare invece un processore da pc che viaggia nell'ordine dei GHz? La differenza era nella risposta: i micro a 64MHz hanno un'architettura per cui la risposta ad un qualsiasi interrupt arriva nel colpo di clock successivo alla ricezione dell'interrupt stesso. In altre parole, un sensore rileva un problema nei giri motore o nella combustione? Il micro al colpo di clock successivo sta giá restituendo la risposta, quindi é un grado di rimanere al passo coi giri motore e cambiare i parametri di combustione praticamente nello stesso giro motore in cui il problema é stato rilevato. Un processore da pc invece é enormemente piú rapido nell'eseguire la risposta, ma ha bisogno di tantissimo tempo (colpi di clock) per preparasi ad eseguire quel calcolo. In sostanza, la sua risposta sarebbe enormemente piú rapida, ma per averla occorre aspettare troppo tempo perché sia utile.
Stessa cosa computer quantistico vs tradizionale: il primo permette di ottenere la risposta in un tempo rapidissimo, ma devi prima spendere tempo per portarlo nella condizione corretta ad elaborare quella risposta, quindi ha senso quando il conto da eseguire é enormemente superiore al tempo necessario a creare le condizioni del calcolo (che non vuol dire programmarlo, ma proprio permettere al sistema di assumere la condizione corretta per produrre poi la risposta che stiamo cercando: l'equivalente di definire e propagare la configurazione in un FPGA). Il secondo invece non ha bisogno di cambiare la propria configurazione prima di ogni operazione, quindi puó cominciare subito ad eseguire una sequenza di operazioni. E sfrutta la sua frequenza per eseguirne il maggior numero possibile nel tempo.
Fosse applicato ad una scheda video, il computer quantistico potrebbe creare un fotogramma totalmente realistico ad una qualsiasi risoluzione (potenzialmente non ci sarebbe differenza tra fare un fotogramma in 800x600, 8k o millemila-k), ma dovrebbe riconfigurarsi prima di passare al successivo, quindi vedresti dei magnifici fermo immagine. Il computer tradizionale invece esegue a ripetizione e senza interruzioni la stessa operazione, producendo un flusso video dove é la frequenza di funzionamento a limitare la risoluzione massima del frame.
Sostanzialmente, dentro casa il quantistico é inutile: non é la risposta alla necessitá di incrementare la potenza di calcolo sequenziale e non é efficace nelle applicazioni comuni. A meno di non cambiare radicalmente il modo di approcciare i problemi (ma tanto radicalmente): tipo affrontare un "2+2=?" in termini di ricerca del numero che renda piú stabile e costante lo stato della realtá anziché collegandolo al concetto di "due oggetti + due oggetti quanti oggetti fanno?"