Ottimizzazione quantistica fine dei modelli AI: riduzione dell'errore del 24%
Uno studio sperimentale pubblicato su arXiv descrive la misurazione dell'energia per soluzione (ETS) per applicazioni ibride quantistico-classiche, utilizzando strumentazione di potenza diretta su un processore quantistico a ioni intrappolati Forte Enterprise. Questo approccio è implementato in una pipeline progettata per l'ottimizzazione fine quantistica di modelli AI fondamentali, con validazione condotta end-to-end su hardware quantistico. Nonostante sfide come rumore e numero limitato di qubit, i modelli prodotti dimostrano un'accuratezza che eguaglia o supera i benchmark classici, tra cui regressione logistica e classificatori a supporto vettoriale. I risultati indicano che il consumo energetico nella QPU aumenta approssimativamente in modo lineare con il numero di qubit per circuiti poco profondi, mentre le simulazioni classiche mostrano una crescita esponenziale, rivelando un punto di pareggio ETS a circa 34 qubit. Il miglior modello con ottimizzazione fine quantistica presenta una riduzione del 24% dell'errore di classificazione rispetto al miglior modello classico con ottimizzazione fine.
Fatti principali
- Lo studio misura l'energia per soluzione di applicazioni ibride quantistico-classiche.
- Utilizza un processore quantistico a ioni intrappolati Forte Enterprise con strumentazione di potenza diretta.
- Applica la metodologia all'ottimizzazione fine quantistica di modelli AI fondamentali.
- I modelli quantistici raggiungono un'accuratezza competitiva con i baselines classici.
- L'energia della QPU scala linearmente con il numero di qubit per circuiti poco profondi.
- La simulazione classica mostra una scala energetica esponenziale.
- Il pareggio ETS si verifica intorno ai 34 qubit.
- Il miglior modello quantistico con ottimizzazione fine migliora l'errore di classificazione del 24% rispetto al classico.
Entità
Istituzioni
- arXiv