Ik computer 7 jaar geleden, net na mijn masterdiploma. Destijds was het veld vol opwinding, maar ook sceptisch. Tegenwoordig onderscheidt quantum computing zich als een opkomende technologie, naast HPC’s en AI.
De aandacht verschoof van uitsluitend hardwaregerelateerd onderzoek en discussie naar toepassingen, software en algoritmen. Quantum is echt een hulpmiddel dat in verschillende disciplines kan worden gebruikt, in plaats van op een geïsoleerd gebied. Een van de veelbelovende, maar nog steeds niet volledig begrepen toepassingen van kwantumcomputers is kwantummachine learning.
Quantum Machine Learning (QML) is de afgelopen jaren een verzamelnaam geworden. Een van de eerste en belangrijkste verschijningen van QML vond plaats in 2013, toen Google en NASA het Quantum Artificial Intelligence Lab oprichtten, dat de taak kreeg te onderzoeken hoe kwantumcomputers kunnen worden gebruikt in machine learning-toepassingen. Sindsdien is de term QML verschenen in onderzoekspapers, pitches voor startups en conferentietoespraken, vaak met totaal verschillende betekenissen.
In sommige gevallen verwijst het naar het gebruik van kwantumcomputers om machinaal leren te versnellen. In andere worden klassieke algoritmen beschreven die zijn geïnspireerd door de kwantumfysica. En soms betekent het eenvoudigweg dat u een vertrouwde ML-workflow uitvoert op onbekende hardware.
Dus zelfs ik, iemand die werkt aan en onderzoek doet naar kwantumcomputers, was in eerste instantie erg in de war… Ik durf te wedden dat de eerste vraag van veel mensen wanneer ze ‘Quantum Machine Learning’ horen, is wat kwantummachine learning precies tot een succes maakt. quantum?
Het beantwoorden van deze vraag is de reden waarom ik besloot dit artikel te schrijven! Het korte antwoord is niet snelheid, noch zijn het neurale netwerken, noch zijn het vage verwijzingen naar ‘kwantumvoordeel’. In de kern wordt quantum machine learning gedefinieerd door de manier waarop informatie wordt weergegeven, getransformeerd en uitgelezen. In QML gebeurt dat met behulp van de regels van de kwantummechanica in plaats van met klassieke berekeningen.
Dit artikel heeft tot doel dat onderscheid te verduidelijken, de inhoud van de hype te scheiden en een zuivere conceptuele basis te bieden voor de rest van deze serie. Ik ben van plan te schrijven over het verkennen van de kennis van QML, evenals enkele van de onderzoeksresultaten en toepassingen op korte termijn.
Machine learning vóór ‘Quantum’
Laten we eerst een stapje terug doen, voordat we helemaal met kwantum beginnen. Ontdaan van alle moderne attributen, gaat machine learning over het leren van een mapping van input naar output met behulp van data. Ongeacht of het model een lineaire regressor, een kernelmethode of een diep neuraal netwerk is, de structuur is min of meer hetzelfde:
- Gegevens worden numeriek weergegeven (vectoren, matrices, tensoren).
- Een geparametriseerd model transformeert die gegevens.
- Parameters worden aangepast door een kostenfunctie te optimaliseren.
- Het model wordt statistisch geëvalueerd op basis van nieuwe monsters.
Neurale netwerken, GPU’s en enorme datasets zijn implementatiekeuzes en geen bepalende kenmerken. Deze abstractie is van belang omdat we hierdoor een precieze vraag kunnen stellen:
Wat verandert er als de data en het model leven in een kwantumruimte?
Kwantummechanica doet zijn intrede
Kwantummachine learning wordt kwantum wanneer kwantuminformatie het computationele substraat is. Dit komt op drie manieren tot uiting.
1. Gegevens worden weergegeven als kwantumtoestanden.
In klassieke machine learning-modellen worden gegevens weergegeven als bits of drijvende-kommagetallen. Quantum machine learning maakt daarentegen gebruik van kwantumtoestanden, dit zijn complexe vectoren die de regels van de kwantummechanica volgen. Deze toestanden worden vaak beschreven door dichtheidsmatrices, en hun transformaties worden weergegeven door unitaire matrices.
Als gevolg hiervan coderen we informatie in amplitudes met complexe waarden in plaats van waarschijnlijkheden, en kunnen toestanden in superpositie bestaan.
Dit wel niet betekenen dat alle klassieke gegevens plotseling exponentieel gecomprimeerd of gemakkelijk toegankelijk worden. Het laden van gegevens in kwantumtoestanden is vaak kostbaar, en het extraheren van informatie daaruit wordt fundamenteel beperkt door metingen.
Het belangrijke punt is dus dat het model op kwantumtoestanden werkt, en niet op klassieke getallen.
2. Modellen zijn kwantumevoluties
Klassieke ML-modellen passen functies toe op gegevens. Quantum ML-modellen passen kwantumbewerkingen (doorgaans unitaire transformaties) toe op kwantumkanalen. In de praktijk worden veel QML-modellen opgebouwd uit geparametriseerde kwantumcircuits. Deze circuits zijn reeksen kwantumpoorten, dit zijn basisbewerkingen die kwantumtoestanden veranderen. De parameters van deze kwantumpoorten worden tijdens de training afgestemd, vergelijkbaar met het aanpassen van gewichten in een neuraal netwerk bij klassiek machinaal leren.
Wat er in deze modellen fundamenteel gebeurt, is dat we beginnen met de toestand van het systeem, weergegeven in een matrix (we zullen het een Hamiltoniaan noemen, om precies te zijn), en dat de poorten die we op het systeem toepassen ons vervolgens vertellen hoe dat systeem evolueert (veranderingen) gedurende een bepaalde periode. Die evolutie dicteert het gedrag van het model.
Als gevolg hiervan onderzoeken kwantummodellen een hypotheseruimte die structureel verschilt van die van klassieke modellen, zelfs als de trainingslus op het eerste gezicht vergelijkbaar lijkt.
3. Meten is onderdeel van het leerproces
In klassieke ML is het uitlezen van de uitvoer van een model triviaal en heeft dit op geen enkele manier invloed op de toestand of het gedrag van het model (tenzij we dit opzettelijk zo maken). In quantum ML is de meting echter probabilistisch en destructief voor de toestand. Dit heeft grote gevolgen voor het systeem. De uitgangen worden bepaald door herhaalde circuituitvoeringen, ‘shots’ genoemd. Hier betekent ‘schoten’ dat hetzelfde kwantumcircuit meerdere keren wordt uitgevoerd om een uitkomst te schatten, aangezien kwantummetingen probabilistisch zijn.
De gradiënten (die ervoor zorgen dat parameters tijdens de training worden bijgewerkt) worden statistisch geschat op basis van deze metingen in plaats van precies te worden berekend zoals bij klassiek machinaal leren. Als gevolg hiervan worden de trainingskosten vaak gedomineerd door het bemonsteren van ruis uit deze herhaalde metingen, in plaats van alleen door berekeningen.
Met andere woorden: onzekerheid is in het model zelf ingebouwd. Elke serieuze discussie over QML moet rekening houden met het feit dat leren plaatsvindt door meting, niet erna.
Wat doet Niet Maak QML Quantum
Vooral kwantumcomputing en QML zorgen voor hype en misverstanden. Veel dingen die tegenwoordig ‘kwantummachine learning’ worden genoemd, zijn alleen kwantum in naam, bijvoorbeeld:
- Klassieke ML-algoritmen draaien op kwantumhardware zonder betekenisvol gebruik te maken van kwantumtoestanden.
- “Quantum-geïnspireerde” methoden die volledig klassiek zijn.
- Hybride pijplijnen waarbij de kwantumcomponent kan worden verwijderd zonder het gedrag of de prestaties van het model te veranderen.
Als je ooit iemand tegenkomt die over QML praat en je weet niet zeker hoe kwantum het model is dat hij/zij bespreekt, is het een goede vuistregel om te vragen:
“Kan ik het kwantumdeel vervangen door een klassiek deel zonder de wiskundige structuur van het model te veranderen?”
Zo ja of misschien, dan is de aanpak waarschijnlijk niet fundamenteel kwantum. Dit werk kan nog steeds waardevol zijn, maar valt buiten de kern van quantum machine learning.
Waar is QML vandaag?
Houd er bij het bespreken van kwantumcomputing rekening mee dat de huidige hardware luidruchtig, klein en beperkt in middelen is. Vanwege dit:
- Er is momenteel geen algemeen, bewezen kwantumvoordeel voor machine learning-taken.
- Veel QML-modellen lijken meer op kernelmethoden dan op diepe netwerken.
- Het laden van gegevens en ruis domineren vaak de prestaties.
Dit is geen veldfout; het is waar quantum computing momenteel staat. Het meeste QML-onderzoek is nu verkennend: het in kaart brengen van modelklassen, het begrijpen van de kwantumleertheorie en het identificeren van waar de kwantumstructuur van belang zou kunnen zijn.
Waarom Quantum Machine Learning nog steeds de moeite waard is om te bestuderen
Als versnellingen op de korte termijn onwaarschijnlijk zijn, waarom zou u dan überhaupt QML nastreven?
QML dwingt ons om fundamentele vragen over machine learning en quantum computing te heroverwegen. We moeten een antwoord geven op wat het betekent om van kwantumdata te leren, hoe ruis de optimalisatie beïnvloedt, en welke modelklassen er wel bestaan in kwantumsystemen, maar niet in klassieke systemen.
Kwantummachine learning gaat niet zozeer over het beter presteren dan klassieke ML van vandaag, maar meer over het vergroten van de ruimte van wat ‘leren’ kan betekenen in een kwantumwereld.
Dit is van belang omdat wetenschappelijke en technologische vooruitgang begint met nieuwe benaderingen. Zelfs als de hardware nog niet klaar is, bereidt het verkennen van QML ons voor op betere hardware in de toekomst.
Laatste gedachten en wat daarna komt
De vooruitgang op het gebied van quantum computing gaat steeds sneller. Hardwarebedrijven racen om een fouttolerante kwantumcomputer te bouwen. Een kwantumcomputer die de volledige kracht van de kwantummechanica benut. Software- en applicatiebedrijven onderzoeken de problemen die quantum computing op zinvolle wijze kan aanpakken.
Dat gezegd hebbende, zijn de hedendaagse kwantumcomputers niet in staat om een bijna levensgrote applicatie uit te voeren, laat staan een complex machine learning-model. Toch is de belofte van de efficiëntie van quantum computing op het gebied van machinaal leren behoorlijk interessant en de moeite waard om nu te onderzoeken, parallel aan de hardware-ontwikkelingen.
In dit artikel concentreerde ik me op de definities en grenzen van quantum machine learning om de weg vrij te maken voor toekomstige artikelen waarin het volgende wordt onderzocht:
- Hoe klassieke gegevens worden ingebed in kwantumtoestanden.
- Variationele kwantummodellen en hun beperkingen.
- Kwantumkernels en featureruimten.
- Optimalisatie-uitdagingen in luidruchtige kwantumsystemen.
- Waar kwantumvoordeel plausibel zou kunnen ontstaan.
Voordat we ons afvragen of quantum machine learning nuttig is, moeten we duidelijk zijn over wat het eigenlijk is. Hoe meer we afstand nemen van de hype, hoe dichter we bij de vooruitgang kunnen komen.



