Wie weit ist die Forschung fortgeschritten?
Dr. Daniel Scherer: Die oben schon angesprochene Dichotomie in der Hardware, d.h. NISQ- vs. universelle, fehlertolerante und –korrigierte Quantencomputer, spiegelt sich auch auf der Ebene der Algorithmen wieder. Während die Algorithmen für die nahezu ideale, zukünftige Hardware, sehr gut erforscht sind und beweisbare Quantenvorteile mit sich bringen, sind NISQ-Algorithmen weit weniger gut erforscht, und häufig lassen sich von theoretischer Seite keine, oder nur sehr schwache Aussagen über mögliche Quantenvorteile machen. Während es insbesondere im Bereich des QML in den letzten Jahren Fortschritte beim Verständnis der Eigenschaften von sogenannten variationellen Quantenalgorithmen, die quasi für NISQ-Quantencomputer maßgeschneidert sind und auf welchen auch unser Forschungsschwerpunkt liegt, gegeben hat, bleiben starke Aussagen zu möglichen Quantenvorteilen bisher aus. Hier verfolgen wir die Entwicklungen in der akademischen Forschung sehr genau und stehen auch in regelmäßigem Austausch mit universitären Partnern. In unserer eigenen Forschung nehmen Aspekte wie die Kodierung von klassischer Information – also die Daten, die für das ML unabdingbar sind – in die Quantenalgorithmen sowie das Auslesen von Information einen großen Stellenwert ein. Hier liegt eine der großen Stellschrauben für die Leistungsfähigkeit von QML-Algorithmen. Perspektivisch wollen wir das Design von Kodierungs- und Dekodierungsstrategien basierend auf quanteninformationstheoretischen Kriterien, ebenso wie weitere Aspekte des Quantenalgorithmen-Designs, automatisieren und skalierbar machen. Aber auch auf der Seite des Software-Engineering gibt es Herausforderungen zu meistern. So spielen Reproduzierbarkeit von Ergebnissen, Zugriffsmodelle auf die Quantenhardware, optimiertes Job-Scheduling, optimierte Ausnutzung von Quantenressourcen uvm. eine entscheidende Rolle bei der Entwicklung unserer Methoden.