Was ist der Unterschied zwischen einem Quantencomputer und einem herkömmlichen Computer?
Klassische Computer repräsentieren Information in Bits, die nur den Zustand 0 oder 1 einnehmen können. Über Logikgatter lassen sich diese dann miteinander verknüpfen. Ein Algorithmus kombiniert dann diese einzelnen Gatteroperationen, um aus Eingangsdaten ein Ergebnis zu berechnen.
Quantencomputern arbeiten nicht mit Bits sondern mit sogenannten Qubits. Diese können nicht nur die beiden Zustände 0 und 1 einnehmen, sondern mit einer bestimmten Wahrscheinlichkeit jeden beliebigen Zustand zwischen 0 und 1 einnehmen, einen sogenannte Superpositionszustand. Auf speziellen Hardware-Plattformen – z.B. supraleitenden Quantenchips – können diese Qubits implementiert werden sowie einzeln manipuliert (1-Qubit-Gatter) oder untereinander verknüpft (2-Qubit-Gatter) werden. Der Algorithmus bestimmt wiederum die Gatteroperationen, die nacheinander mit den Qubits ausgeführt werden. Während z.B. mit zwei klassischen Bits nur einer der Zustände 00, 01, 10 oder 11 dargestellt werden kann, können mit zwei Qubits durch das Superpositionsprinzip alle vier Zustände mit bestimmten Wahrscheinlichkeiten gleichzeig dargestellt werden. Mit drei Qubits können bereits 8 und mit N Qubits 2N Zustände dargestellt werden. Die Zahl der Zustände steigt also exponentiell an und alle werden parallel verarbeitet. Am Ende wird das Ergebnis ermittelt, indem der Zustand der Qubits gemessen wird.
Bei der Lösung einiger Probleme wächst auf klassischen Computern der Ressourcenbedarf (z.B. Rechenzeit, Speicherplatz) exponentiell mit der Anzahl der Eingangsparameter an, bei Quantencomputern dagegen nur mit einem Potenzgesetz. Deshalb lassen sich mit Quantencomputern bestimmte Probleme in viel kürzerer Zeit oder weniger Speicherplatz lösen als mit klassischen Computern. Wenn sich die Rechenzeit von tausenden von Jahren auf einige Minuten reduziert, ist das ein gewaltiger Fortschritt.