Quantencomputing entwickelt sich vom Forschungsthema zum wirtschaftlichen Faktor. Vor allem vier technologische Treiber wie neue Hardware und effizientere Algorithmen beschleunigen diese Entwicklung und verändern, wie Unternehmen künftig rechnen.
Yuval BogerYuvalBoger
Quantencomputing hat sich vom theoretischen Forschungsfeld zu einem relevanten Technologiethema für Unternehmen entwickelt. Treiber dafür sind zum Beispiel neue Hardware, Algorithmen und hybride Systeme, die wirtschaftliche Chancen eröffnen.Ideogramm
Effiziente Algorithmen verringern Rechenaufwand und Kosten.
Hybride Workflows bringen Praxisnutzen schon heute.
Quantenentwicklung wird durch neue Software vereinfacht.
Unternehmen profitieren von frühen Pilotprojekten.
Lange Zeit war Quantencomputing ein faszinierendes Forschungsfeld,
hinsichtlich der Unternehmensstrategie hat es aber keinerlei Rolle gespielt –
zu theoretisch, zu teuer, zu unpräzise. Dies ändert sich allerdings gerade. Die
jüngsten technologischen Durchbrüche zeigen, dass Quantencomputing auch für die
Praxis sehr viel schneller an Relevanz gewinnt, als viele erwarten.
Vier
zentrale Entwicklungen treiben diesen Wandel voran: Neben leistungsfähiger
Hardware und effizienteren Algorithmen sind auch hybride Workflows und
zugängliche Software essenziell. In Kombination bilden sie einen
technologischen Hebel, der Quantencomputing von einer Zukunftsvision zu einer
konkreten geschäftlichen Chance werden lässt.
Anzeige
1. Fehlerkorrigierte Qubits
treiben die Hardware-Revolution voran
Die physische Basis des Quantencomputings, die sogenannten Qubits, wird
immer stabiler, skalierbarer und verlässlicher. Ob supraleitende Schaltkreise,
eingefangene Ionen oder neutrale Atome: Alle Architekturen verzeichnen
deutliche Fortschritte. Besonders entscheidend ist dabei der Übergang von
physischen zu logischen Qubits. Während physische Qubits extrem störanfällig
sind, kombinieren logische Qubits mehrere physische Einheiten, um Fehler
automatisch zu korrigieren.
Erste Systeme zeigen, dass diese fehlerkorrigierten
Qubits stabiler rechnen als ihre ungeschützten Vorgänger – ein Beweis, dass
großskalige, wirtschaftlich nutzbare Quantencomputer keine ferne Utopie mehr
darstellen. Beispielsweise demonstrierten im Sommer 2025 Forschende von QuEra, der Harvard
University und dem MIT erstmals die sogenannte Magic-State-Distillationauf logischer
Ebene auf einer Neutral-Atom-Plattform. Bei diesem Verfahren werden fehlerhafte, „magische“ Zustände – die für universelles Quantenrechnen nötig sind – aus vielen ungenauen Kopien zu wenigen hochreinen Zuständen aufbereitet. Es kompensiert die Grenzen fehlerkorrigierbarer Gatter, indem es diese speziellen Zustände als Ressource für nicht-Clifford-Operationen nutzt. Mit diesem Erfolg konnten sie zeigen, dass logisch
kodierte Zustände hinsichtlich Stabilität und Genauigkeit (Fidelity) die
physikalischen Qubits, aus denen sie bestehen, übertreffen können. Ebenso berichtete Google Quantum AI kürzlich über Fortschritte bei
der Implementierung von Color-Code-Fehlerkorrektur auf
supraleitenden Qubits. Durch die Gruppierung mehrerer physikalischer Qubits zu
einem logischen Qubit konnte das Team zeigen, dass dieser logische Verbund
Fehler deutlich wirksamer unterdrücken kann – ein wichtiger Schritt in Richtung
fehlertoleranter Quantenoperationen.
Anzeige
Mit steigender Stabilität wächst auch die Zahl der Qubits pro
Prozessor. Hardware-Hersteller sprechen inzwischen nicht mehr von Dutzenden,
sondern von Tausenden Qubits. Das eröffnet erstmals die Möglichkeit, komplexe
Aufgaben aus Chemie, Materialforschung oder Kryptografie praktisch anzugehen.
2. Algorithmische Sprünge:
Mehr Effizienz, weniger Rechenbedarf für Quantencomputer
Auch auf algorithmischer Ebene gibt es Fortschritte. Die neuen Ansätze
sind effizienter und nutzen die vorhandene Rechenleistung gezielter. In den
vergangenen Jahren ist es Forschenden zudem gelungen, den Ressourcenbedarf
vieler Quantenalgorithmen drastisch zu reduzieren. Dadurch sinkt die Hürde für
reale Anwendungen. Ein aktuelles Beispiel liefert eine in Nature veröffentlichte Studie zur sogenannten
algorithmischen Fehlertoleranz. Dabei werden Quantenalgorithmen so gestaltet,
dass sie weniger empfindlich auf Rechenfehler reagieren und ohne aufwendige
Hardwarekorrekturen auskommen. Die Arbeit wurde auf Basis der
Neutral-Atom-Technologie demonstriert, die sich zunehmend als
vielversprechender Ansatz für skalierbare und präzise kontrollierbare
Quantenprozessoren etabliert. Das verringert den Bedarf an stabilen Qubits und
erleichtert Berechnungen auf kleineren Systemen. Während frühe Versionen teils
Milliarden Qubits erforderten, genügen heute deutlich kleinere Systeme, um
relevante Ergebnisse zu erzielen. Das gilt beispielsweise bei
Molekülsimulationen oder bei der Lösung von Optimierungsproblemen.
Anzeige
Gleichzeitig wächst die Bedrohung für klassische Verschlüsselungsverfahren. Durch Konzepte
wie „Harvest now, decrypt later“ wird dieses Problem besonders deutlich. Daten,
die heute abgefangen werden, könnten morgen schon entschlüsselt werden. Für
Unternehmen wird es somit auch aus Sicherheitsgründen wichtig, sich mit
quantenresistenter Kryptografie zu befassen.
Was ist die Neutral-Atom-Technologie?
QuEras Quantencomputer Aquila auf Basis der Neutral-Atom-TechnologieQuera
Die Neutral-Atom-Technologie nutzt elektrisch neutrale Atome als Qubits für Quantencomputer. Diese Atome werden mithilfe von Laserstrahlen in optischen Gittern eingefangen und kontrolliert. Durch gezielte Laserimpulse lassen sich ihre Quantenzustände manipulieren. Im Vergleich zu anderen Qubit-Architekturen bieten sie ein hohes Maß an Skalierbarkeit und Präzision. Da die Atome keine elektrische Ladung tragen, stören sie sich weniger gegenseitig, was stabile Berechnungen ermöglicht. Die Technologie gilt als vielversprechender Ansatz für leistungsfähige und fehlerrobuste Quantenprozessoren.
3. Hybride Workflows: Das
Beste aus der klassischen und der Quantenwelt
Während reine Quantencomputer auch weiterhin ein Nischendasein führen
werden, erzielen hybride Systeme derzeit die größten Fortschritte. Dabei
handelt es sich um Architekturen, in denen klassische Hochleistungsrechner eng
mit Quantenprozessoren verknüpft sind. Besonders komplexe Teilprobleme werden
hier auf dem Quantenchip ausgeführt, die übrigen Berechnungen übernehmen
klassische Prozessoren. So lassen sich Optimierungsaufgaben oder chemische
Simulationen schon heute schneller und präziser lösen als mit herkömmlichen
Verfahren. Jüngst hat auch Google mit einem neuen Algorithmus – Spitzname Quantum Echoes – gezeigt, wie sich beide Rechenwelten enger
koppeln lassen: Klassische Simulationen und Quantenberechnungen greifen dabei
wechselseitig ineinander, um Ergebnisse zu stabilisieren und Rauschen zu
reduzieren. Nationale Forschungsinitiativen in Japan, Singapur, den USA oder
Europa fördern hybride Ansätze bereits gezielt. Und auch für die Industrie
werden solche hybriden Infrastrukturen zunehmend attraktiv.
4. Software für alle: Die
neue Zugänglichkeit der Quantenprogrammierung
Anzeige
Noch vor wenigen Jahren galt die Quantenprogrammierung als reine
Spezialdisziplin für Physiker. Das ändert sich jedoch rasant, da neue
Entwicklungsumgebungen und Abstraktionsschichten die komplexe Quantenlogik in
vertraute Programmiersprachen übersetzen. Plattformen wie Classiq oder Horizon
Quantum ermöglichen die direkte Erzeugung von Quantenprogrammen aus
funktionalen Beschreibungen – ganz ohne tiefes Wissen über die zugrunde
liegende Hardware. Andere Anbieter binden Quantenbibliotheken nahtlos in etablierte
Entwicklungsumgebungen wie C++ oder Python ein. Dadurch wird die Einstiegshürde
erheblich gesenkt und Softwareentwickler und Datenwissenschaftler können heute
erste Quantenanwendungen testen, ohne vorher ein Physikstudium absolvieren zu
müssen.
Fakt ist: Quantencomputing bleibt weiterhin
anspruchsvoll, aber ist längst keine Zukunftsmusik mehr. Die jüngsten
Fortschritte wirken wie ein Katalysator: Bessere Hardware ermöglicht neue
Algorithmen, hybride Architekturen schaffen erste Geschäftsmodelle und moderne
Software macht die Technologie für eine breitere Zielgruppe
zugänglich. Für Unternehmen lautet die Frage also nicht mehr, ob
Quantencomputing für ihre Strategie relevant wird – stattdessen sollten sie
sich überlegen, wann und wie. Wer schon heute in Know-how investiert und erste
Pilotprojekte startet, verschafft sich einen entscheidenden Vorsprung. Denn
diese Vorreiter können bereits von Partnerschaften
Häufige Fragen zum Quantencomputing
Was unterscheidet Quantencomputer von klassischen Rechnern?
Quantencomputer nutzen Qubits, die mehrere Zustände gleichzeitig darstellen können.
Dadurch lassen sich bestimmte Probleme – etwa chemische Simulationen oder Optimierungen –
exponentiell schneller lösen als mit klassischen Systemen.
Wann werden Quantencomputer wirtschaftlich nutzbar?
Erste hybride Anwendungen sind heute schon realisierbar.
Voll skalierbare Quantenprozessoren mit fehlerkorrigierten Qubits
werden voraussichtlich in den 2030er Jahren einsatzbereit sein.
Unternehmen können jedoch bereits jetzt mit Pilotprojekten starten.
Welche Branchen profitieren zuerst vom Quantencomputing?
Besonders profitieren Chemie, Finanzwesen, Logistik und Materialwissenschaft.
Dort ermöglichen Quantenalgorithmen neue Erkenntnisse in Simulation, Optimierung
und Datenanalyse – mit klar messbarem Wirtschaftsnutzen.
Wie können Unternehmen jetzt starten?
Ein sinnvoller Einstieg erfolgt über Pilotprojekte in Zusammenarbeit mit Cloud-
oder Hardwareanbietern. So lässt sich frühzeitig Know-how aufbauen
und ein strategischer Vorsprung sichern.
Welche Risiken bestehen bei Quantencomputern?
Die größte Herausforderung liegt in der IT-Sicherheit.
Quantencomputer könnten heutige Verschlüsselungsverfahren brechen.
Deshalb ist der Umstieg auf quantenresistente Kryptografie essenziell.
Der Autor
Yuval Boger ist Chief Commercial Officer bei
QuEra, einem führenden Hersteller von Quantencomputern. Im Laufe seiner
Karriere war er CEO und CMO bei Pionieren in den Bereichen Quantencomputing,
virtuelle Realität und drahtlose Stromversorgung. Als ausgebildeter Physiker
versteht er die Zusammenhänge der Quantentechnologie und kann sie in einfacher
Sprache erklären. Dabei hilft ihm auch sein Podcast „The Superposition Guy’s
Podcast“, in dem er regelmäßig Gäste aus der Branche interviewt.