Countdown bis zum Q-Tag - Teil 1 von @apruden08 Quantencomputing nutzt die Quantenmechanik, die genaueste physikalische Theorie, die je von der Wissenschaft entwickelt wurde. Seit Physiker Richard Feynman 1981 das Konzept erstmals vorschlug, haben sich Quantencomputer von der Theorie zur Realität entwickelt, mit mehreren funktionierenden Prototypen, die heute verfügbar sind. Ihre Realisierung im kleinsten Maßstab war ein theoretischer Triumph. Diese ersten Generationen von Maschinen sind jedoch im Vergleich zu selbst handelsüblichem klassischen Hardware rudimentär. Damit Quantencomputer jemals relevant werden, müssen sie skalieren. Obwohl wir sie "Computer" nennen, unterscheiden sich Quantencomputer grundlegend von der klassischen Maschine, die Sie verwenden, um dies zu lesen. Das Verständnis der grundlegenden Prinzipien der Quantenmechanik und insbesondere, wie sie sich von unseren klassischen Vorstellungen von Berechnung unterscheidet, ist entscheidend, um die potenzielle Macht eines Quantencomputers und die Herausforderungen beim Bau eines solchen zu verstehen. Dieser Beitrag ist der erste in einer fünfteiligen Serie, die ein grundlegendes Verständnis des Quantencomputings vermittelt und eine Methodik zur Schätzung des Zeitrahmens für einen kryptographisch relevanten Quantencomputer bietet. Dieses Fundament wird letztendlich einen Rahmen bieten, um realistisch den Zeitrahmen für den Q-Tag zu bewerten und zu verstehen, wie viel Zeit wir haben, um uns vorzubereiten. Fundamentale Unterschiede zwischen klassischem und Quantencomputing Während klassische Computer auf relativ einfachen logischen Konzepten basieren, verlassen sich Quantencomputer auf Prinzipien der Quantenmechanik, die unsere alltäglichen Intuitionen über Informationen herausfordern. Konzepte wie Überlagerung, Verschränkung, Interferenz und das No-Cloning-Theorem verleihen Quantencomputern radikal unterschiedliche Eigenschaften im Vergleich zu klassischen Computern und damit unterschiedliche Fähigkeiten und Einschränkungen. Hier sind einige Schlüsselfacetten der Quantenmechanik, die einen Quantencomputer inhärent definieren: Überlagerung - In der Quantenmechanik nehmen Teilchen keine bestimmten Zustände wie klassische Bits ein. Stattdessen existieren sie in einer Überlagerung oder einer linearen Kombination möglicher Zustände, die durch eine Wellenfunktion beschrieben wird. Diese Wellenfunktion kodiert alle möglichen Zustände des Systems, das sie beschreibt. Konkreter gesagt, während ein klassisches Bit entweder 0 oder 1 eindeutig darstellt, kann ein Qubit gleichzeitig in einer Überlagerung beider sein. Das Ergebnis, das Sie bei der Messung erhalten, hängt von einer Wahrscheinlichkeitsverteilung ab, die aus der Wellenfunktion abgeleitet ist. Mit anderen Worten, die Überlagerung ermöglicht es einem Qubit, einen viel reichhaltigeren Raum von Zuständen zu kodieren als ein klassisches Bit, was dem Quantencomputing sein exponentielles Potenzial verleiht. Dieser Punkt ist entscheidend für das Verständnis einer der größten Herausforderungen beim Bau eines Quantencomputers. Im klassischen Computing ist die Messung passiv, da das Lesen des Speichers ihn nicht verändert. Aber in der Quantenmechanik kollabiert der Akt der Messung eines Systems eine Überlagerung in einen bestimmten Zustand. Um einen bedeutenden Vorteil aus einem Quantencomputer zu ziehen, muss diese Überlagerung bis zum richtigen Moment sorgfältig erhalten bleiben. Verschränkung - In der Quantenmechanik können Teilchen verschränkt sein, was bedeutet, dass ihre Zustände so miteinander verbunden sind, dass sie als ein einziges System beschrieben werden müssen. Selbst wenn sie durch große Entfernungen getrennt sind, ist das Messergebnis eines Teilchens mit dem Zustand des anderen korreliert (oder sogar davon bestimmt). Mit anderen Worten, Verschränkung ist eine besondere Art von Überlagerung, die sich über mehrere Teilchen erstreckt. Es ist eines der Schlüsselelemente, die es Quantencomputern ermöglichen, exponentiell zu skalieren, aber auch eines der fragilsten, das über Zeit und/oder Distanz aufrechterhalten werden kann. Interferenz – Einer der Hauptunterschiede zwischen Quanten- und klassischen Wahrscheinlichkeiten liegt im Konzept der Interferenz. In klassischen Systemen addieren sich Wahrscheinlichkeiten einfach (zum Beispiel gibt das Werfen von zwei Münzen eine 25%ige Chance für jedes Ergebnis). Aber in der Quantenmechanik können Amplituden (die Komponenten der Wellenfunktion) vor der Messung miteinander interferieren. Diese Amplituden können sich verstärken (konstruktive Interferenz) oder sich gegenseitig aufheben (destruktive Interferenz), abhängig von ihren relativen Phasen. Quantencomputer können dieses Phänomen nutzen, um eine Berechnung in Richtung der richtigen Antworten zu "steuern". Anstatt einfach alle Pfade parallel zu erkunden, ist ein Quantenalgorithmus so gestaltet, dass falsche Antworten destruktiv interferieren und sich aufheben, während wünschenswerte Pfade, die zu richtigen Antworten führen, konstruktiv interferieren und das Endergebnis dominieren. Ohne diese Fähigkeit, korrekte Ergebnisse zu verstärken und falsche zu unterdrücken, würde das Quantencomputing keinen Vorteil gegenüber klassisch randomisierten Ansätzen bieten. No-Cloning-Theorem - Da das Auslesen einen direkten Einfluss auf das System hat, indem es Überlagerungen in bestimmte Zustände kollabiert, ist es unmöglich, Quantenstates zu "kopieren". Dies ist das No-Cloning-Theorem. ...