13.09.2023

Sicherheit vor Quantenhackern

Wettbewerb des National Institute of Standards and Technology der USA für quantensichere Verschlüsselungsstandards.

TUM / DE

Wir surfen ohne Bedenken im Internet, geben beim Online-Shopping unsere Bankdaten preis und nutzen ganz selbstverständlich Online-Banking. Wir gehen davon aus, dass unsere Daten verschlüsselt übertragen werden und dadurch sicher sind. Aktuell steckt hinter unserer Verschlüsselung die Idee, dass es schwierig ist, eine große Zahl in ihre Faktoren zu zerlegen. Sobald Quantencomputer leistungsfähig genug sind, um solche mathematischen Probleme zu lösen, wird sich dies jedoch ändern.


Abb.: Antonia Wachter-Zeh, Professorin für Codierung und Kryptographie
Abb.: Antonia Wachter-Zeh, Professorin für Codierung und Kryptographie
Quelle: A. Eckert / TUM

Das US-amerikanische National Institute of Standards and Technology (NIST) hat daher bereits 2016 in einem Wettbewerb dazu aufgerufen, neue quantensichere Verschlüsselungsstandards zu entwickeln. Diese sollen zukünftig auch Cyberangriffen mithilfe von Quantencomputern standhalten. Die eingereichten Algorithmen können öffentlich attackiert und so auf ihre Sicherheit geprüft werden. Die von der NIST standardisierten Verfahren werden in der Regel von Unternehmen und Online-Diensten übernommen, da sie als sehr sicher gelten.

In der ersten Runde des Wettbewerbs gab es insgesamt 69 Einreichungen. Die zweite Runde erreichten 26 der Algorithmen, sieben schafften es ins Finale. Kurz bevor die NIST die Sieger des Wettbewerbs küren wollte, wurden allerdings auch vier der Finalisten stark attackiert. Eines der Verfahren musste sogar aus dem Rennen genommen werden, da es innerhalb von zwei Tagen von einem handelsüblichen Laptop geknackt wurde. Die Schwachstellen der übrigen Algorithmen konnten soweit angepasst werden, dass sie weiter im Wettbewerb bleiben.

Trotz der vielen Einreichungen haben nur sehr wenige Algorithmen diesem K.O.-Rennen standgehalten. Das zeigt, wie wichtig es ist, Verfahren zu standardisieren, die auf unterschiedlichen mathematischen Problemen basieren. So können auch bei später erkannten Schwachstellen Verschlüsselungsmethoden ausgetauscht werden.

In diesem Frühjahr hat die NIST dazu aufgerufen, weitere Algorithmen einzureichen. Antonia Wachter-Zeh, Professorin für Codierung und Kryptographie an der TUM, hat gemeinsamen mit ihrem Team sowie einer weiteren Forschungsgruppe der TUM und Forschern der Universita Politecnica delle Marche zwei Algorithmen im Bereich der digitalen Signaturen für den Wettbewerb entwickelt. Digitale Signaturen sind eine Art elektronischer Fingerabdruck, der sicherstellt, dass die Daten auch von dem erwarteten Sender stammen und nicht im Nachhinein verändert wurden.

„Wir müssen uns dringend mit neuen Verschlüsselungsverfahren auseinandersetzen, wenn wir wollen, dass unsere Daten in einigen Jahren noch sicher sind. Auch dann soll niemand in der Lage sein, das zu entschlüsseln, was wir heute kommunizieren“, sagt Antonia Wachter-Zeh. Die von Wachter-Zeh eingereichten Algorithmen beruhen dabei auf fehlerkorrigierenden Codes. Dahinter steckt das Prinzip, dass beim Übertragen und Speichern von Daten oder auch beim Telefonieren im Mobilfunknetz ständig Fehler passieren. Im binären System wird an einer Stelle zum Beispiel fälschlicherweise statt der 0 die 1 übertragen. Bei fehlerkorrigierenden Codes werden vor der Übertragung redundante Informationen eingefügt, um diese, falls bei der Übermittlung Fehler passieren, korrigieren zu können. Dadurch ist es möglich, eine bestimmte Anzahl an Fehlern in den Daten auszugleichen.

Wachter-Zeh nutzt das Prinzip der fehlerkorrigierenden Codes zur Verschlüsselung von Daten, indem sie wissentlich vor der Übertragung Fehler einbaut. Diese werden später bei der Decodierung wieder herausgerechnet. Dadurch stellt die Forscherin sicher, dass die Informationen vor unbefugtem Zugriff geschützt sind, aber gleichzeitig auch wieder korrekt entschlüsselt und abgelegt werden können.

Für den NIST-Wettbewerb hat sich das Forschungsteam dazu entschieden, ein System basierend auf fehlerkorrigierenden Codes in der Lee Metrik und eins auf Grundlage restriktiver Fehler in der Hamming-Distanz einzureichen. Die klassische Hamming-Distanz gibt an, an wie vielen Stellen sich der Ausgangscode vom Code der Verschlüsselung unterscheidet. Im Gegensatz zur klassischen können bei der restriktiven Hamming-Distanz die Fehler nur bestimmte Werte annehmen. Dafür können deutlich mehr Stellen fehlerhaft sein. Die Lee-Metrik gewichtet zusätzlich, wie sehr diese Stellen variieren.

„Das Signaturverfahren CROSS, welches restriktive Fehler nutzt, ist sehr kompetitiv und hat gute Erfolgschancen als neuer Verschlüsselungsstandard in Frage zu kommen. Bei unserem zweiten Algorithmus FuLeeca, der auf der Lee-Metrik basiert, wurden bereits Schwachstellen erkannt. Das Prinzip ist insgesamt dennoch vielsprechend aber recht neu. Daher wird hier noch einiges an Forschungsarbeit notwendig sein“, sagt Antonia Wachter-Zeh.


EnergyViews

EnergyViews
Dossier

EnergyViews

Die neuesten Meldungen zu Energieforschung und -technologie von pro-physik.de und Physik in unserer Zeit.

Sonderhefte

Physics' Best und Best of
Sonderausgaben

Physics' Best und Best of

Die Sonder­ausgaben präsentieren kompakt und übersichtlich neue Produkt­informationen und ihre Anwendungen und bieten für Nutzer wie Unternehmen ein zusätzliches Forum.

Meist gelesen

Themen