Quantensprung der Rechenleistung


Nutzen trotz Wissenslücken

Bis heute ist es der heilige Gral der Naturwissenschaften, diese Gesetze der Quantenmechanik mit den klassischen Naturgesetzen wie der Gravitation in Einklang zu bringen, denen die Welt im Großen gehorcht – von der Rotation der Planeten bis zu unserem Leben auf der Erde. Doch obwohl wir nicht wissen, wo (und warum) die Grenze zwischen der Welt der Elementarteilchen und unserer verläuft, können wir die Funktionsprinzipien der Quanten hier und jetzt für uns nutzen. Das ist in etwa so, als könnten wir ein Elektroauto ins Mittelalter teleportieren: Die Menschen wüssten nicht, warum es fährt – aber dennoch würde es sie von A nach B bringen.

Ähnlich wie ein Auto oder Flugzeug zu einem Pferd verhält sich die Geschwindigkeit eines Quantencomputers zu der eines Binärrechners. Während zwei Bits in der klassischen Welt vier Kombinationen erlauben (01, 10, 00 oder 11), entspricht ein Quantenbit (auch Qubit genannt) durch die Möglichkeit der Überlagerung beider Zustände allen möglichen Kombinationen aus Zahlen >0 und <1. Durch jedes zusätzliche Qubit wächst die Rechenleistung exponentiell, sodass 193 herkömmliche Bits benötigt würden, um ein einziges Qubit zu codieren. Anders gesagt: Während ein klassischer 32-Bit-Rechner eben genau 32 Berechnungen gleichzeitig ausführen kann (32 mal 01 oder 10), ist ein 32-Qubit-Computer zu 320 Milliarden Berechnungen gleichzeitig in der Lage. Das entspricht der Anzahl der Sterne in unserer Galaxis.

Welchen Gesetzen folgen Raum und Zeit?

Neben dieser sogenannten Überlagerung existiert in der Quantenwelt das noch wesentlich mysteriösere Phänomen der Verschränkung. Von den Pionieren der Teilchenphysik um Einstein und Heisenberg wurde es als spukhafte Fernwirkung bezeichnet. Die Verschränkung tritt nur im Quantenraum, also auf Ebene der Elementarteilchen, auf und verblüfft die Wissenschaft seit mehr als 100 Jahren. Normalerweise werden Teilchen in diesem Universum als Paare erzeugt. Die Paare sind durch eine Eigenschaft des Teilchens unterscheidbar, sei es Spin oder Ladung. Das beobachtete Verschränkungsprinzip besagt, dass ein verschränktes Teilchen genau das Spiegelbild der Daten erhält, die auf sein Partnerteilchen übertragen werden, selbst wenn sich beide Teilchen an den entgegengesetzten Enden des Universums befinden. Information kann also mittels verschränkter Teilchen ohne Zeitverlust über beliebige Distanzen transportiert werden, was nicht nur die Lichtgeschwindigkeit als absolute Grenze nivelliert, sondern gar das Prinzip von Raum und Zeit widerlegt und die grundlegenden Gesetze des Universums infrage stellt.

Ähnlich wie im Bild des Autos im Mittelalter gleicht die Technologie der Quantenverschränkung einem Raumschiff aus der Zukunft, das wir plötzlich vor unserer Haustür finden: Auch wenn wir nicht verstehen, wie es funktioniert, können wir einiges damit anfangen. Etwa auf dem Gebiet der Cybersicherheit. Stellen wir uns zwei Schlüssel vor, die als Paar hergestellt werden. Selbst wenn ein Hacker in der Lage wäre, einen der Schlüssel exakt zu reproduzieren: Sobald er eines der Originale lokalisiert, registriert das verschränkte System das unmittelbar und kann entsprechend geändert werden.

Quanten-Tunneling ist ein weiteres Phänomen des Quantensystems, das sich für moderne KI-Anwendungen eignet. Ähnlich wie Überlagerung und Verschränkung ist es aber nicht intuitiv. Da wir mit diesen ganz realen Phänomenen in unserer Welt keine Erfahrungen haben, widersprechen sie oft dem, was wir den gesunden Menschenverstand nennen. Wir müssen schlicht akzeptieren, dass auf der Ebene der Elementarteilchen andere Naturgesetze herrschen als in unserer ‘großen’ Welt. Stellen wir uns vor, ein Ball rollt auf einen Hügel zu. Da Teilchen in der Quantenwelt auch als masselose Welle existieren, besteht die geringe Wahrscheinlichkeit, dass ein Teilchen auf der anderen Seite des Hügels erscheint – und zwar ohne die erforderliche kinetische Energie zu haben, über den Hügel zu rollen. Es rollt den Hügel also nicht hinauf, sondern formt gewissermaßen einen Tunnel, durch den es die andere Seite erreicht.

Neues globales Optimum

Zentrale Funktionsweise von KI und Machine Learning ist das sogenannte Gradientenverfahren. Es wird in der Numerik eingesetzt, um allgemeine Optimierungsprobleme zu lösen und das sogenannte Globale Optimum zu ermitteln. Dabei schreitet man von einem Startpunkt aus entlang einer Abstiegsrichtung, bis keine numerische Verbesserung mehr erzielt wird – als würde man den Hang eines Hügels hinabschreiten. Das Tunneling könnte diesen Prozess maßgeblich verkürzen, da zur Ermittlung eines Lokalen Optimums das Gefälle des Hügels keine natürliche Grenze mehr darstellt. Er könnte direkt durchtunnelt werden und das bisherige Verfahren des Gradientenabstiegs revolutionieren. Diese Technik könnte auch dabei helfen, schnell ein Globales Optimum zu bestimmen und nicht bei lokalen Optima zu verharren.

Das könnte Sie auch interessieren

Als Vorreiter von Erfindergeist und Innovationskraft galt der Maschinenbau lange Zeit als Aushängeschild der deutschen Wirtschaft. Vor allem aufgrund einer zögerlichen Digitalisierung ist das Getriebe der Branche allerdings ins Stocken geraten. Mosaixx, Anbieter der gleichnamigen Cloud-Plattform, wirft einen Blick auf die zentralen Probleme und möglichen Lösungswege. ‣ weiterlesen

Im zweiten Teil des Artikels beschäftigt sich Autor Christopher Stradomsky damit, welche Auswirkungen das NIS2msuCG in der Praxis hat – am Beispiel eines Chipherstellers. Den ersten Teil dieses Artikels finden Sie auf dem Online-Portal der IT&Production. Im ersten Teil dieses Artikels wurden die konkreten Anforderungen des NIS2UmsuCGs in Bezug auf den Einsatz kritischer Komponenten beschrieben. Im vorliegenden Teil soll nun anhand von Beispielen demonstriert werden, welche Tragweite diese Regelungen haben und wie bereits jetzt das ISMS anzupassen oder zu erweitern ist.Im ersten Teil wurden Gründe angeführt, warum ein Hersteller als nicht vertrauenswürdig angesehen werden kann. Angenommen, dieser Hersteller ist ein IT- oder OT-Chip-Hersteller, dessen Produkte (Prozessoren) in 90 Prozent der eingesetzten Geräte enthalten sind. Dann dürfen diese Geräte nicht weiter eingesetzt werden und der flächendeckende Austausch wird erforderlich. Dies ist auch gegeben, wenn die Prozessoren als IKT-Produkte auf den oben angeführten Listen gem. §30 (6) BSIG stehen.Nur wenige Unternehmen sind in der Lage alle Endgeräte innerhalb eines Jahres auszutauschen, ohne den Betrieb zu gefährden. Bei Netzbetreibern erschwert sich die Unternehmung, wenn die gesamte Automatisierungs- und Feldtechnik hiervon betroffen ist. Ein entsprechend optimiertes Informationssicherheitsmanagementsystem (ISMS) kann hierfür bereits Lösungswege bereithalten.Da das NIS2UmsuCG keine konkreten Anforderungen an den Austausch der Komponenten stellt, sollten trotzdem sinnvolle Fristen risikoorientiert verfolgt werden:

  • •  Unverzüglicher Austausch: Wenn eine unmittelbare Gefahr für die Sicherheit der kritischen Infrastruktur besteht, müssen verbotene Komponenten unverzüglich ausgetauscht werden, das heißt sobald es technisch und organisatorisch machbar ist.
  • •  Mittelfristige Maßnahmen: In Fällen, in denen die Gefährdung weniger dringlich ist, kann das Gesetz Übergangsfristen festlegen, die den Betreibern von kritischen Infrastrukturen ausreichend Zeit geben, die entsprechenden Komponenten planmäßig zu ersetzen. Diese Fristen werden meist durch die zuständigen Behörden festgelegt und können je nach Fall 6 und 24 Monaten betragen.

Ein ISMS basiert auf Prozessen und reproduzierbaren Entscheidungen wohlüberlegter Analysen. Selbst Analysen folgen einer strengen prozessualen Vorgabe und eine der fundamentalen Analysen eines ISMS, ist die Risikoanalyse. Im obigen Fall gilt, dass das Risiko stets bekannt und entsprechende Maßnahmen vorbereitet sein sollten.Obige Ausführungen zeigen zusätzlich, dass der Beschaffungsprozess mindestens in zwei Ebenen anzupassen ist:

  • •  Um Verzögerungen oder Engpässe zu vermeiden, sollte eine Pufferzeit von bis zu vier Monaten eingeplant werden, in der keinerlei Integration erfolgt oder Fortschritte erzielt werden können. Während dieser Zeit besteht jederzeit das Risiko, dass der Einsatz verboten wird. Es gilt, ausreichend Alternativen in Betracht zu ziehen und verfügbar zu halten. Für jede Alternative ist erneut mit einer Vorlaufzeit von bis zu vier Monaten zu rechnen.
  • •  Bereits im Ausschreibungswesen sollten entsprechende Garantieerklärungen der Hersteller eingefordert werden. Gemäß § 41 (3) BSIG_neu darf das BMI Mindestanforderungen an solche Garantieerklärungen definieren. Diese Mindestanforderungen stellen sodann eine gewisse Grundqualität und Vergleichbarkeit sicher.
  • •  Darüber hinaus müssen entsprechende Kommunikationswege und Meldungen sowie Vorabprüfungen im Prozess an geeigneten Stellen berücksichtigt werden. Ebenso sind vorhandene Zertifizierungen, z.B. gemäß dem Framework der ENISA zum Cybersecurity Act, bei der Produktauswahl zu berücksichtigen.

Der erste Punkt zeigt jedoch, dass für Unternehmen Risiken drohen. Das sogenannte ‘Vendor-Lock-In’ wirkt wahrscheinlicher, denn bereits freigegebene Komponenten stellen keine Umsetzungsverzögerung dar. Dabei wird das Unternehmen abhängiger und ein nachträgliches Verbot aufgrund politischer Zerwürfnisse schwerwiegender.

Forscher des Exzellenzclusters Physics of Life (PoL) an der Technischen Universität Dresden (TUD) und der University of California Santa Barbara (USCB) haben Robotergruppen entwickelt, die sich wie intelligente Materialien mit regulierbarer Form und Festigkeit verhalten und so lebende Systeme imitieren.‣ weiterlesen

Viele kleine und mittelständische Betriebe fremdeln nach wie vor mit dem Begriff Industrie 4.0: Lösungen von der Stange erscheinen oft zu komplex und zu teuer oder sind mehr am technisch Machbaren als am konkreten Bedarf einer Fertigungsanforderung orientiert. Oft überfordert das die Mitarbeitenden mehr, als dass es sie unterstützt. ‣ weiterlesen

Die Nominierten für den Deutschen Zukunftspreis stehen fest: Die drei Teams widmen sich digitalem Licht, effizienter generativer KI und energieeffizienten Halbleitern. Die Preisverleihung des mit 250.000€ dotierten Preises erfolgt am 27. November. ‣ weiterlesen

In einer zunehmend digitalisierten Welt gewinnen autonom wandelbare Industrie-4.0-Infrastrukturen an Bedeutung. Diese autonomen und flexiblen Systeme können sich eigenständig an verändernde Bedingungen anpassen, um aktuelle Herausforderungen in der Produktion zu bewältigen. In der neuen Acatech-Expertise des Forschungsbeirats Industrie 4.0 schafft das Fraunhofer IEM Grundlagen für die nächste Evolutionsstufe in der Produktionssystementwicklung.Industrie 4.0 steht für die vierte industrielle Revolution, die durch den Einsatz von digitalen und vernetzten Technologien gekennzeichnet ist. Unter anderem künstliche Intelligenz (KI) und as Internet der Dinge ermöglichen es Produktionssystemen, autonome Entscheidungen zu treffen und Prozesse zu optimieren. Autonome Wandelbarkeit beschreibt die Fähigkeit dieser Systeme, sich an neue Anforderungen anzupassen und selbstständig Veränderungen vorzunehmen. Diese Eigenschaft ist entscheidend, um die Resilienz und Effizienz moderner Produktionsanlagen zu steigern. Um zum Zielbild zu gelangen, müssen Fachleute mit spezifischen Kompetenzen in diesen Bereichen (siehe Abbildung) intensiv zusammenarbeiten. Autonomie und Wandelbarkeit müssen in den gesamten Entwicklungsprozess integriert werden, da sie Auswirkungen auf das komplexe Gesamtsystem haben und umfangreiche Informationen aus vor- und nachgelagerten Prozessen benötigen. Aktuell mangelt es an Ansätzen, die Wechselwirkungen und Abhängigkeiten frühzeitig berücksichtigen, Alternativen aufzeigen und so transparente Entscheidungen fördern.Die Entwicklung autonom wandelbarer Industrie 4.0-Systeme erfordert deshalb ein neues Engineering-Verständnis. Systems Engineering bietet einen interdisziplinären Ansatz, um die Komplexität solcher Systeme zu managen. Systems Engineering betrachtet das gesamte System als eine Einheit, die sowohl das Produkt als auch das Produktionssystem umfasst. Dabei werden verschiedene Fachdisziplinen integriert, um die Vernetzung und Integration der Systeme sicherzustellen. Eine gemeinsame Sprache und ein Systemmodell fördern die Kommunikation und Kooperation zwischen den Disziplinen, erleichtern den Informationsaustausch und führen zu besseren Problemlösungen.Die Etablierung von Standards ist entscheidend, um die Interoperabilität verschiedener Systeme und Technologien sicherzustellen. Standardisierte Schnittstellen und Protokolle erleichtern den Austausch von Daten und ermöglichen die Integration unterschiedlicher Systeme in einer vernetzten Produktionsumgebung.