Quantensprung der Rechenleistung


Nutzen trotz Wissenslücken

Bis heute ist es der heilige Gral der Naturwissenschaften, diese Gesetze der Quantenmechanik mit den klassischen Naturgesetzen wie der Gravitation in Einklang zu bringen, denen die Welt im Großen gehorcht – von der Rotation der Planeten bis zu unserem Leben auf der Erde. Doch obwohl wir nicht wissen, wo (und warum) die Grenze zwischen der Welt der Elementarteilchen und unserer verläuft, können wir die Funktionsprinzipien der Quanten hier und jetzt für uns nutzen. Das ist in etwa so, als könnten wir ein Elektroauto ins Mittelalter teleportieren: Die Menschen wüssten nicht, warum es fährt – aber dennoch würde es sie von A nach B bringen.

Ähnlich wie ein Auto oder Flugzeug zu einem Pferd verhält sich die Geschwindigkeit eines Quantencomputers zu der eines Binärrechners. Während zwei Bits in der klassischen Welt vier Kombinationen erlauben (01, 10, 00 oder 11), entspricht ein Quantenbit (auch Qubit genannt) durch die Möglichkeit der Überlagerung beider Zustände allen möglichen Kombinationen aus Zahlen >0 und <1. Durch jedes zusätzliche Qubit wächst die Rechenleistung exponentiell, sodass 193 herkömmliche Bits benötigt würden, um ein einziges Qubit zu codieren. Anders gesagt: Während ein klassischer 32-Bit-Rechner eben genau 32 Berechnungen gleichzeitig ausführen kann (32 mal 01 oder 10), ist ein 32-Qubit-Computer zu 320 Milliarden Berechnungen gleichzeitig in der Lage. Das entspricht der Anzahl der Sterne in unserer Galaxis.

Welchen Gesetzen folgen Raum und Zeit?

Neben dieser sogenannten Überlagerung existiert in der Quantenwelt das noch wesentlich mysteriösere Phänomen der Verschränkung. Von den Pionieren der Teilchenphysik um Einstein und Heisenberg wurde es als spukhafte Fernwirkung bezeichnet. Die Verschränkung tritt nur im Quantenraum, also auf Ebene der Elementarteilchen, auf und verblüfft die Wissenschaft seit mehr als 100 Jahren. Normalerweise werden Teilchen in diesem Universum als Paare erzeugt. Die Paare sind durch eine Eigenschaft des Teilchens unterscheidbar, sei es Spin oder Ladung. Das beobachtete Verschränkungsprinzip besagt, dass ein verschränktes Teilchen genau das Spiegelbild der Daten erhält, die auf sein Partnerteilchen übertragen werden, selbst wenn sich beide Teilchen an den entgegengesetzten Enden des Universums befinden. Information kann also mittels verschränkter Teilchen ohne Zeitverlust über beliebige Distanzen transportiert werden, was nicht nur die Lichtgeschwindigkeit als absolute Grenze nivelliert, sondern gar das Prinzip von Raum und Zeit widerlegt und die grundlegenden Gesetze des Universums infrage stellt.

Ähnlich wie im Bild des Autos im Mittelalter gleicht die Technologie der Quantenverschränkung einem Raumschiff aus der Zukunft, das wir plötzlich vor unserer Haustür finden: Auch wenn wir nicht verstehen, wie es funktioniert, können wir einiges damit anfangen. Etwa auf dem Gebiet der Cybersicherheit. Stellen wir uns zwei Schlüssel vor, die als Paar hergestellt werden. Selbst wenn ein Hacker in der Lage wäre, einen der Schlüssel exakt zu reproduzieren: Sobald er eines der Originale lokalisiert, registriert das verschränkte System das unmittelbar und kann entsprechend geändert werden.

Quanten-Tunneling ist ein weiteres Phänomen des Quantensystems, das sich für moderne KI-Anwendungen eignet. Ähnlich wie Überlagerung und Verschränkung ist es aber nicht intuitiv. Da wir mit diesen ganz realen Phänomenen in unserer Welt keine Erfahrungen haben, widersprechen sie oft dem, was wir den gesunden Menschenverstand nennen. Wir müssen schlicht akzeptieren, dass auf der Ebene der Elementarteilchen andere Naturgesetze herrschen als in unserer ‘großen’ Welt. Stellen wir uns vor, ein Ball rollt auf einen Hügel zu. Da Teilchen in der Quantenwelt auch als masselose Welle existieren, besteht die geringe Wahrscheinlichkeit, dass ein Teilchen auf der anderen Seite des Hügels erscheint – und zwar ohne die erforderliche kinetische Energie zu haben, über den Hügel zu rollen. Es rollt den Hügel also nicht hinauf, sondern formt gewissermaßen einen Tunnel, durch den es die andere Seite erreicht.

Neues globales Optimum

Zentrale Funktionsweise von KI und Machine Learning ist das sogenannte Gradientenverfahren. Es wird in der Numerik eingesetzt, um allgemeine Optimierungsprobleme zu lösen und das sogenannte Globale Optimum zu ermitteln. Dabei schreitet man von einem Startpunkt aus entlang einer Abstiegsrichtung, bis keine numerische Verbesserung mehr erzielt wird – als würde man den Hang eines Hügels hinabschreiten. Das Tunneling könnte diesen Prozess maßgeblich verkürzen, da zur Ermittlung eines Lokalen Optimums das Gefälle des Hügels keine natürliche Grenze mehr darstellt. Er könnte direkt durchtunnelt werden und das bisherige Verfahren des Gradientenabstiegs revolutionieren. Diese Technik könnte auch dabei helfen, schnell ein Globales Optimum zu bestimmen und nicht bei lokalen Optima zu verharren.

Das könnte Sie auch interessieren

Die Nominierten für den Deutschen Zukunftspreis stehen fest: Die drei Teams widmen sich digitalem Licht, effizienter generativer KI und energieeffizienten Halbleitern. Die Preisverleihung des mit 250.000€ dotierten Preises erfolgt am 27. November. ‣ weiterlesen

Weniger Unternehmen in Deutschland wollen ihre Preise erhöhen. Die Preiserwartungen sanken nach Berechnungen des IFO-Institutes im August auf 16,3 Punkte, nach 17,6 im Juli. Dazu trugen vor allem die Industrie und die unternehmensnahen Dienstleister bei. ‣ weiterlesen

Autonomes Navigieren, Pick-and-Place-Anwendungen, Qualitätssicherung - Roboter übernehmen in der Industrie bereits viele wichtige Aufgaben und tragen zur Produktivitätssteigerung bei. Mit KI könnte Robotik künftig flexibler und resilienter werden. Wie sieht diese Kombination aus - und welche Rolle nimmt der Mensch ein?‣ weiterlesen

Das Projekt Arctic bringt 36 internationale Partner aus Industrie und Forschung zusammen, um eine europäische Lieferkette für eine Steuerungsinfrastruktur für kryogene Quantenprozessoren aufzubauen. Die deutschen Institute Fraunhofer IPMS und Fraunhofer IAF bringen ihre Kompetenz in der Charakterisierung von elektronischen Komponenten ein. ‣ weiterlesen

Wie der VDMA vor einiger Zeit berichtet hat, trübt sich die Stimmung bei den deutschen Robotik-Herstellern zunehmend ein. Diese erwarten – vor allem aufgrund der schwachen Inlandsnachfrage – nur zwei Prozent Wachstum in 2024. Auch die chinesische Konkurrenz macht der hiesigen Branche das Leben schwer. Dass diese Krise überwiegend hausgemacht ist, meint Nikolai Ensslen, CEO und Gründer des schwäbischen Robotik-Spezialisten Synapticon. ‣ weiterlesen

Angriffe auf die IT-Infrastruktur können Datenlecks, Datenmanipulation und Produktionsausfälle verursachen. Der Schutz vor Angriffen rückt in den Vordergrund. Asset-Management ist eine Grundlage dabei, die künftig durch generative KI unterstützt werden könnte. ‣ weiterlesen

Mit der Abkündigung von Diensten und Plattformen wie Google IoT Core, IBM Watson IoT und SAP Leonardo standen im vergangenen Jahr die Zeichen im IoT-Markt auf Konsolidierung. Beobachter leiteten daraus ein Ende des Hypes ab, und Unternehmen stellten sich die Frage nach Wirtschaftlichkeit und Zukunftsfähigkeit ihrer IoT-Projekte. Zu Recht? Oder war der Abgesang verfrüht?Bei der Umsetzung einer IoT-Plattform-Migration unterstützt Device Insight die Unternehmen mit einem 5-Schitte-Verfahren. Darin enthalten ist ein Anforderungs-Check für die strukturierte Konzept-Entwicklung. (Bild: Device Insight GmbH)Das Internet of Things ist ein Werkzeug, das Unternehmen dabei unterstützt, Probleme zu lösen. Doch in der Frühphase des IoT wurde – oft ohne konkreten Anwendungsfall – viel experimentiert. Unternehmen wollten innovativ sein, den Trend nicht verpassen, und gingen davon aus, dass das Sammeln von Daten sich irgendwann als wertvoll erweisen würde. Mit dem heute erreichten Reifegrad des Marktes konzentrieren sich IoT-Investitionen jedoch stärker auf erzielbare Geschäftsergebnisse. Im industriellen Kontext bilden etwa gepflegte IoT-Daten eine wichtige Grundlage von Prozessoptimierung und für KI-Anwendungen. Gleichzeitig kämpfen viele Unternehmen mit ineffizienten IoT-Architekturen. Darauf müssen sie ebenso reagieren wie auf das Veralten oder Verschwinden von Plattformen.Nicht alles, was technisch machbar ist, ist wirtschaftlich sinnvoll. In der Anfangszeit experimentierten viele Unternehmen mit Hilfe von externen Dienstleistern und bauten IoT-Anwendungen auf. Doch der kommerzielle Erfolg blieb oft aus. In den letzten Jahren scheinen Unternehmen jedoch zunehmend zu verstehen, wie das IoT Mehrwerte für ihre Produktion, Produkte und Dienstleistungen bringen kann. Vielfach stellen vernetzte Software-Komponenten bereits integrale Bestandteile von Produkten und Geschäftsprozessen dar. Zunehmend bauen Unternehmen daher interne Kompetenz auf, wo sie sie vorher noch extern eingekauft haben. Dazu gehört auch die eigene Softwareentwicklung. Hier stehen sie jedoch vor der Herausforderung, gute Entwickler zu finden und zu halten. Das gilt besonders für Mittelständler, die häufig im ländlichen Raum ansässig sind.Ein weiteres Problem ist die Verwendung von IoT-Plattformen, die während der Hype-Phase eingeführt wurden und die sich später als ineffizient, instabil oder nicht skalierbar genug erwiesen. Die Folgen sind hohe operative Kosten, unzuverlässige Systeme und hohe Wartungsaufwände, die die Ressourcen von Entwicklern binden. Besonders problematisch ist das, wenn der Betrieb von Infrastruktur und Anwendungen zeitintensiv ist, weil auf Infrastructure as a Service (IaaS) gesetzt wurde.IoT ist inzwischen Bestandteil vieler Produkte. Eine instabile IoT-Architektur oder ein instabiler digitaler Teil eines größeren Produkts verringern den Wert der gesamten Lösung. Im schlimmsten Fall kann es zu Kundenunzufriedenheit und Rufschäden kommen. Hohe Betriebs-, Entwicklungs- und Sicherheitskosten binden Ressourcen, die in der Entwicklung und Verbesserung von Produkten besser investiert wären.Oft weisen IoT-Plattformen der ‘ersten Generation’ Leistungsdefizite auf, da sie nicht ausreichend auf Skalierbarkeit ausgelegt sind. Zudem sind viele ältere Plattformen häufig nicht modular aufgebaut und somit weniger flexibel. Auch hohe Betriebskosten sind bei älteren IaaS-basierten Lösungen häufig ein Problem. Ein möglicher Ausweg besteht im Umstieg auf Public Clouds wie Azure oder AWS. Vor einer solchen Migration sollte jedoch die bestehende Lösung und die Architektur evaluiert werden, um Fehler nicht zu wiederholen.

Um die Qualität zu erhöhen und effizienter zu produzieren, validiert Airbus Atlantic schon heute Produktionsprozesse virtuell am digitalen Zwilling. Was mit einigen simulierten Roboterzellen begann, könnte den Grundstein einer virtuellen Validierung kompletter Werkstätten bilden. (Bild: Airbus Atlantic)Airbus Atlantic ist eine hundertprozentige Tochtergesellschaft von Airbus – und mit rund 13.500 Mitarbeitern in fünf Ländern und drei Kontinenten selbst ein Tier-1 Player der Luftfahrtindustrie. Gemeinsam mit dem Airbus-Konzern will man zum Pionier der nachhaltigen Luftfahrt avancieren. Ein Ziel, das zum Gehen neuer Wege aufruft und mit Mitteln wie Innovation, Prozesseffizienz und Digitalisierung umgesetzt werden kann. Einen Meilenstein dafür setzte Airbus Atlantic 2021 am französischen Standort Méaulte: Mit einem Projekt rund um die Roboterprogrammierung und virtuelle Validierung. Ein Vorhaben, das klein startete – das allerdings den Start für den Aufbau des digitalen Zwillings und der Validierung von komplett virtuellen Werkstätten setzte.“Die Zielsetzung war eine möglichst genaue digitale Simulation der Realität, Verkürzung der Vorführ- und Justierzeiten im Werk und die Senkung von durch Ausschüsse und Fehler entstandenen Kosten”, schildert Arnaud Varlet, Sales Manager bei Cenit. (Bild: Airbus Atlantic)Technologische und situative Herausforderungen dienten als Auslöser: Der Standort Méaulte zeichnet sich durch den hohen Einsatz von Robotern aus. “Wir stellten allerdings fest, dass unsere bis dato eingesetzte Software unserem Anspruch in Bezug auf Leistungsfähigkeit nicht entsprach. So hatten wir in der Roboterprogrammierung bereits vor einigen Jahren mit einem sukzessiven Umstieg auf die Lösungen Catia / Delmia gestartet”, sagt Jonathan Schaubroek, Robotics and Riveting Machine Programer bei Airbus Atlantic. Die technologischen Neuerungen sollten jedoch nicht bei der Offline-Programmierung enden. Im Gegenteil: Man wollte auch den Folgeprozess, die virtuelle Validierung der aus der Online-Programmierung hervorgegangenen Programme am digitalen Zwilling – den sogenannten virtual dry run – zu einem festen Bestandteil der Abläufe machen. Die virtuelle Validierung ermöglicht es, Unzulänglichkeiten zwischen der Roboterprogrammierung und dem tatsächlichen Produktionsprozess im Vorfeld zu erkennen, um auf Anhieb eine gute Leistung zu erbringen. Sie stellt daher eine nicht zu unterschätzende industrielle und finanzielle Herausforderung dar.Die Suche nach einer Software, die die gesetzten fachlichen und technologischen Ansprüche erfüllte, führte die Experten von Airbus Atlantic zu einem Austausch mit Cenit. Die beiden Unternehmen arbeiteten bereits seit 2015 im Bereich der Roboterprogrammierung zusammen. “In der bisherigen Zusammenarbeit mit Cenit haben wir von deren Software-Expertise und der tiefen Kenntnis der Robotik- und Industriewelt profitiert. Auch menschlich und sprachlich war die Kooperation durch die Ansprechpartner vor Ort ein guter Fit”, betont Experte Schaubroeck. Zusammen mit Cenit-Spezialisten tauchte das Team aus Méaulte somit tiefer in die Welt der Fastsuite Edition 2 ein, Cenits 3D-Simulationssuite für die digitale Fabrik. “Ich kannte bisher kein System, das in einer virtuellen Softwareumgebung eine so exakte Kopie dessen simulierte, was man in der Werkstatt auf der Roboterseite vorfand”, sagt Jonathan Schaubroeck. Musste sein Team bis dato darauf vertrauen, dass die Online-Programmierung zu intendierten Ergebnissen beim Robotereinsatz führte – und damit im Nachhinein Planungs- oder Programmierfehler in Kauf nehmen – bot die Software nun im Vorfeld eine parameterbasierte Sicherheit.

Mit der Digitalisierung ihrer Produktion erlangen Unternehmen mehr Produktivität, Flexibilität und Datendurchgängigkeit. Allerdings blockieren heterogene IT- und OT-Landschaften vielerorts die notwendige Modernisierung. Außerdem fehlen Fachleute für aufwendige Innovationsprojekte. In diesem Szenario bietet sich eine modulare Software-Plattform an, die vorhandene IT- und OT-Strukturen vernetzt sowie die Schwächen bisheriger Ansätze aus starr verketteten SPS-basierten Lösungen vermeidet.Digitalisierung und Einbindung funktionieren im eigenen Haushalt einfach und kostengünstig: Fernseher, Laptops und Türklingeln lassen sich ohne besonderes Fachwissen innerhalb von Minuten in das Heimnetz integrieren. Selbst eine Hausautomation können Heimwerker heute umsetzen und komplette Abläufe ohne Programmierkenntnisse definieren. In der Industrie ist es dagegen bislang unmöglich, Werkzeugmaschinen, Laser, Roboter oder Prüfzellen schnell in Fertigungsprozesse einzubeziehen und Produktionsanlagen simpel und flexibel umzustellen.Das liegt vor allem an den fragmentierten Digitalisierungsansätzen, die aus den gewachsenen komplexen IT- und OT-Landschaften resultieren: Die Automatisierungstechniken und Software-Anwendungen stammen oftmals aus den 1990er-Jahren. Häufig laufen Architekturen aus logisch starr miteinander verketteten individuellen SPS-basierten Lösungen. Applikationen lassen sich nur funktional erweitern, indem Experten unterschiedliche Programme und SPS-Systeme anpassen. Das alles erschwert eine Modernisierung und Standardisierung der Fertigungsprozesse. Zahlreiche Digitalisierungslösungen adressieren diese Herausforderungen zwar und versprechen mehr Effizienz und Flexibilität. Sie haben jedoch meistens zwei wesentliche Schwächen:1. schaffen langwierige Adaptionen in der laufenden Produktion Risiken für einen Stillstand und lange Rüstzeiten. Selbst wenn Optimierungen bekannt und theoretisch realisierbar sind, implementieren viele Unternehmen diese letztlich nicht – aus Sorge vor einem zu langen Fertigungsausfall. Im Ergebnis schöpfen sie ihre Produktionspotenziale nicht aus.2. haben etablierte digitale Lösungen – zum Beispiel MES-, SPS- und Industrie 4.0-Ansätze – wohl ihre Vorteile für verschiedene Fabrik-Settings. Sie stellen allerdings keine durchgängigen Kontroll- und Datenflüsse sicher.Das Ergebnis solcher IT/OT-Projekte bleibt dann oft eine fragmentierte Digitalisierung: Die Durchgängigkeit vom Auftrag zum Artikel fehlt weiterhin, Prozessdaten werden ohne Korrelation erfasst, für mehr Flexibilität und kleine Losgrößen entstehen noch immer hohe Kosten, Anpassungen bedeuten einen großen Programmieraufwand an den SPSen. Solche Insellösungen und Datensilos werden den hohen Anforderungen einer modernen Fabrik nicht gerecht.Diese Schwächen umgehen Lösungen aus dem Manufacturing Operations Management (MOM). Das verspricht eine lückenlose Kommunikation von der Fertigungs- bis zur Unternehmensleitebene. Das MOM verwaltet und optimiert Produktionsprozesse und modelliert diese durchgängig digital – von der Planung und Steuerung sowie Organisation und Durchführung über die Überwachung und Verbesserung der Prozesse bis zur Datenanalyse. Dafür braucht es ein systemübergreifendes Zusammenspiel von MES, ERP, Produktionsplanung und mehr. Die Vernetzung gelingt mit einer Vielzahl offener technischer Schnittstellen.

Zwar erhöhen Firmen mittels Wartung die Verfügbarkeit ihrer Anlagen. Laut einer Studie von ABB kommt es bei der Mehrheit der Befragten monatlich jedoch zu mindestens einem ungeplanten Stillstand. ‣ weiterlesen

Die Kombination von Robotik und künstlicher Intelligenz (KI) verspricht großes Potenzial für die Produktion. Werden Bewegungsanweisungen etwa von einem KI-Algorithmus berechnet, muss nicht für jede neue Fertigungsaufgabe eine Fachperson hinzugezogen werden. Nach diesem Prinzip haben Forschende am IHP-Institut für Integrierte Produktion Hannover einem Cobot das Zeichnen beigebracht. Dieses , das ausschließlich relevante Kanten enthält, kann von einem Cobot nachgezeichnet werden. (Bild: Susann Reichert / IPH gGmbh)Kollaborierende Roboter, auch Cobots genannt, übernehmen in der Produktion Aufgaben, die üblicherweise von menschlichen Händen ausgeführt werden. Im Vergleich zu klassischen Industrierobotern sind sie kleiner und flexibler. Sie sind dafür gebaut, Seite an Seite mit Menschen zusammenzuarbeiten. Zudem zeichnen sich Cobots durch eine intuitivere Handhabung und geringeren – allerdings manuellen – Programmieraufwand aus. Der Einsatz lohnt sich daher nur für repetitive Bewegungsabläufe. Aufgaben, bei denen Flexibilität gefordert ist – etwa bei der Fertigung von Einzelstücken nach individuellen Kundenwünschen – können Cobots noch nicht sinnvoll übernehmen. Mit Hilfe von künstlicher Intelligenz (KI) könnte sich dies jedoch ändern. KI-Algorithmen übernehmen dabei die Aufgabe, Bewegungsanweisungen für den Cobot zu erstellen. In Zukunft könnten Cobots somit auch von Personen ohne Programmierkenntnisse bedient werden.Ein Beispiel für die Verbindung von Cobot und KI haben Forschende am IPH – Institut für Integrierte Produktion Hannover entwickelt. Sie haben einem Cobot beigebracht, Bilder detailliert nachzuzeichnen. Dabei wird ein zuvor unbekanntes Bild mittels KI analysiert und in eine Bewegungsanweisung für den Roboter umgewandelt.Mit mehreren verarbeitungs-Algorithmen wird ein in ein Schwarz-Weiß-umgewandelt, das ausschließlich relevante Kanten enthält. (Bild: Leonard Engelke / IPH gGmbh)Damit das Bild vom Cobot gezeichnet werden kann, sind zunächst mehrere Bildverarbeitungs-Schritte notwendig. Ziel ist es, das Bild so umzuwandeln, dass nur die wichtigen Kanten übrig bleiben. Für die Bildverarbeitung greifen mehrere Algorithmen ineinander. Zunächst wird das Bild in ein Schwarz-Weiß-Bild umgewandelt. Anschließend wird der Weichzeichner Gaussian Blur angewandt, um Bilderrauschen, Artefakte und kleinere Details zu entfernen. Danach kommt der Canny-Algorithmus (Canny Edge Detector) zum Einsatz: Dieser prüft jeden einzelnen Pixel darauf, wie stark sich dieser von seiner Umgebung abhebt. Pixel, die sich stark abheben, werden als Kante erkannt, alle anderen Pixel werden entfernt. So entsteht ein Schwarz-Weiß-Bild, das ausschließlich relevante Kanten enthält (siehe Zeichnung).Anschließend erstellt die KI den Programmiercode für den Cobot, der damit das Bild möglichst effizient zeichnen kann. Das Ziel ist es, nicht für jeden Pixel eine eigene Bewegungsanweisung zu erstellen, sondern so viele Pixel wie möglich in einer einzelnen Bewegung zu zeichnen. Die Zeichnung erfolgt also nicht Punkt für Punkt, sondern in langen, verbundenen Linien – überflüssige Bildfragmente werden weggelassen. Die KI trifft dabei die Entscheidungen, welche Bildpunkte tatsächlich relevant sind und welche entfallen werden können.Die Kombination aus Robotik und KI-Bilderkennung bietet perspektivisch Möglichkeiten für verschiedene Fertigungsbereiche. So könnten Cobots künftig individuelle Gravuren auf unterschiedliche Produkte aufbringen. Die KI-Bilderkennung erkennt die Größe und Form des Produkts, die Oberflächenbeschaffenheit und das Material und errechnet die richtigen Parameter für den Cobot, der die Gravur aufbringt.In der Werkstattfertigung könnte ein solcher Roboter ein individuelles Bauteil verschweißen. Benötigt würde dafür die CAD-Datei der Bauteilgeometrie sowie die Schweißnahtposition – die Bewegungsanweisungen für den Roboter errechnet dann ein KI-Algorithmus.Potenzial verspricht das Zusammenspiel von KI und Cobot auch bei der Qualitätssicherung: Die KI erkennt fehlerhafte Werkstücke, der Cobot sortiert sie aus. Wird die Qualität bereits während des Fertigungsprozesses erfasst, kann die KI bei Abweichungen eigenständig die Parameter anpassen und dadurch Ausschuss vermeiden. Die KI-basierte Qualitätssicherung beim 3D-Druck von individuellen Medizinprodukten hat das IPH bereits im Forschungsprojekt ‘Saviour’ erforscht.