Was kommt auf Hersteller und Betreiber zu?


Vorgaben zu AfterSales-Pflichten und KI-Systemen

Doch hat die neue EU-Maschinenverordnung nicht nur Auswirkungen auf Herstellung und Risikoanalyse – auch Nachmarktpflichten finden sich explizit aufgeführt. Sollten Maschinen nicht mehr ‘verordnungskonform’ sein, sind Hersteller unverzüglich dazu aufgefordert, Korrekturmaßnahmen zu ergreifen oder aber Rückrufaktionen einzuleiten bzw. das Produkt vom Markt zu nehmen. Auch die zuständigen nationalen Behörden sind in einem entsprechenden Fall zu unterrichten.

Eine weitere Neuerung betrifft zudem Maschinen, die über Systeme mit sog. ‘selbstentwickelndem Verhalten’ (sprich: KI-Systeme) verfügen. Sie werden künftig zu den Hochrisikomaschinen gerechnet, was das Konformitätsbewertungsverfahren deutlich aufwendiger werden lässt. So werden die Hersteller gemäß der neuen EU-Verordnung eine Baumusterprüfung oder ein umfassendes Qualitätssicherungssystem vorzuweisen haben, um die Konformität von Maschinen mit KI-Software garantieren zu können.

Welche Maßnahmen können Hersteller ergreifen?

Letztlich bleibt es den Herstellern überlassen, welche konkreten Maßnahmen zu ergreifen sind, um den Anforderungen der neuen EU-Verordnung Genüge zu leisten. Als Leitfaden kann jedoch die internationale Normenreihe IEC62443 dienen, die sich mit der IT-Sicherheit von ‘Industrial Automation and Control Systems’ befasst. Hervorzuheben sind hier im Besonderen die Dokumente IEC62443 4-1 (Secure product development lifecycle requirements) sowie 62443 4-2 (Technical security requirements for IACS components). Sie behandeln, welche Aspekte im Hinblick auf einen sicheren Software-Entwicklungsprozess zu beachten sind. Ratsam erscheint zuvorderst eine Bedrohungsmodellierung. Dadurch lässt sich erkennen, auf welchen unterschiedlichen Wegen (etwa über das Bedienterminal, USB-Zugänge oder das Netzwerk) die Maschine angegriffen werden kann. Auf Grundlage eines solchen Modells kann in einem nächsten Schritt das individuelle Risiko bewertet und ein Maßnahmenplan erstellt werden. Dabei gilt es, folgende Aspekte zu betrachten:

  • • eine starke Verschlüsselung sämtlicher Netzwerkverbindungen zur Maschine.
  • • Einführung eines Identitäts- und Zugangsmanagements, das sicherstellt, dass die Anmeldung ausschließlich berechtigten Personen gestattet ist. Die Sicherheitsparameter müssen zudem so festgelegt sein, dass der Aktionsraum des Benutzers klar umrissen ist. Ein solches Least-Privilege-Prinzip sollte nicht nur für Anwender, sondern auch für die Verbindung mit anderen Maschinen oder Systemen gelten.
  • • eine genaue Protokollierung sämtlicher Anmelde- und Abmeldevorgänge durch das installierte Software-Programm. Darüber hinaus müssen alle Modifizierungen der Software protokolliert werden – ganz gleich, ob sie autorisiert (etwa in Form von Updates) oder unautorisiert (schlimmstenfalls durch Hacker-Angriffe) vorgenommen wurden. Die Speicherung der Daten sollte direkt auf der Maschine oder auf einem zentralen Server erfolgen. Auch die Bereitstellung dieser Dokumentation für Prüfstellen oder Behörden ist vom Hersteller jederzeit zu garantieren.
  • • ein Vulnerability-Management für alle installierten Software-Programme, im Zuge dessen fortlaufend mögliche Schwachpunkte (schwach geschützte Zugangscodes, riskante Netzwerkverbindungen etc.) identifiziert werden. Aufgrund der neu hinzukommenden After-Sales-Verpflichtungen sollten Hersteller auch logistisch darauf vorbereitet sein, Defizite und Mängel rasch beseitigen zu können.

Auch wenn einige Formulierungen in der neuen EU-Maschinenverordnung unter Umständen Raum für Diskussionen lassen, weisen die Vorgaben zur Cybersecurity in die richtige Richtung. Die Verordnung reagiert auf ein Problem, das die Unternehmen in den kommenden Jahren immer stärker beschäftigen wird, und nimmt Hersteller sowie Betreiber im Kampf gegen Cyberkriminalität in die Pflicht. Zumal auf Hersteller-Seite nun möglichst frühzeitig Vorkehrungen getroffen werden sollten: Diese reichen von einer umsichtigen Risikoanalyse aufgrund von Bedrohungsmodellierungen über verlässliche Verschlüsselungsverfahren und Identitätsprüfungen bis hin zu einem fortlaufenden Vulnerability-Management, das immer auch die Anwender in die Sicherheitsmaßnahmen einbindet. Nur im Schulterschluss von Herstellern und Betreibern kann die Bekämpfung von Cyberkriminalität gelingen. Die Komplexität dieser Aufgabe erfordert ein planvolles Handeln, auch wenn die Verordnung erst Anfang 2027 verbindlich anzuwenden ist.

Das könnte Sie auch interessieren

Die Nominierten für den Deutschen Zukunftspreis stehen fest: Die drei Teams widmen sich digitalem Licht, effizienter generativer KI und energieeffizienten Halbleitern. Die Preisverleihung des mit 250.000€ dotierten Preises erfolgt am 27. November. ‣ weiterlesen

Allein in Österreich stieg die Zahl der Deepfake-Angriffe in diesem Jahr um 119 Prozent; ergab eine KPMG-Austria-Umfrage. Mit diesen drei Maßnahmen lassen sich die Erfolgschancen solcher Angriffe deutlich reduzieren. Damit es Ihrem Unternehmen im Fall der Fälle so ergeht wie kürzlich dem Autobauer Ferrari. ‣ weiterlesen

Autonomes Navigieren, Pick-and-Place-Anwendungen, Qualitätssicherung - Roboter übernehmen in der Industrie bereits viele wichtige Aufgaben und tragen zur Produktivitätssteigerung bei. Mit KI könnte Robotik künftig flexibler und resilienter werden. Wie sieht diese Kombination aus - und welche Rolle nimmt der Mensch ein?‣ weiterlesen

Das Projekt Arctic bringt 36 internationale Partner aus Industrie und Forschung zusammen, um eine europäische Lieferkette für eine Steuerungsinfrastruktur für kryogene Quantenprozessoren aufzubauen. Die deutschen Institute Fraunhofer IPMS und Fraunhofer IAF bringen ihre Kompetenz in der Charakterisierung von elektronischen Komponenten ein. ‣ weiterlesen

Wie der VDMA vor einiger Zeit berichtet hat, trübt sich die Stimmung bei den deutschen Robotik-Herstellern zunehmend ein. Diese erwarten – vor allem aufgrund der schwachen Inlandsnachfrage – nur zwei Prozent Wachstum in 2024. Auch die chinesische Konkurrenz macht der hiesigen Branche das Leben schwer. Dass diese Krise überwiegend hausgemacht ist, meint Nikolai Ensslen, CEO und Gründer des schwäbischen Robotik-Spezialisten Synapticon. ‣ weiterlesen

Angriffe auf die IT-Infrastruktur können Datenlecks, Datenmanipulation und Produktionsausfälle verursachen. Der Schutz vor Angriffen rückt in den Vordergrund. Asset-Management ist eine Grundlage dabei, die künftig durch generative KI unterstützt werden könnte. ‣ weiterlesen

Mit der Abkündigung von Diensten und Plattformen wie Google IoT Core, IBM Watson IoT und SAP Leonardo standen im vergangenen Jahr die Zeichen im IoT-Markt auf Konsolidierung. Beobachter leiteten daraus ein Ende des Hypes ab, und Unternehmen stellten sich die Frage nach Wirtschaftlichkeit und Zukunftsfähigkeit ihrer IoT-Projekte. Zu Recht? Oder war der Abgesang verfrüht?Bei der Umsetzung einer IoT-Plattform-Migration unterstützt Device Insight die Unternehmen mit einem 5-Schitte-Verfahren. Darin enthalten ist ein Anforderungs-Check für die strukturierte Konzept-Entwicklung. (Bild: Device Insight GmbH)Das Internet of Things ist ein Werkzeug, das Unternehmen dabei unterstützt, Probleme zu lösen. Doch in der Frühphase des IoT wurde – oft ohne konkreten Anwendungsfall – viel experimentiert. Unternehmen wollten innovativ sein, den Trend nicht verpassen, und gingen davon aus, dass das Sammeln von Daten sich irgendwann als wertvoll erweisen würde. Mit dem heute erreichten Reifegrad des Marktes konzentrieren sich IoT-Investitionen jedoch stärker auf erzielbare Geschäftsergebnisse. Im industriellen Kontext bilden etwa gepflegte IoT-Daten eine wichtige Grundlage von Prozessoptimierung und für KI-Anwendungen. Gleichzeitig kämpfen viele Unternehmen mit ineffizienten IoT-Architekturen. Darauf müssen sie ebenso reagieren wie auf das Veralten oder Verschwinden von Plattformen.Nicht alles, was technisch machbar ist, ist wirtschaftlich sinnvoll. In der Anfangszeit experimentierten viele Unternehmen mit Hilfe von externen Dienstleistern und bauten IoT-Anwendungen auf. Doch der kommerzielle Erfolg blieb oft aus. In den letzten Jahren scheinen Unternehmen jedoch zunehmend zu verstehen, wie das IoT Mehrwerte für ihre Produktion, Produkte und Dienstleistungen bringen kann. Vielfach stellen vernetzte Software-Komponenten bereits integrale Bestandteile von Produkten und Geschäftsprozessen dar. Zunehmend bauen Unternehmen daher interne Kompetenz auf, wo sie sie vorher noch extern eingekauft haben. Dazu gehört auch die eigene Softwareentwicklung. Hier stehen sie jedoch vor der Herausforderung, gute Entwickler zu finden und zu halten. Das gilt besonders für Mittelständler, die häufig im ländlichen Raum ansässig sind.Ein weiteres Problem ist die Verwendung von IoT-Plattformen, die während der Hype-Phase eingeführt wurden und die sich später als ineffizient, instabil oder nicht skalierbar genug erwiesen. Die Folgen sind hohe operative Kosten, unzuverlässige Systeme und hohe Wartungsaufwände, die die Ressourcen von Entwicklern binden. Besonders problematisch ist das, wenn der Betrieb von Infrastruktur und Anwendungen zeitintensiv ist, weil auf Infrastructure as a Service (IaaS) gesetzt wurde.IoT ist inzwischen Bestandteil vieler Produkte. Eine instabile IoT-Architektur oder ein instabiler digitaler Teil eines größeren Produkts verringern den Wert der gesamten Lösung. Im schlimmsten Fall kann es zu Kundenunzufriedenheit und Rufschäden kommen. Hohe Betriebs-, Entwicklungs- und Sicherheitskosten binden Ressourcen, die in der Entwicklung und Verbesserung von Produkten besser investiert wären.Oft weisen IoT-Plattformen der ‘ersten Generation’ Leistungsdefizite auf, da sie nicht ausreichend auf Skalierbarkeit ausgelegt sind. Zudem sind viele ältere Plattformen häufig nicht modular aufgebaut und somit weniger flexibel. Auch hohe Betriebskosten sind bei älteren IaaS-basierten Lösungen häufig ein Problem. Ein möglicher Ausweg besteht im Umstieg auf Public Clouds wie Azure oder AWS. Vor einer solchen Migration sollte jedoch die bestehende Lösung und die Architektur evaluiert werden, um Fehler nicht zu wiederholen.

Um die Qualität zu erhöhen und effizienter zu produzieren, validiert Airbus Atlantic schon heute Produktionsprozesse virtuell am digitalen Zwilling. Was mit einigen simulierten Roboterzellen begann, könnte den Grundstein einer virtuellen Validierung kompletter Werkstätten bilden. (Bild: Airbus Atlantic)Airbus Atlantic ist eine hundertprozentige Tochtergesellschaft von Airbus – und mit rund 13.500 Mitarbeitern in fünf Ländern und drei Kontinenten selbst ein Tier-1 Player der Luftfahrtindustrie. Gemeinsam mit dem Airbus-Konzern will man zum Pionier der nachhaltigen Luftfahrt avancieren. Ein Ziel, das zum Gehen neuer Wege aufruft und mit Mitteln wie Innovation, Prozesseffizienz und Digitalisierung umgesetzt werden kann. Einen Meilenstein dafür setzte Airbus Atlantic 2021 am französischen Standort Méaulte: Mit einem Projekt rund um die Roboterprogrammierung und virtuelle Validierung. Ein Vorhaben, das klein startete – das allerdings den Start für den Aufbau des digitalen Zwillings und der Validierung von komplett virtuellen Werkstätten setzte.“Die Zielsetzung war eine möglichst genaue digitale Simulation der Realität, Verkürzung der Vorführ- und Justierzeiten im Werk und die Senkung von durch Ausschüsse und Fehler entstandenen Kosten”, schildert Arnaud Varlet, Sales Manager bei Cenit. (Bild: Airbus Atlantic)Technologische und situative Herausforderungen dienten als Auslöser: Der Standort Méaulte zeichnet sich durch den hohen Einsatz von Robotern aus. “Wir stellten allerdings fest, dass unsere bis dato eingesetzte Software unserem Anspruch in Bezug auf Leistungsfähigkeit nicht entsprach. So hatten wir in der Roboterprogrammierung bereits vor einigen Jahren mit einem sukzessiven Umstieg auf die Lösungen Catia / Delmia gestartet”, sagt Jonathan Schaubroek, Robotics and Riveting Machine Programer bei Airbus Atlantic. Die technologischen Neuerungen sollten jedoch nicht bei der Offline-Programmierung enden. Im Gegenteil: Man wollte auch den Folgeprozess, die virtuelle Validierung der aus der Online-Programmierung hervorgegangenen Programme am digitalen Zwilling – den sogenannten virtual dry run – zu einem festen Bestandteil der Abläufe machen. Die virtuelle Validierung ermöglicht es, Unzulänglichkeiten zwischen der Roboterprogrammierung und dem tatsächlichen Produktionsprozess im Vorfeld zu erkennen, um auf Anhieb eine gute Leistung zu erbringen. Sie stellt daher eine nicht zu unterschätzende industrielle und finanzielle Herausforderung dar.Die Suche nach einer Software, die die gesetzten fachlichen und technologischen Ansprüche erfüllte, führte die Experten von Airbus Atlantic zu einem Austausch mit Cenit. Die beiden Unternehmen arbeiteten bereits seit 2015 im Bereich der Roboterprogrammierung zusammen. “In der bisherigen Zusammenarbeit mit Cenit haben wir von deren Software-Expertise und der tiefen Kenntnis der Robotik- und Industriewelt profitiert. Auch menschlich und sprachlich war die Kooperation durch die Ansprechpartner vor Ort ein guter Fit”, betont Experte Schaubroeck. Zusammen mit Cenit-Spezialisten tauchte das Team aus Méaulte somit tiefer in die Welt der Fastsuite Edition 2 ein, Cenits 3D-Simulationssuite für die digitale Fabrik. “Ich kannte bisher kein System, das in einer virtuellen Softwareumgebung eine so exakte Kopie dessen simulierte, was man in der Werkstatt auf der Roboterseite vorfand”, sagt Jonathan Schaubroeck. Musste sein Team bis dato darauf vertrauen, dass die Online-Programmierung zu intendierten Ergebnissen beim Robotereinsatz führte – und damit im Nachhinein Planungs- oder Programmierfehler in Kauf nehmen – bot die Software nun im Vorfeld eine parameterbasierte Sicherheit.

Mit der Digitalisierung ihrer Produktion erlangen Unternehmen mehr Produktivität, Flexibilität und Datendurchgängigkeit. Allerdings blockieren heterogene IT- und OT-Landschaften vielerorts die notwendige Modernisierung. Außerdem fehlen Fachleute für aufwendige Innovationsprojekte. In diesem Szenario bietet sich eine modulare Software-Plattform an, die vorhandene IT- und OT-Strukturen vernetzt sowie die Schwächen bisheriger Ansätze aus starr verketteten SPS-basierten Lösungen vermeidet.Digitalisierung und Einbindung funktionieren im eigenen Haushalt einfach und kostengünstig: Fernseher, Laptops und Türklingeln lassen sich ohne besonderes Fachwissen innerhalb von Minuten in das Heimnetz integrieren. Selbst eine Hausautomation können Heimwerker heute umsetzen und komplette Abläufe ohne Programmierkenntnisse definieren. In der Industrie ist es dagegen bislang unmöglich, Werkzeugmaschinen, Laser, Roboter oder Prüfzellen schnell in Fertigungsprozesse einzubeziehen und Produktionsanlagen simpel und flexibel umzustellen.Das liegt vor allem an den fragmentierten Digitalisierungsansätzen, die aus den gewachsenen komplexen IT- und OT-Landschaften resultieren: Die Automatisierungstechniken und Software-Anwendungen stammen oftmals aus den 1990er-Jahren. Häufig laufen Architekturen aus logisch starr miteinander verketteten individuellen SPS-basierten Lösungen. Applikationen lassen sich nur funktional erweitern, indem Experten unterschiedliche Programme und SPS-Systeme anpassen. Das alles erschwert eine Modernisierung und Standardisierung der Fertigungsprozesse. Zahlreiche Digitalisierungslösungen adressieren diese Herausforderungen zwar und versprechen mehr Effizienz und Flexibilität. Sie haben jedoch meistens zwei wesentliche Schwächen:1. schaffen langwierige Adaptionen in der laufenden Produktion Risiken für einen Stillstand und lange Rüstzeiten. Selbst wenn Optimierungen bekannt und theoretisch realisierbar sind, implementieren viele Unternehmen diese letztlich nicht – aus Sorge vor einem zu langen Fertigungsausfall. Im Ergebnis schöpfen sie ihre Produktionspotenziale nicht aus.2. haben etablierte digitale Lösungen – zum Beispiel MES-, SPS- und Industrie 4.0-Ansätze – wohl ihre Vorteile für verschiedene Fabrik-Settings. Sie stellen allerdings keine durchgängigen Kontroll- und Datenflüsse sicher.Das Ergebnis solcher IT/OT-Projekte bleibt dann oft eine fragmentierte Digitalisierung: Die Durchgängigkeit vom Auftrag zum Artikel fehlt weiterhin, Prozessdaten werden ohne Korrelation erfasst, für mehr Flexibilität und kleine Losgrößen entstehen noch immer hohe Kosten, Anpassungen bedeuten einen großen Programmieraufwand an den SPSen. Solche Insellösungen und Datensilos werden den hohen Anforderungen einer modernen Fabrik nicht gerecht.Diese Schwächen umgehen Lösungen aus dem Manufacturing Operations Management (MOM). Das verspricht eine lückenlose Kommunikation von der Fertigungs- bis zur Unternehmensleitebene. Das MOM verwaltet und optimiert Produktionsprozesse und modelliert diese durchgängig digital – von der Planung und Steuerung sowie Organisation und Durchführung über die Überwachung und Verbesserung der Prozesse bis zur Datenanalyse. Dafür braucht es ein systemübergreifendes Zusammenspiel von MES, ERP, Produktionsplanung und mehr. Die Vernetzung gelingt mit einer Vielzahl offener technischer Schnittstellen.

Zwar erhöhen Firmen mittels Wartung die Verfügbarkeit ihrer Anlagen. Laut einer Studie von ABB kommt es bei der Mehrheit der Befragten monatlich jedoch zu mindestens einem ungeplanten Stillstand. ‣ weiterlesen

Die Kombination von Robotik und künstlicher Intelligenz (KI) verspricht großes Potenzial für die Produktion. Werden Bewegungsanweisungen etwa von einem KI-Algorithmus berechnet, muss nicht für jede neue Fertigungsaufgabe eine Fachperson hinzugezogen werden. Nach diesem Prinzip haben Forschende am IHP-Institut für Integrierte Produktion Hannover einem Cobot das Zeichnen beigebracht. Dieses , das ausschließlich relevante Kanten enthält, kann von einem Cobot nachgezeichnet werden. (Bild: Susann Reichert / IPH gGmbh)Kollaborierende Roboter, auch Cobots genannt, übernehmen in der Produktion Aufgaben, die üblicherweise von menschlichen Händen ausgeführt werden. Im Vergleich zu klassischen Industrierobotern sind sie kleiner und flexibler. Sie sind dafür gebaut, Seite an Seite mit Menschen zusammenzuarbeiten. Zudem zeichnen sich Cobots durch eine intuitivere Handhabung und geringeren – allerdings manuellen – Programmieraufwand aus. Der Einsatz lohnt sich daher nur für repetitive Bewegungsabläufe. Aufgaben, bei denen Flexibilität gefordert ist – etwa bei der Fertigung von Einzelstücken nach individuellen Kundenwünschen – können Cobots noch nicht sinnvoll übernehmen. Mit Hilfe von künstlicher Intelligenz (KI) könnte sich dies jedoch ändern. KI-Algorithmen übernehmen dabei die Aufgabe, Bewegungsanweisungen für den Cobot zu erstellen. In Zukunft könnten Cobots somit auch von Personen ohne Programmierkenntnisse bedient werden.Ein Beispiel für die Verbindung von Cobot und KI haben Forschende am IPH – Institut für Integrierte Produktion Hannover entwickelt. Sie haben einem Cobot beigebracht, Bilder detailliert nachzuzeichnen. Dabei wird ein zuvor unbekanntes Bild mittels KI analysiert und in eine Bewegungsanweisung für den Roboter umgewandelt.Mit mehreren verarbeitungs-Algorithmen wird ein in ein Schwarz-Weiß-umgewandelt, das ausschließlich relevante Kanten enthält. (Bild: Leonard Engelke / IPH gGmbh)Damit das Bild vom Cobot gezeichnet werden kann, sind zunächst mehrere Bildverarbeitungs-Schritte notwendig. Ziel ist es, das Bild so umzuwandeln, dass nur die wichtigen Kanten übrig bleiben. Für die Bildverarbeitung greifen mehrere Algorithmen ineinander. Zunächst wird das Bild in ein Schwarz-Weiß-Bild umgewandelt. Anschließend wird der Weichzeichner Gaussian Blur angewandt, um Bilderrauschen, Artefakte und kleinere Details zu entfernen. Danach kommt der Canny-Algorithmus (Canny Edge Detector) zum Einsatz: Dieser prüft jeden einzelnen Pixel darauf, wie stark sich dieser von seiner Umgebung abhebt. Pixel, die sich stark abheben, werden als Kante erkannt, alle anderen Pixel werden entfernt. So entsteht ein Schwarz-Weiß-Bild, das ausschließlich relevante Kanten enthält (siehe Zeichnung).Anschließend erstellt die KI den Programmiercode für den Cobot, der damit das Bild möglichst effizient zeichnen kann. Das Ziel ist es, nicht für jeden Pixel eine eigene Bewegungsanweisung zu erstellen, sondern so viele Pixel wie möglich in einer einzelnen Bewegung zu zeichnen. Die Zeichnung erfolgt also nicht Punkt für Punkt, sondern in langen, verbundenen Linien – überflüssige Bildfragmente werden weggelassen. Die KI trifft dabei die Entscheidungen, welche Bildpunkte tatsächlich relevant sind und welche entfallen werden können.Die Kombination aus Robotik und KI-Bilderkennung bietet perspektivisch Möglichkeiten für verschiedene Fertigungsbereiche. So könnten Cobots künftig individuelle Gravuren auf unterschiedliche Produkte aufbringen. Die KI-Bilderkennung erkennt die Größe und Form des Produkts, die Oberflächenbeschaffenheit und das Material und errechnet die richtigen Parameter für den Cobot, der die Gravur aufbringt.In der Werkstattfertigung könnte ein solcher Roboter ein individuelles Bauteil verschweißen. Benötigt würde dafür die CAD-Datei der Bauteilgeometrie sowie die Schweißnahtposition – die Bewegungsanweisungen für den Roboter errechnet dann ein KI-Algorithmus.Potenzial verspricht das Zusammenspiel von KI und Cobot auch bei der Qualitätssicherung: Die KI erkennt fehlerhafte Werkstücke, der Cobot sortiert sie aus. Wird die Qualität bereits während des Fertigungsprozesses erfasst, kann die KI bei Abweichungen eigenständig die Parameter anpassen und dadurch Ausschuss vermeiden. Die KI-basierte Qualitätssicherung beim 3D-Druck von individuellen Medizinprodukten hat das IPH bereits im Forschungsprojekt ‘Saviour’ erforscht.