Schlüsseltechnologie für das Industrial Internet of Things

Warum Edge Computing wichtig ist

Mit stärkerer Vernetzung steigt die Menge übertragener Sensordaten und damit die Anforderungen an IIoT-angebundene Geräte, Maschinen und Anlagen. Dabei gewinnt die Echtzeitverarbeitung dieser Daten an Bedeutung, obwohl das gerade bei großen Datenmengen weitere Herausforderungen stellt. Mit Edge Computing stellen Industrieunternehmen sicher, dass erfasste Daten entlang der Wertschöpfungskette keine Prozesse blockieren.

(Bild: Schubert System Elektronik GmbH)

Als Edge (zu Deutsch Kante) bezeichnet man den Rand eines technischen Informationsnetzwerks, an dem virtuelle und reale Welten aufeinander treffen. In einer dezentralen IT-Architektur werden anfallende Daten nicht im Rechenzentrum, sondern direkt an diesem Übergang verarbeitet und bei Bedarf in die Cloud verschoben. Edge Computing ermöglicht an dieser Stelle die Datenvorverarbeitung in Echtzeit: Gesammelte Daten werden lokal nach definierten Kriterien verdichtet. Erste Analyseergebnisse können nun direkt an die Endgeräte rückgekoppelt oder weiterverarbeitet werden. Anschließend besteht die Möglichkeit, nur relevante und damit kleinere Datenpakete in die Cloud zu transferieren, die nicht für sich allein nutzbar sind. Durch die Reduzierung der Datenmenge werden stationäre Server entlastet, aber auch die laufenden Kosten für die Datenübertragung und die Cloud reduziert. Diese dezentrale Verarbeitung schont nicht nur Ressourcen, sondern reduziert auch das Risiko des Datenverlustes außerhalb der Anlage beziehungsweise bei Cyber-Attacken auf die Cloud. Mittels Edge Computing können Latenzzeiten verkürzt, Datenströme optimiert und Produktionsflüsse sowie Prozesse verbessert werden.

Schlüsseltechnologie für die Industrie 4.0

Im Industrie-4.0-Reifegradmodell der Acatech ist die Vorverarbeitung von Daten auf der 3. Stufe zu verorten: Sensoren erfassen eine Vielzahl an Datenpunkten und bilden damit Prozesse von Anfang bis Ende ab. Im nächsten Schritt werden die Daten sichtbar, die in der Vorverarbeitung nach ersten Relevanzkriterien analysiert werden. Die Erkenntnisse aus dieser Datenauswertung werden auf der 4. und 5. Stufe des Modells automatisiert in die Prozesse gespiegelt und finden dort Anwendung, um Wirkungszusammenhänge ableiten und die Prognosefähigkeit verstärken zu können (beispielsweise für Predictive Maintenance). Mobile Arbeitsmaschinen (Automated Guided Vehicles, Automated Guided Cars) beispielsweise nutzen das Edge Computing zur lokalen Datenanalyse und schicken nur Änderungsdaten in Echtzeit in die Cloud. Von dort erhalten sie weitere Aufgaben oder das Update für ihre Navigationsdaten.

Gateways zur Datenverwaltung nah an der Maschine

Bei der Integration eines IIoT müssen OT (Operational Technology) und IT (Informational Technology) zunehmend stärker miteinander verbunden werden. Hier kommt das Edge Gateway zum Einsatz. Die Ebenen Steuerung und Datenverarbeitung sowie die Schnittstelle zur Cloudebene können auf einem Gerät vereint werden. Diese Edge Gateways bündeln fünf wichtige Funktionalitäten: Daten, die aus der Maschine extrahiert werden, die Steuerung/HMI und die Datenvorverarbeitung beschreiben das eigentliche Edge Computing. Das Gateway übernimmt zusätzlich die Cloud-Anbindung und den Remote-Zugriff bis auf die Sensorebene. Die Komprimierung auf ein Gerät bedeutet Kostenersparnis, weniger Maintenance- und Ressourcen-Aufwand und mehr Platz im Schaltschrank. Die Anwender haben statt mehrerer nur einen Ansprechpartner für Steuerung, Cyber Security sowie die Datenverarbeitung. Letztere ist durch die Edge-Computing-Lösung unabhängig von der eigentlichen Prozessaufgabe der Maschine. Damit läuft die Maschine weiter, wenn die Cloud beziehungsweise Internetanbindung einmal ausfallen sollte. Die benötigten Daten werden in diesem Fall lokal zwischengespeichert und gesichert, bis sie wieder in die Cloud transferiert werden können. Durch die Vorverarbeitung bleiben Rohdaten außerdem bei der ursprünglichen Quelle. Unternehmenskritische oder sensible Daten sind leichter zu schützen, das Risiko des Datenmissbrauchs wird reduziert. Die prozessnahe Datenanalyse vereinfacht außerdem die vorausschauende Wartung und Qualitätssicherung. Dies verspricht neben der Erfüllung der Echtzeitanforderungen einen unmittelbaren, positiven Effekt auf die Produktivität.

Das könnte Sie auch interessieren

Der Nutzen neuer Technologien kommt nur dann zum Tragen, wenn diese von den Menschen mindestens toleriert, besser aber gesamtgesellschaftlich angenommen werden. Dafür braucht es Dialog und Möglichkeiten für gemeinsame Gestaltung. Welche Kommunikationsformate sich hierfür eignen und welche Wirkung sie bei den Beteiligten erzielen, das hat das Acatech-Projekt 'Technologischen Wandel gestalten' bei den Themen elektronische Patientenakte, digitale Verwaltung und Katastrophenschutz untersucht. Jetzt hat das Projektteam die Ergebnisse vorgelegt.‣ weiterlesen

Der Fachkräftemangel erfordert einen möglichst intelligenten und flexiblen Personaleinsatz. KI spielt dabei eine wichtige Rolle. Der Industriesoftware-Spezialist Augmentir zeigt sechs Ansatzmöglichkeiten auf.‣ weiterlesen

Eine aktuelle Studie von Reichelt Elektronik betrachtet den aktuellen Stand der Digitalisierung und stellt die Frage, wie Deutschland im Vergleich zu anderen europäischen Ländern abschneidet.‣ weiterlesen

Können Roboter dabei helfen, dem Fachkräftemangel in der Logistik-Branche Herr zu werden? Der Branchenverband IFR meint ja - und zwar mit Hilfe von Robotik, die durch künstliche Intelligenz unterstützt wird.‣ weiterlesen

Nach Angaben der Eclipse Foundation verzeichnete die IoT-Einführung im Jahr 2023 einen sprunghaften Anstieg. 64 Prozent der Befragten setzen mittlerweile entsprechende Lösungen ein - ein Plus von 11 Prozentpunkten.‣ weiterlesen

2023 blockierte Trend Micro mehr als 161 Milliarden Cyberbedrohungen weltweit - 10 Prozent mehr als im Jahr zuvor und fast 107 Milliarden mehr als noch vor fünf Jahren. Der Security-Spezialist berichtet zudem davon, dass Cyberkriminelle gezieltere Attacken setzen. Auch Cloud-Umgebungen rücken zunehmend in den Fokus.‣ weiterlesen

Künstliche Intelligenz (KI) lässt sich auch für die automatische Qualitätsüberwachung in Roboterschweißzellen nutzen. Oft fehlen hier jedoch Daten zum Trainieren und Ausführen der Algorithmen. Insbesondere für Bestandsanlagen existieren meist keine passenden Standardsysteme, da Geräte über uneinheitliche Datenmodelle und Schnittstellen verfügen. IoT-Baukästen können helfen.‣ weiterlesen

Ein Forschungsteam vom Fraunhofer IPA und vom Campus Schwarzwald hat eine Roboterzelle aufgebaut, die Brennstoffzellen in Sekundenschnelle und automatisiert stecken kann. Brennstoffzellensysteme könnten so günstiger werden und den Verbrenner im Schwerlastverkehr ablösen.‣ weiterlesen

Das Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA und das Technologieunternehmen Q.ANT haben einen Vertrag zur Gründung des Kompetenz-Zentrums Mensch-Maschine-Schnittstelle unterzeichnet.‣ weiterlesen

Der Digitale Zwilling einer Produktionsanlage ermöglicht die Simulation des Verhaltens aktueller Konfigurationen. Die Implementierung neuer Produktionskonfigurationen kann so bereits im Vorfeld getestet werden. Die Integration der benötigten Simulationsmodelle einzelner Komponenten ist jedoch mit Aufwand verbunden. Hier kann die Verwaltungsschale helfen.‣ weiterlesen

Logicalis veröffentlicht seinen zehnten Jahresbericht, basierend auf den Erfahrungen von 1.000 CIOs weltweit. Technologien wie Künstliche Intelligenz (KI) und neue Cyberbedrohungen dominieren darin die Prioritäten der CIOs.‣ weiterlesen