Alternativen zu proprietären Anwendungen

Die wichtigsten offenen IoT-Technologien

Die Nachfrage nach IoT-Lösungen wächst. Und eine Reihe von offenen Technologien wandert in den Standard-Werkzeugkasten produzierender Betriebe. Ein Überblick, der bei dem MQTT-Protokoll beginnt.

(Bild: © ©Gorodenkoff/stock.adobe.com)

Zu den wichtigsten IoT-Technologien gehört das MQTT-Protokoll, weil es den Umgang mit den verschiedenen Sensorentypen und Übertragungsprotokollen stark erleichtert. MQTT bietet eine einheitliche Payload-Spezifikation und macht daher die Integration von Sensoren viel einfacher. MQTT ist ein Defacto-Standard im IoT-Bereich. Grund ist, dass es sehr schnell, energieeffizient, skalierbar und auch bei unsicheren Verbindungen einsetzbar ist. Die Eclipse Sparkplug-Spezifikation bietet zudem einen Standard für ein einheitliches Datenschema. Sensoren können via Plug&Play angebunden werden, weil sie bei Beachtung der Spezifikation alle gleich behandelt werden.

Eclipse Mosquitto und HiveMQ sind die zwei häufigsten MQTT Broker. Welchen Broker man verwendet, ist abhängig vom Use Case und dem Umfang der verbundenen Sensoren. Von der Eclipse Foundation entwickelt, ist Mosquitto Broker eine leichtgewichtige Implementierung, die auf Servern wie auf Edge-Geräten ohne viel Rechenpower laufen kann. Oft wird sie in IoT-Plattformen eingebunden, damit Informationen über MQTT empfangen werden können. Beim Broker HiveMQ handelt es sich um einen enterprise-ready Broker. Im Gegensatz zu Eclipse Mosquitto lässt sich HiveMQ stärker skalieren und auch im Cluster-Betrieb einsetzen. Zudem gibt es HiveMQ Cloud für eine einfache Installation und Skalierung der Lösung. Verschiedene Erweiterungen bergen zusätzlichen Funktionsumfang, beispielsweise für den Transfer von Daten nach Apache Kafka.

Event Streaming-Plattform als Datenhub

Zu den wichtigen IoT-Technologien gehören auch Event Streaming-Plattformen. Als zentrale Informationshubs aggregieren und verwalten sie Daten aus unterschiedlichen Systemen und Streams. Das gilt für Daten von Sensoren und Informationen aus geschäftsrelevanten Quellen wie z.B. ERP- oder CRM-Systemen. Apache Kafka ist die am häufigsten eingesetzte Plattform und wie das MQTT-Protokoll Open Source. Kafka Cluster umfassen mehrere Broker und können bei zunehmenden Informationsmengen einfach skaliert werden. Die Persistierung der Informationen erfolgt dabei im Festplattenspeicher, sie können unbegrenzt vorgehalten werden.

Das System kann damit als Langzeitspeicher dienen, wenn beispielsweise Daten erneut an nachgelagerte Systeme geschickt werden müssen. Durch die Replikation der Daten lassen sich Ausfälle einzelner Broker-Knoten im Cluster auffangen und Datenverluste vermeiden. Kafka und MQTT ergänzen sich im IoT-Bereich sehr gut, weshalb sich in der Praxis ihre Verbindung bewährt hat. Wem das nicht reicht, dem bietet die Firma Confluent einen Service zur Beschleunigung der die Verwaltung und Skalierung eines Kafka Clusters (Cloud oder On-Premise). Die Lösung umfasst eine Management-Oberfläche sowie zahlreiche Konnektoren und Plug-Ins, welche die Integration verschiedener Datenquellen und APIs erleichtern. Kafka Streams erlauben die Zusammenführung von Daten aus mehreren Streams oder das Ausführen von Aggregationen. Durch die Abstraktionsebene KSQL können Verarbeitungslogiken in einer SQL-ähnlichen Syntax festgelegt werden. Ein Schema Registry ermöglicht das Hinterlegen von Schemata für Nachrichten, damit nur Daten mit validem Schema angenommen werden.

Anlagensteuerungen über OPC UA

OPC UA (OPC Unified Architecture) ist insbesondere im industriellen Kontext sehr verbreitet und ist ein Standard zum Datenaustausch. Eine Vielzahl von Anlagensteuerungen unterstützen dieses Protokoll der Datenübertragung und lassen sich damit auslesen. Bei der Anbindung von Daten von Produktionsanlagen sind Kriterien wie Performance, event-basierte Lesezugriffe und externe Schnittstellen relevant. Performance bedeutet, dass die Daten einerseits in hoher Frequenz ausgelesen werden müssen (gegebenenfalls in wenigen Millisekunden), andererseits dabei aber möglichst ressourcenschonend sein sollen, um nicht den operativen Betrieb der SPS zu beeinflussen. Das Auslesen von Daten erfolgt nur bei Events, damit Daten nur bei Wertänderungen gelesen werden oder im Fehlerfall Alarmmeldungen ausgelöst werden.

Bei den Wertänderungen kann es zusätzlich sinnvoll sein, nur Änderungen um definierte Prozentwerte zu senden, z.B. Deltas von mindestens 5 Prozent zum vorherigen Wert. Dies spart Bandbreite bei der Übertragung und damit Speicherplatz in den Datenbanken. Schnittstellen sind wichtig, um die Informationen nicht nur lesen, sondern auch optimal an nachgelagerte Systeme weiterreichen zu können. Idealerweise werden die Daten dabei über MQTT oder Kafka ausgeleitet. Drittsysteme können sich dann aus den Topics bedienen und die Daten verarbeiten. Eine sehr gute Lösung für die Anbindung der OPC-UA-Daten bildet das Tool OPC Router, das alle drei der beschriebenen Kriterien erfüllt. Es erlaubt die grafische Modellierung von Verarbeitungsketten zum Auslesen der OPC-UA-Bausteine. Über einen Datenbrowser können Letztere einfach ausgewählt werden und anschließend über definierte Trigger (Auslöser) abgefragt werden. Diese erlauben den Versand der Daten bei jeder Wertänderung, nur im Störfall oder bei bestimmten Deltas. Über zertifizierte Schnittstellen können die Daten dann performant an Apache Kafka und MQTT Broker weitergeleitet werden.

Das könnte Sie auch interessieren

Die MainDays 2024, die TAC in Kooperation mit Accenture ausrichtet, bieten vom 12. und 13. März in Berlin eine Plattform für Innovationen und Best Practices in der Instandhaltung. Teilnehmende erfahren, wie sie auch in einem herausfordernden Umfeld die Weichen ihrer Instandhaltung auf ‘Zukunft’ stellen. ‣ weiterlesen

In neuen Maschinen sind bereits zahlreiche Sensoren verbaut, die bei der Zustandsüberwachung helfen. Aber Neuanschaffungen sind oft keine Option. Doch auch ältere Maschinen können nachgerüstet und mittels Software überwacht werden. ‣ weiterlesen

Laufen Maschinen und Anlagen störungsfrei, verdienen sie Geld. Ausfälle können hingegen teuer werden. Die vorbeugende Instandhaltung (engl. Preventive Maintenance) trägt zur möglichst störungsfreien Produktion bei. ‣ weiterlesen

Viele Firmen haben eine gute Vorstellung, wo und wie sie IIoT-Technologien nutzen möchten. Doch Strategie und Planung sollten weiter reichen, denn mit künstlicher Intelligenz zeichnet sich längst eine weitere Etappe der digitalen Transformation ab. ‣ weiterlesen

Mit seinem Programm Integrated Digitization will Maschinenhersteller DMG Mori das Kerngeschäft um Automatisierungslösungen und IT-Angebote erweitern. Dafür sollen die Prozesse mit Kundenkontakt gestrafft und digitalisiert werden. Als digitales Backbone dient die Cloudplattform Microsoft Dynamics 365 Customer Engagement. ‣ weiterlesen

Bosch und Amazon Web Services (AWS) wollen gemeinsam die Digitalisierung in der Logistik vorantreiben und haben eine strategische Zusammenarbeit vereinbart.‣ weiterlesen

Digitalisierung ist kein Selbstzweck, Digitalisierung muss Mehrwerte schaffen. Dieses Leitbild von Eurogard korrespondiert mit dem Unternehmensprofil von Meba Metall-Bandsägemaschinen. Das Familienunternehmen legt gleichermaßen Wert auf Tradition und Wandel. Nachfolgende Skizzierung zeigt die schrittweise Umsetzung von Digitalisierungslösungen und die dadurch entstehenden Mehrwerte für den Maschinenhersteller und dessen Kunden. ‣ weiterlesen

Um Produktionsdaten per Manufacturing Execution System auswerten zu können, müssen die Daten aus der Maschine in das System gelangen – bei alten Maschinen ein Problem. Doch Fertiger können sich nicht einfach einen neuen Maschinenpark anlegen. Der Retrofit-Ansatz kann dabei helfen, auch älteren Maschinen Daten zu entlocken. ‣ weiterlesen

Mit gutem Service können sich Firmen von der Konkurrenz abheben. Dafür müssen die Mitarbeiter schnell auf relevante Daten zugreifen können und der Kunde an allen Touchpoints gute Erfahrungen machen. Wissensdatenbanken, künstliche Intelligenz sowie unterschiedliche Supportkanäle helfen, das angestrebte Servicelevel zu erreichen.‣ weiterlesen

Unternehmen aller Branchen sehen sich mit den katastrophalen Auswirkungen der COVID-19-Pandemie konfrontiert. Industrien, die ihren End-to-End-Betrieb erfolgreich in einer virtuellen Umgebung managen, haben dabei einen deutlichen Vorteil – und damit bessere Chancen, die Krise zu überstehen und zu wachsen. Insbesondere die Fertigungsbranche hat hier Nachholbedarf. Doch um sich in der „neuen Normalität“ wettbewerbs- und zukunftsfähig aufzustellen, muss die Branche holistische operative Ansätze sowie Notfallpläne implementieren, um einen sicheren Betrieb zu gewährleisten.‣ weiterlesen