Produktionsdaten vorverarbeiten

Edge Computing im eigenen IoT-Framework

Sorgen sich Unternehmen bei der Analyse ihrer steigenden Datenmengen um Performance und IT-Sicherheit, sollten sie sich das Edge Computing-Konzept anschauen. Denn diese Zwischenschicht entlastet Netzwerke und anonymisiert Daten für ihre rechtssichere Cloud-Verarbeitung.

Künstliche Intelligenz braucht meist noch große Datenmengen, aus denen sie lernen kann. Wenn das Industrial Internet of Things (IIoT) im Maschinen- und Anlagenbau heute Daten am laufenden Band produziert, werden diese deshalb oft mittels KI in der Public Cloud ausgewertet. Denn der Speicherung großer Datenmengen dort sind allenfalls finanzielle Grenzen gesetzt, zudem gibt es Out-of-the-Box-Lösungen für KI in der Cloud. Zwei Gründe lassen viele Unternehmen gleichwohl zögern. Sie sind zum einen rechtlicher Natur: Es gibt eine Reihe von Geschäftsprozessen, bei denen sich eine Datenauslagerung in die Cloud aus Governance-Gründen verbietet. IIoT-Daten beherbergen Intellectual Property, das heißt Wissen über Produkte und Produktionsverfahren, welches Geheimhaltungspflichten unterliegt. Das zweite Problem ist technischer Natur und hängt zusammen mit den immer höheren Datenvolumina. Generiert eine Anlage Tausende von Datenpunkten im Millisekunden-Bereich, wird eine Echtzeitverarbeitung in der Cloud aus Latenzgründen immer schwieriger.

Rechtssicher anonymisieren

Edge Computing bietet sich hier als Lösung an. Ein Edge-Device kann Daten für den Versand in die Cloud vorbereiten. Diese On-premises-Lösung auf dem Edge, also nahe an den Datenerzeugern installiert, bietet meist Funktionen für Analytik, Vorverarbeitung und dezentrale Rechenleistung, die sich mit der Cloud zusammenschalten lässt. Findet Edge Computing in Cloudnähe statt, spricht man von Near Edge, bei Maschinennähe von Far Edge. In diesem Edge-Cloud-Kontinuum lassen sich skalierbare Architekturen einrichten. IoT-Daten werden am Edge so aggregiert und anonymisiert, dass sie in der Cloud verwendet werden können – das ist der rechtliche Aspekt.

Voraussetzung dafür sind Konnektoren zwischen Edge und Cloud zur Datenübertragung sowie Datenmodelle, die auf beiden Seiten Datenintegration unterstützen. Was die technischen Vorteile angeht, lassen sich durch neue und skalierbare Technologien auch hohe Datenvolumina am Edge ohne Latenzprobleme bearbeiten. Echtzeitanalysen werden möglich. Eine Warnung, dass die Maschine aufgrund Überschreitens kritischer Grenzen in wenigen Minuten ausfallen könnte, wird schnellstmöglich visualisiert, ebenso wie der sofortige Produktionsstopp etwa im Rahmen einer datenbasierten Qualitätskontrolle, die jedes einzelne Werkstück unmittelbar nach seiner Herstellung zur Prüfung vorsieht.

Künstliche Intelligenz optional

Für das Aufbereiten der Daten (Aggregation, Anonymisierung und Analyse) wird keine künstliche Intelligenz benötigt. X-Integrate etwa verfolgt den Lösungsansatz Data in Motion. Damit können Maschinen-Sensordaten in nahezu Echtzeit erfasst, vorverarbeitet und analysiert werden. Auf der anderen Seite werden beim ‘Data at Rest’-Ansatz zusätzlich Rohdaten oder bereits vorverarbeitete Daten zur Prozessdokumentation, für nachgelagerte oder komplexe Analysen in Verbindung mit an anderer Stelle erhobenen Daten gespeichert. Letztere dienen auch als Input für unüberwachtes Machine Learning zur Mustererkennung sowie für überwachtes Lernen zur Ableitung von Prognosen für unbekannte Daten.

Inzwischen gibt es auch Algorithmen, die ein verstärkendes Lernen ‘on Edge’ erlauben und durch die Interaktion mit der Umgebung zur Modelloptimierung beitragen. Hiervon profitieren insbesondere weitgehend abgeschottete Edge-Umgebungen, die auch längerfristig cloud-unabhängig funktionieren müssen. Aktuelle Edge-Lösungen sind vergleichsweise einfach skalierbar, da Producer-Bestandteile zur Datenaufnahme, Analytics-Komponenten sowie Consumer-Komponenten (zum Ausleiten der Daten) containerisiert verfügbar sind. Das erleichtert die anwendungsspezifische Zusammenstellung der Systemkomponenten. So lässt sich auf Basis von Open-Source-Applikationen eine Alternative zu den IoT-Frameworks kommerzieller Anbieter schaffen, die einen schnellen und kostengünstigen Einstieg in die IoT-Welt und somit in digitale Geschäftsmodelle verspricht.

Das könnte Sie auch interessieren

Im Juli 2023 ist die neue EU-Maschinenverordnung in Kraft getreten. Ab dann bleiben noch 42 Monate, um die neuen Vorgaben anzuwenden. Welche securityrelevanten Aspekte dabei von Bedeutung sind, zeigt der folgende Beitrag. ‣ weiterlesen

So wie Hacker verstärkt künstliche Intelligenz in ihre Angriffe integrieren, dürften auch Security-Ansätze häufiger von KI profitieren. Ob generative KI im Sinn von ChatGPT und Dall-E das Identitäts- und Zugangsmanagement verändern könnte,
behandelt Dirk Decker (Bild) von Ping Identity im Meinungsbeitrag. Vorneweg: Sie wird es – aber in einigen Jahren.
‣ weiterlesen

Trend Micro hat seinen Sicherheitslagebericht zur Jahresmitte vorgestellt. Demnach wird generative künstliche Intelligenz immer mehr zur Bedrohung. Auch Linux-Systeme werden häufiger angegriffen.‣ weiterlesen

Der Ausbau von 5G-Netzen in Deutschland schreitet voran. Für Unternehmen verspricht der Funkstandard mehr Flexibilität, Produktivität, Sicherheit und Nachhaltigkeit. In dem Forschungsprojekt 5G4Me untersuchen Forscher des International Performance Research Institutes (IPRI), wie sich die Mobilfunktechnologie auf kleine und mittlere Unternehmen der verarbeitenden Industrie auswirkt. ‣ weiterlesen

Laut einer aktuellen Studie des TÜV-Verbands waren 11 Prozent der teilnehmenden Unternehmen im vergangenen Jahr von IT-Sicherheitsvorfällen betroffen. Der Krieg in der Ukraine aber auch digitale Trends erhöhen die Risiken. Zu den häufigsten Angriffsmethoden zählen Phishing und Erpressungssoftware.‣ weiterlesen

Welchen Gefahren sind Unternehmen Kritischer Infrastrukturen (KRITIS) derzeit ausgesetzt? Wo liegen ihre größten Herausforderungen? Und welche Rolle spielen Systeme zur Angriffserkennung dabei? Um diese und weitere Fragen zu beantworten, hat das Research- und Beratungsunternehmen Techconsult im Auftrag der Secunet Security Networks AG mehr als 120 Kritis-Unternehmen befragt.‣ weiterlesen

Machine Learning oder adaptive Prozesse: Auftakt jeder Digitalisierungsoffensive in der Industrie ist die Datenanalyse mit Hilfe passgenauer Sensorik. Das Fraunhofer-Institut für Produktionstechnologie IPT aus Aachen stellt zu diesem Zweck ab sofort mit ‘MySensor’ ein kostenloses Konfigurationstool zur Verfügung, mit dem Unternehmen ihr Sensorik-System per Weboberfläche zusammenstellen können. Es soll als Basis dienen, um mit Expertinnen und Experten in die ausführliche Analyse individueller Anforderungen zu gehen.
‣ weiterlesen

Edge ist nicht gleich Edge: Für unterschiedliche Einsatzzwecke haben Unternehmen die Wahl zwischen mehreren Varianten der dezentralen Datenverarbeitung. Couchbase, Anbieter einer Datenmanagement-Plattform, zeigt die fünf verschiedenen Typen des Edge-Computings. ‣ weiterlesen

Cyberattacken gelten als Bedrohung Nummer 1 für Unternehmen. Umso wichtiger ist es, auf mögliche Vorfälle vorbereitet zu sein. Dadurch kann im Ernstfall der Umgang mit der Krise leichter fallen. Welche Punkte es dabei zu beachten gilt, beleuchten Johannes Fischer und Joshija Kelzenberg von Crunchtime Communications.‣ weiterlesen

Splunk prognositiziert für das nächste Jahr, dass Cyberkriminelle neben zunehmenden Ransomware-Attacken u.a. auch Deepfakes für Angriffe zum Einsatz kommen werden. Der Datenspezialist rechnet ferner damit, dass die Rollen von CTO und CISO an Bedeutung gewinnen.‣ weiterlesen

Nach den großen Ransomware-Wellen und den weitreichenden Veränderungen in den IT-Landschaften durch die COVID19-Pandemie führen nun auch die geopolitischen Folgen des Ukraine-Kriegs dazu, dass viele Organisationen erneut Anpassungen an ihrer Cyberverteidigung vornehmen müssen. Den geplanten Maßnahmen zur Optimierung der Security-Landschaft stehen allerdings zahlreiche gewichtige Herausforderungen entgegen, denen Unternehmen dringend Aufmerksamkeit widmen müssen.‣ weiterlesen