Interview mit Kai Schwab von Crosser

“Die zentrale Datenverarbeitung wird wichtiger”

Daten lesen, speichern und weiterleiten – darum geht es beim Thema Edge Analytics. Kai Schwab, Regional Sales Director DACH bei Crosser, erklärt im Gespräch mit dem INDUSTRIE 4.0 & IIoT-MAGAZIN, welche Use Cases dafür prädestiniert sind und warum eine zentrale Datenverarbeitung immer wichtiger wird.

 

(Bild: Crosser)

Auf welche Probleme treffen Sie bei Ihren Kunden bzw. in der Industrie allgemein? Welche Ziele verfolgen Ihre Kunden?
Kai Schwab: Bei unseren Kunden spielen zurzeit Kostensenkungen, organisatorische Herausforderungen wie Mitarbeitermangel und Innovationsdruck sowie technische Hürden in der Projektumsetzung eine tragende Rolle. Zunächst ein Satz zum Kostenthema. In einer Fabrik entstehen unglaublich viele Daten mit denen umgegangen werden muss. Gehen diese Datenmengen alle ungefiltert in die Cloud, entstehen sehr hohe Speicherkosten. Des Weiteren müssen Daten in die Cloud gelangen und dafür wird Bandbreite benötigt – das kostet ebenfalls Geld. Werden zusätzlich noch IoT-Services genutzt, entstehen weitere Kosten. Organisatorische Fragestellungen wären z.B. die Skalierbarkeit von Pilotprojekten. Auch fehlende IT-Ressourcen sind in diesem Zusammenhang ein wichtiges Thema, bei dem Edge Analytics helfen kann. Technische Aspekte wären etwa fehlende Bandbreiten oder zu hohe Latenzzeiten in der Cloud-Integration. Dazu kommen technische Anforderungen um OT-, IT- und Cloud-Daten zu konsolidieren und mit Kontext anzureichern. Diese Problemstellungen können Unternehmen mit Edge Analytics lösen.

Was ist Edge Analytics?
Schwab: Das Thema lässt sich u.a. drei Industrietypen zuordnen: Industrie 4.0, Maschinen im Feld /IIoT und Enterprise Integration. Die Edge definiert sich dabei als der Punkt, an dem die Daten entstehen. Das kann ein Sensor, eine Maschine, ein Gateway oder Industrie-PC sein. In aktuellen Projekten wird die Edge um die Endpunkte IT-Systeme (ERP, CRM, Datenbanken etc.) und die Cloud erweitert. Unter Analytics wird das Lesen, die Harmonisierung und die Transformation sowie die Anreicherung von Daten verstanden. Dies geht bis zu dem Punkt, an dem entschieden wird, ob die Daten in ein IT-System (ERP, CRM oder Datenbank etc.) oder eine Cloud übertragen oder direkt vor Ort, an der Edge, mit Hilfe eines KI-Modells verarbeitet werden.

Worin sehen Sie gängige Szenarien für Edge Analytics?
Schwab: Es geht bei den Edge-Analytics-Anwendungsfällen darum, Daten zu lesen, diese abzuspeichern und schließlich weiterzuleiten – einschließlich der Datenaggregation. Dadurch werden das Datenvolumen sowie die Anzahl der Transaktionen in die Cloud reduziert. Auch die Integration verschiedener Ebenen in der IT-Architektur ist denkbar, etwa wenn es darum geht ERP-Daten mitzuführen. Auch Maschine zu Maschine-Kommunikation ist ein spannender Anwendungsfall. Dabei geht es nicht nur darum, Maschinendaten zu erfassen, sondern Maschinen auch zu steuern bzw. Logik zu verteilen und KI-Modelle direkt an der Edge einzusetzen. Kamerabasierte Überwachung in der Produktion ist ein weiterer wichtiger Bereich, welcher zur Qualitätssicherung im Herstellungsprozess genutzt wird. Zusätzlich spielt das Thema Datensicherheit bei Unternehmen eine wichtige Rolle. Stellen Sie sich vor, Sie haben einen Lieferanten der Ihnen eine Maschine installiert und selbst Daten erfassen möchte. Dafür ist es wichtig festzulegen, welche Daten der Lieferant einsehen kann. Auf der anderen Seite möchten Maschinenbauer wiederum die Daten Ihrer Maschinen beim Kunden nutzen. Dies gilt es durch Edge Analytics zu steuern.

Was verbirgt sich hinter Crosser Cloud und Crosser Node?
Schwab: Die Crosser Node ist eine Software, welche nahe am Ort der Datenentstehung installiert ist. Sie ist hardware-agnostisch und wird in Containern ausgerollt. Die Software kann auch in der Cloud oder in einer virtuellen Maschine genutzt werden. Mit ihr wird Logik, also die Erhebung der Daten und deren weitere Verarbeitung, am Ort der Datenentstehung umgesetzt. Die Lösung ist modular aufgebaut und Anwender können aus einer Bibliothek bestehend aus Modulen die jeweilige Prozesslogik per Drag&Drop zusammensetzen. Die Konfiguration, das Testen, Verteilen und Überwachen erfolgt durch die Crosser Cloud. In die Crosser Cloud werden dabei keinerlei Transaktionsdaten übertragen. Ist die Konfiguration der Edge Node abgeschlossen, kann die Crosser Cloud von der Edge Node getrennt werden.

Gibt es darüber hinaus noch weitere technische Voraussetzungen?
Schwab: Überall dort wo Docker-Container oder Windows genutzt werden kann, kann die Crosser Edge Node eingesetzt werden. Darüber hinaus wird bei der Nutzung komplexer KI-Modelle mehr Rechenleistung an der Edge benötigt.

Mit ML-Ops bieten Sie die Möglichkeit, Machine Learning-Algorithmen einzubinden. Was verbirgt sich hinter dem Ansatz?
Schwab: Beim ML (Machine Learning) geht es darum, KI-Modelle zu trainieren. Dafür werden Daten in entsprechender Granularität und Qualität benötigt. Crosser bietet die Möglichkeit, die Daten vorzubereiten, um solche Modelle zu trainieren. Zusätzlich geht es auch um die Verteilung der Modelle: Ist das entsprechende ML-Modell vorhanden und muss auf Endpunkte verteilt werden, kann das natürlich aufwendig individuell pro Modell gemacht werden. Intelligenter ist es die Modelle zentral zu verwalten, zu verteilen und zu aktivieren. Dieser Mechanismus wird als ML-Ops bezeichnet und von Crosser bereitgestellt. Alternativ können Unternehmen auch KI-Werkzeuge anderer Hersteller mit entsprechenden Schnittstellen nutzen.

Wo sehen Sie die Vorteile von Edge Computing allgemein, und warum denken Sie wird der Edge-Ansatz auch in Zukunft relevant sein?
Schwab: Angesichts der aktuellen weltpolitischen Situation ist es wahrscheinlich, dass wir uns, was die Datenhoheit angeht, immer mehr abkapseln werden. Die zentrale Verarbeitung der Daten, möglichst vor Ort, wird wichtiger. Hat ein Unternehmen beispielsweise Standorte in den USA und China, stellt sich die Frage, wie diese Daten überhaupt verarbeitet werden dürfen. Es kann die Anforderung bestehen die Daten vor Ort zu betrachten und da bietet sich Edge Computing an.

Sie verfolgen mit Ihrer Lösung einen Low-Code-Ansatz. Warum dieser Ansatz, und wo sehen Sie Vor- bzw. Nachteile von Low Code/NoCode?
Schwab: Ein Vorteil von Low Code ist, dass im Normalfall kaum IT-Knowhow der Anwender notwendig ist. Zum anderen beobachten wir, dass es Unternehmen oft an IT-Ressourcen mangelt. Die Einbindung der Fachseite gemeinsam mit der IT ist damit ein entscheidender Erfolgsfaktor. Der Low-Code-Ansatz ist dafür perfekt geeignet. Beide Welten können zusammengeführt werden. Um darüber hinaus individuelles Coding zu ermöglichen, stellen wir bei Crosser deshalb Module bereit, bei denen Entwickler eigenen Programmiercode einbinden können. So können Unternehmen ihre individuell entwickelten Logiken integrieren und nach wie vor auch den etablierten DevOps-Prozess nutzen.

Wie sieht Ihre weitere Roadmap aus, speziell wenn es um die DACH-Region geht?
Schwab: Die Entwicklung unseres Partner Eco-Systems spielt eine zentrale Rolle. Alles selbst zu entwickeln ist bei den heutigen schnellen Veränderungen kaum mehr möglich. Es gibt Unternehmen am Markt, die versuchen, alles aus einer Hand anzubieten. Wir bei Crosser beobachten jedoch, dass dieses Vorgehen immer mehr auf Widerstand stößt. Deshalb kombinieren wir die Crosser Plattform flexibel mit unseren Hardware- und Servicedienstleistungspartnern. Was den Markt in der DACH-Region angeht, spielt das Thema Daten und deren Nutzung eine zentrale Rolle. Lange war es so, dass Unternehmen eine ‘Cloud-Only-Strategie’ verfolgt haben. Heute hingegen favorisieren Unternehmen immer mehr eine hybride Strategie, verfolgen also eine Cloud- Edge-Kombination. Darin sehe ich großes Potenzial für Crosser. Ein weiteres Feld sind Maschinenbauer, welche sich vom Hardwareanbieter hin zum Lösungsanbieter inkl. Software entwickeln wollen. Der vierte Bereich ist die Reduktion der Komplexität der Integration von Unternehmenssoftware. Dort brauchen Unternehmen einfache Lösungen um OT, IT und Cloud miteinander sprechen zu lassen. Da sehe ich in der Dach-Region eine Menge Potenzial.

Vielen Dank für das Gespräch!

Das könnte Sie auch interessieren

Vom 22. bis zum 26. April wird Hannover zum Schaufenster für die Industrie. Neben künstlicher Intelligenz sollen insbesondere Produkte und Services für eine nachhaltigere Industrie im Fokus stehen.‣ weiterlesen

Eine Umfrage von Hewlett Packard Enterprise (HPE) unter 400 Führungskräften in Industrie-Unternehmen in Deutschland zeigt, dass zwei Drittel der Befragten den Data Act als Chance wahrnehmen. Der Data Act stieß unter anderem bei Branchenverbänden auf Kritik.‣ weiterlesen

Carbon Management-Technologien stehen im Fokus, um CO2-Emissionen zu reduzieren und zu managen. Die Rolle des Maschinenbaus und mögliche Entwicklungspfade betrachtet eine neue Studie des VDMA Competence Center Future Business.‣ weiterlesen

Deutsche Unternehmen nehmen eine zunehmende Bedrohung durch Cyber-Angriffe wahr. Das zeigt eine aktuelle Umfrage vom Markt- und Meinungsforschungsinstitut YouGov im Auftrag von 1&1 Versatel, an der mehr als 1.000 Unternehmensentscheider teilnahmen.‣ weiterlesen

Hohe Geschwindigkeit und hohe Erkennungsraten sind die Anforderungen an die Qualitätskontrolle in der Verpackungsbranche. Wie diese Anforderungen erreicht werden können, zeigt das Unternehmen Inndeo mit einem Automatisierungssystem auf Basis von industrieller Bildverarbeitung und Deep Learning.‣ weiterlesen

Laut einer Studie der Unternehmensberatung Bain & Company könnten Unternehmen ihre Produktivität durch digitale Tools, Industrie 4.0-Technologien und Nachhaltigkeitsmaßnahmen steigern. Deren Implementierung von folgt oft jedoch keiner konzertierten Strategie.‣ weiterlesen

Jeder zweite Betrieb investiert laut einer Betriebsräte-Befragung der IG Metall zu wenig am Standort. Demnach verfügen rund 48 Prozent der Unternehmen über eine Transformationsstrategie. Zudem sehen die Betriebsräte ein erhöhtes Risiko für Verlagerungen.‣ weiterlesen

Ziel des neuen VDMA-Forums Manufacturing-X ist es, der zunehmenden Bedeutung von Datenräumen als Basis für neue, digitale Geschäftsmodelle Rechnung zu tragen. Wie der Verband mitteilt, soll das Forum auf dem aufbauen, was in der letzten Dekade durch das VDMA-Forum Industrie 4.0 erarbeitet wurde. ‣ weiterlesen

Ob es sich lohnt, ältere Maschinen mit neuen Sensoren auszustatten, ist oft nicht klar. Im Projekt 'DiReProFit' wollen Forschende dieses Problem mit künstlicher Intelligenz zu lösen.‣ weiterlesen

Wie kann eine Maschine lernen, sich in unserer Lebenswelt visuell zu orientieren? Mit dieser Frage setzen sich die Wissenschaftler am Deutschen Forschungsinstitut für Künstliche Intelligenz (DFKI) aktuell auseinander – und entwickeln Lösungen.‣ weiterlesen

Die seit 2020 geltende staatliche Forschungszulage etabliert sich im deutschen Maschinen- und Anlagenbau mehr und mehr als Instrument der Forschungsförderung. Ein wachsender Anteil der Unternehmen nutzt die Forschungszulage. Besonders geschätzt werden die verbesserten Finanzierungsmöglichkeiten sowie der erleichterte Zugang zur staatlichen Förderung von Forschung und Entwicklung (FuE).‣ weiterlesen