Interview mit Kai Schwab von Crosser

“Die zentrale Datenverarbeitung wird wichtiger”

Daten lesen, speichern und weiterleiten – darum geht es beim Thema Edge Analytics. Kai Schwab, Regional Sales Director DACH bei Crosser, erklärt im Gespräch mit dem INDUSTRIE 4.0 & IIoT-MAGAZIN, welche Use Cases dafür prädestiniert sind und warum eine zentrale Datenverarbeitung immer wichtiger wird.

 

(Bild: Crosser)

Auf welche Probleme treffen Sie bei Ihren Kunden bzw. in der Industrie allgemein? Welche Ziele verfolgen Ihre Kunden?
Kai Schwab: Bei unseren Kunden spielen zurzeit Kostensenkungen, organisatorische Herausforderungen wie Mitarbeitermangel und Innovationsdruck sowie technische Hürden in der Projektumsetzung eine tragende Rolle. Zunächst ein Satz zum Kostenthema. In einer Fabrik entstehen unglaublich viele Daten mit denen umgegangen werden muss. Gehen diese Datenmengen alle ungefiltert in die Cloud, entstehen sehr hohe Speicherkosten. Des Weiteren müssen Daten in die Cloud gelangen und dafür wird Bandbreite benötigt – das kostet ebenfalls Geld. Werden zusätzlich noch IoT-Services genutzt, entstehen weitere Kosten. Organisatorische Fragestellungen wären z.B. die Skalierbarkeit von Pilotprojekten. Auch fehlende IT-Ressourcen sind in diesem Zusammenhang ein wichtiges Thema, bei dem Edge Analytics helfen kann. Technische Aspekte wären etwa fehlende Bandbreiten oder zu hohe Latenzzeiten in der Cloud-Integration. Dazu kommen technische Anforderungen um OT-, IT- und Cloud-Daten zu konsolidieren und mit Kontext anzureichern. Diese Problemstellungen können Unternehmen mit Edge Analytics lösen.

Was ist Edge Analytics?
Schwab: Das Thema lässt sich u.a. drei Industrietypen zuordnen: Industrie 4.0, Maschinen im Feld /IIoT und Enterprise Integration. Die Edge definiert sich dabei als der Punkt, an dem die Daten entstehen. Das kann ein Sensor, eine Maschine, ein Gateway oder Industrie-PC sein. In aktuellen Projekten wird die Edge um die Endpunkte IT-Systeme (ERP, CRM, Datenbanken etc.) und die Cloud erweitert. Unter Analytics wird das Lesen, die Harmonisierung und die Transformation sowie die Anreicherung von Daten verstanden. Dies geht bis zu dem Punkt, an dem entschieden wird, ob die Daten in ein IT-System (ERP, CRM oder Datenbank etc.) oder eine Cloud übertragen oder direkt vor Ort, an der Edge, mit Hilfe eines KI-Modells verarbeitet werden.

Worin sehen Sie gängige Szenarien für Edge Analytics?
Schwab: Es geht bei den Edge-Analytics-Anwendungsfällen darum, Daten zu lesen, diese abzuspeichern und schließlich weiterzuleiten – einschließlich der Datenaggregation. Dadurch werden das Datenvolumen sowie die Anzahl der Transaktionen in die Cloud reduziert. Auch die Integration verschiedener Ebenen in der IT-Architektur ist denkbar, etwa wenn es darum geht ERP-Daten mitzuführen. Auch Maschine zu Maschine-Kommunikation ist ein spannender Anwendungsfall. Dabei geht es nicht nur darum, Maschinendaten zu erfassen, sondern Maschinen auch zu steuern bzw. Logik zu verteilen und KI-Modelle direkt an der Edge einzusetzen. Kamerabasierte Überwachung in der Produktion ist ein weiterer wichtiger Bereich, welcher zur Qualitätssicherung im Herstellungsprozess genutzt wird. Zusätzlich spielt das Thema Datensicherheit bei Unternehmen eine wichtige Rolle. Stellen Sie sich vor, Sie haben einen Lieferanten der Ihnen eine Maschine installiert und selbst Daten erfassen möchte. Dafür ist es wichtig festzulegen, welche Daten der Lieferant einsehen kann. Auf der anderen Seite möchten Maschinenbauer wiederum die Daten Ihrer Maschinen beim Kunden nutzen. Dies gilt es durch Edge Analytics zu steuern.

Was verbirgt sich hinter Crosser Cloud und Crosser Node?
Schwab: Die Crosser Node ist eine Software, welche nahe am Ort der Datenentstehung installiert ist. Sie ist hardware-agnostisch und wird in Containern ausgerollt. Die Software kann auch in der Cloud oder in einer virtuellen Maschine genutzt werden. Mit ihr wird Logik, also die Erhebung der Daten und deren weitere Verarbeitung, am Ort der Datenentstehung umgesetzt. Die Lösung ist modular aufgebaut und Anwender können aus einer Bibliothek bestehend aus Modulen die jeweilige Prozesslogik per Drag&Drop zusammensetzen. Die Konfiguration, das Testen, Verteilen und Überwachen erfolgt durch die Crosser Cloud. In die Crosser Cloud werden dabei keinerlei Transaktionsdaten übertragen. Ist die Konfiguration der Edge Node abgeschlossen, kann die Crosser Cloud von der Edge Node getrennt werden.

Gibt es darüber hinaus noch weitere technische Voraussetzungen?
Schwab: Überall dort wo Docker-Container oder Windows genutzt werden kann, kann die Crosser Edge Node eingesetzt werden. Darüber hinaus wird bei der Nutzung komplexer KI-Modelle mehr Rechenleistung an der Edge benötigt.

Mit ML-Ops bieten Sie die Möglichkeit, Machine Learning-Algorithmen einzubinden. Was verbirgt sich hinter dem Ansatz?
Schwab: Beim ML (Machine Learning) geht es darum, KI-Modelle zu trainieren. Dafür werden Daten in entsprechender Granularität und Qualität benötigt. Crosser bietet die Möglichkeit, die Daten vorzubereiten, um solche Modelle zu trainieren. Zusätzlich geht es auch um die Verteilung der Modelle: Ist das entsprechende ML-Modell vorhanden und muss auf Endpunkte verteilt werden, kann das natürlich aufwendig individuell pro Modell gemacht werden. Intelligenter ist es die Modelle zentral zu verwalten, zu verteilen und zu aktivieren. Dieser Mechanismus wird als ML-Ops bezeichnet und von Crosser bereitgestellt. Alternativ können Unternehmen auch KI-Werkzeuge anderer Hersteller mit entsprechenden Schnittstellen nutzen.

Wo sehen Sie die Vorteile von Edge Computing allgemein, und warum denken Sie wird der Edge-Ansatz auch in Zukunft relevant sein?
Schwab: Angesichts der aktuellen weltpolitischen Situation ist es wahrscheinlich, dass wir uns, was die Datenhoheit angeht, immer mehr abkapseln werden. Die zentrale Verarbeitung der Daten, möglichst vor Ort, wird wichtiger. Hat ein Unternehmen beispielsweise Standorte in den USA und China, stellt sich die Frage, wie diese Daten überhaupt verarbeitet werden dürfen. Es kann die Anforderung bestehen die Daten vor Ort zu betrachten und da bietet sich Edge Computing an.

Sie verfolgen mit Ihrer Lösung einen Low-Code-Ansatz. Warum dieser Ansatz, und wo sehen Sie Vor- bzw. Nachteile von Low Code/NoCode?
Schwab: Ein Vorteil von Low Code ist, dass im Normalfall kaum IT-Knowhow der Anwender notwendig ist. Zum anderen beobachten wir, dass es Unternehmen oft an IT-Ressourcen mangelt. Die Einbindung der Fachseite gemeinsam mit der IT ist damit ein entscheidender Erfolgsfaktor. Der Low-Code-Ansatz ist dafür perfekt geeignet. Beide Welten können zusammengeführt werden. Um darüber hinaus individuelles Coding zu ermöglichen, stellen wir bei Crosser deshalb Module bereit, bei denen Entwickler eigenen Programmiercode einbinden können. So können Unternehmen ihre individuell entwickelten Logiken integrieren und nach wie vor auch den etablierten DevOps-Prozess nutzen.

Wie sieht Ihre weitere Roadmap aus, speziell wenn es um die DACH-Region geht?
Schwab: Die Entwicklung unseres Partner Eco-Systems spielt eine zentrale Rolle. Alles selbst zu entwickeln ist bei den heutigen schnellen Veränderungen kaum mehr möglich. Es gibt Unternehmen am Markt, die versuchen, alles aus einer Hand anzubieten. Wir bei Crosser beobachten jedoch, dass dieses Vorgehen immer mehr auf Widerstand stößt. Deshalb kombinieren wir die Crosser Plattform flexibel mit unseren Hardware- und Servicedienstleistungspartnern. Was den Markt in der DACH-Region angeht, spielt das Thema Daten und deren Nutzung eine zentrale Rolle. Lange war es so, dass Unternehmen eine ‘Cloud-Only-Strategie’ verfolgt haben. Heute hingegen favorisieren Unternehmen immer mehr eine hybride Strategie, verfolgen also eine Cloud- Edge-Kombination. Darin sehe ich großes Potenzial für Crosser. Ein weiteres Feld sind Maschinenbauer, welche sich vom Hardwareanbieter hin zum Lösungsanbieter inkl. Software entwickeln wollen. Der vierte Bereich ist die Reduktion der Komplexität der Integration von Unternehmenssoftware. Dort brauchen Unternehmen einfache Lösungen um OT, IT und Cloud miteinander sprechen zu lassen. Da sehe ich in der Dach-Region eine Menge Potenzial.

Vielen Dank für das Gespräch!

Das könnte Sie auch interessieren

Data Sharing birgt großes Potenzial, wird aber kaum genutzt. Rechtssicherheit, gemeinsame Modelle und finanzielle Anreize könnten Unternehmen zum Teilen bewegen, so repräsentative eine ZEW-Studie mit 1.400 Firmen.‣ weiterlesen

Laut der Staufen-Studie 'Performance-Treiber 2024' gehen acht von zehn der mehr als 200 befragten Industrieunternehmen davon aus, dass die Einführung neuer Technologien für einen Produktivitätsschub sorgen wird. Vor allem in der Datenanalyse werden große Potenziale gesehen.‣ weiterlesen

Mehr als 700 Ingenieure und Entwickler geben in aktueller Protolabs-Studie Einblicke zu momentanen und künftigen Herausforderungen der Produktentwicklung. Demnach wissen Unternehmen mit Problemen wie etwa Materialknappheit umzugehen. Andere Einflussfaktoren wirken sich jedoch stärker aus.‣ weiterlesen

Das TCS Thought Leadership Institute hat rund fast 1.300 CEOs und Führungskräfte zum Thema künstliche Intelligenz befragt. Mehr als die Hälfte der Befragten glaubt demnach, dass die Bedeutung von KI größer oder gleich groß sein wird wie die des Internets (54 Prozent) und des Smartphones (59 Prozent). Um von den Effekten durch KI zu profitieren, müssen sich jedoch vielerorts auch Strukturen ändern.‣ weiterlesen

Deutsche und Schweizer C-Level Manager sehen besonders für das Homeoffice Handlungsbedarf, um dort in der Zukunft sensible Daten besser zu schützen. Die Österreicher halten Smart-Building-Technologien für anfällig. Dies zeigen die Ergebnisse einer Studie des Security-Spezialisten Sophos.‣ weiterlesen

Leistungsfähige Mikrochips sind entscheidend für den erfolgreichen Einsatz von künstlicher Intelligenz (KI). Das am Karlsruher Institut für Technologie koordinierte, vom Bundesforschungsministerium geförderte Projekt EDAI verfolgt einen neuen Ansatz: Die Forschenden koppeln den Entwurf von KI-Algorithmen und KI-Chips.‣ weiterlesen

Washtec produziert Autowaschtechnik für Kunden auf der ganzen Welt. Der Erfinder der Portalwaschanlage beschäftigt rund 1.800 Angestellte in mehr als 80 Ländern und hat mehr als zehntausend Waschanlagen an sein Kundenportal angeschlossen. Die anfallenden Daten werden dazu genutzt, den Anlagenbetrieb zu optimieren und neue Services zu ermöglichen.‣ weiterlesen

Was mit Produkten wie Siri oder Alexa für das eigene Zuhause bereits im Alltag angekommen ist, könnte auch in Produktionsumgebungen Mehrwerte schaffen - die Sprachsteuerung von Maschinen. Der Embedded-KI-Spezialist Aitad zeigt die Möglichkeiten auf.‣ weiterlesen

Der Forschungsbeirat Industrie 4.0 stellt mit seiner Engineering-Roadmap und den darin enthaltenen Themenblöcken einen Rahmen für konkrete Forschungsschwerpunkte der nächsten zehn Jahre vor. Im Mittelpunkt stehen vier Hauptthemen.‣ weiterlesen

Die SPS wird im nächsten Jahr (2025) vom 25. bis zum 27. November in Nürnberg stattfinden und somit wieder auf den seit vielen Jahren bekannten Zeitraum zurückkehren.‣ weiterlesen

Laut aktuellem Lagebild Cyberkriminalität sind Taten aus dem Ausland erneut gestiegen während solche aus dem Inland leicht rückläufig waren. Mehr als 800 Unternehmen haben 2023 einen Ransomwareangriff angezeigt, wobei von einer weitaus höheren Dunkelziffer ausgegangen wird.‣ weiterlesen