KI vereinfacht Generierung von Software-Sensoren

Virtuelle Sensoren

Ansätze wie Industrie 4.0 und Smart Production leben von Daten zum Zustand von Maschinen und Produktionsabläufen. Erfasst werden diese Daten über verschiedenste Sensoren. Wo das nicht möglich ist, bieten sich Software-Sensoren an. Deren Erstellung war bislang zeit- und datenaufwändig sowie teuer. Ein neuer KI-Ansatz hat den Prozess nun deutlich vereinfacht.

(©Bild: greenbutterfly/AdobeStock)

Derzeit dominieren Schlagwörter wie Künstliche Intelligenz (KI), Internet of Things (IoT) und Big Data die Diskussion um die Zukunft der Produktion. Diese Technologien bilden die Basis für Trends wie Industrie 4.0, Smart Production und die Smart Factory, bei denen es im Kern um die intelligente und ganzheitliche Vernetzung der gesamten Produktionskette geht. Laut einer Studie von Microsoft führen 88 Prozent der Befragten bereits eigene IoT-Projekte durch, 92 Prozent davon sind überzeugt, dass IoT entscheidend für den Geschäftserfolg ist. IoT lebt wie alle Digitalisierungsprojekte von Daten, die, eingehend ausgewertet und analysiert, die Basis für Entscheidungen über die Art und Weise des weiteren Ablaufs der Produktion liefern. Dazu greifen Sensoren umfassende Daten zum Zustand der Maschinen und zum Ablauf der Produktionsprozesse ab, d.h. liefern ein Bild davon, was sich in der Anlage abspielt. Meist handelt es sich dabei um real existierende Sensoren, die, an den neuralgischen Punkten der Anlagen und Maschinen angebracht, Daten zu den verschiedensten Aspekten liefern. Das können Parameter wie Temperatur, Druck, (Fließ-)Geschwindigkeit, Beschleunigung sowie Werte zu Drehzahl, Schaltzustand, Position oder auch Schall sein.

Software-Sensoren

Der Einsatz physischer Sensoren kann aber durchaus fehleranfällig, oder aufgrund baulicher Gegebenheiten schlicht nicht möglich oder kostspielig sein. Zudem können viele Werte auch nur im Labor ermittelt werden. Beispiele dafür sind etwa Aspekte der Materialeigenschaften und damit der Qualität des Endproduktes. Solche Angaben liegen daher erst mit einer erheblichen Zeitverzögerung vor und können so nur begrenzt zur Steuerung der aktuellen Produktion beitragen. Die Lösung hierfür sind Software-Sensoren, oft auch als virtuelle Sensoren bezeichnet. Diese können auf Basis der von physischen Sensoren generierten Daten wie etwa Temperatur, Druck, oder Flüsse, sowie anderweitig verfügbarer, den Prozess beeinflussenden Parameter abhängige Größen vorhersagen, d.h. reale Sensorwerte, Labormesswerte oder nicht direkt messbare Größen wie Qualität, Lebensdauer oder anderes. Hierzu nutzen Software-Sensoren so genannte Vorhersagemodelle. Damit quantifizieren sie die Auswirkungen der Messgrößenauf die Zielgröße. Sie können außerdem durch einen erneuten Lernprozess der Modelle leicht an Veränderungen in der Systemumgebung angepasst werden.

Bislang daten-, zeit- und kostenaufwändig

Warum aber setzen sich Software-Sensoren trotz dieser Vorteile nur schleppend durch und warum schrecken viele Unternehmen vor deren Einsatz noch zurück? Der Grund: Der Aufbau der zugrundeliegenden Vorhersagemodelle erfordert in der Regel sehr große Datenmengen und nimmt viel Zeit in Anspruch. Darüber hinaus erfordert er manuelle Eingriffe und eine intensive Beteiligung von Data Scientists mit Fachkenntnissen. So müssen beispielsweise Daten synchronisiert und bereinigt werden, sowie Beziehungen zwischen Daten extrahiert, Ursachen von Vorkommnissen analysiert und auf Basis von Zeitreihen ein Vorhersagemodell erstellt werden. Verwendet man etwa neuronale Netze als Grundlage, muss zunächst das richtige Design gefunden und anschließend aufwändig trainiert werden. All dies machte die Erstellung von SoftwareSensoren zeit- und kostenaufwändig. Zudem können konventionelle datenwissenschaftliche Methoden in vielen Fällen industrielle Anforderungen nur unzureichend erfüllen, etwa, wenn es um komplexe Sensorik-Umgebungen mit mehreren 1.000 Signalen geht und schnelle Ergebnisse gefordert sind.

Das könnte Sie auch interessieren

Werkzeugbahnen für Zerspanprozesse in CAM-Systemen zu planen erfordert Expertenwissen. Viele Parameter müssen bestimmt und geprüft werden, um die Bahnplanung Schritt für Schritt zu optimieren. Im Projekt CAMStylus arbeiten die Beteiligten daran, diese Aufgabe zu vereinfachen - per KI-gestützter Virtual-Reality-Umgebung.‣ weiterlesen

AappliedAI hat vier KI Use Cases identifiziert, die es dem produzierenden Gewerbe ermöglichen, ihre Effizienz und Produktivität zu steigern. Mit der Anwendung bewährter Technologien können sich die Investitionen bereits nach einem Jahr amortisieren.‣ weiterlesen

Hinter jedem erfolgreichen Start-up steht eine gute Idee. Bei RockFarm sind es gleich mehrere: Das Berliner Unternehmen baut nachhaltige Natursteinmauern aus CO2 bindendem Lavagestein. Oder besser gesagt, es lässt sie bauen - von einem Yaskawa-Cobot HC10DTP.‣ weiterlesen

In einer Studie von Techconsult in Zusammenarbeit mit Grandcentrix wurden 200 Unternehmen ab 250 Beschäftigten aller Branchen zum Thema ESG in ihren Unternehmen befragt. Die Studie hebt die zentrale Rolle der jüngsten CSR-Direktive der EU bei der Förderung von Transparenz und Nachhaltigkeit in Unternehmen hervor. Dabei beleuchtet sie die Fortschritte und Herausforderungen bei der Umsetzung von Umwelt-, Sozial- und Unternehmensführungskriterien (ESG) im Zusammenhang mit der Nutzung von IoT-Technologien.‣ weiterlesen

Mit über 2,2Mio.t verarbeitetem Schrott pro Jahr ist die Swiss Steel Group einer der größten Recyclingbetriebe Europas. Für seinen 'Green Steel', also Stahl aus recyceltem Material, arbeitet das Unternehmen an einem digitalen Zwilling des ankommenden Schrotts.‣ weiterlesen

Laut einer aktuellen Studie von Hitachi Vantara betrachten fast alle der dafür befragten Unternehmen GenAI als eine der Top-5-Prioritäten. Aber nur 44 Prozent haben umfassende Governance-Richtlinien eingeführt.‣ weiterlesen

61 Prozent der Unternehmen in Deutschland wollen laut einer Bitkom-Befragung per Cloud interne Prozesse digitalisieren, vor einem Jahr waren es nur 45 Prozent. Mittelfristig wollen die Unternehmen mehr als 50 Prozent ihrer Anwendungen in die Cloud verlagern.‣ weiterlesen

Mit generativer KI erlebt 'Right Brain AI', also eine KI, die kreative Fähigkeiten der rechten menschlichen Gehirnhälfte nachahmt, derzeit einen rasanten Aufstieg. Dieser öffnet aber auch die Tür für einen breiteren Einsatz von eher analytischer 'Left Brain AI'. Das zeigt eine aktuelle Studie von Pegasystems.‣ weiterlesen

Um klima- und ressourcengerechtes Bauen voranzubringen, arbeiten Forschende der Bergischen Universität Wuppertal in ihrem Projekt TimberConnect an der Optimierung von digitalen Prozessen entlang der Lieferkette von Holzbauteilen. Ihr Ziel ist unter anderem, digitale Produktpässe zu erzeugen.‣ weiterlesen

Rund zwei Drittel der Erwerbstätigen in Deutschland verwenden ChatGPT und Co. zumindest testweise, 37 Prozent arbeiten regelmäßig mit KI-Anwendungen. Doch auch Cyberkriminelle machen sich vermehrt die Stärken künstlicher Intelligenz zunutze - mit weitreichenden Folgen.‣ weiterlesen

Erstmals seit der Energiekrise verzeichnet der Energieeffizienz-Index der deutschen Industrie mit allen drei Teilindizes (die Bedeutung, Produktivität und Investitionen betreffend) einen leichten Rückgang. Mögliche Gründe erkennt EEP-Institutsleiter Professor Alexander Sauer in der Unsicherheit und der drohenden Rezession, der dadurch getriebenen Prioritätenverschiebung und der Reduktion von Produktionskapazität.‣ weiterlesen