KI vereinfacht Generierung von Software-Sensoren

Virtuelle Sensoren

Ansätze wie Industrie 4.0 und Smart Production leben von Daten zum Zustand von Maschinen und Produktionsabläufen. Erfasst werden diese Daten über verschiedenste Sensoren. Wo das nicht möglich ist, bieten sich Software-Sensoren an. Deren Erstellung war bislang zeit- und datenaufwändig sowie teuer. Ein neuer KI-Ansatz hat den Prozess nun deutlich vereinfacht.

(©Bild: greenbutterfly/AdobeStock)

Derzeit dominieren Schlagwörter wie Künstliche Intelligenz (KI), Internet of Things (IoT) und Big Data die Diskussion um die Zukunft der Produktion. Diese Technologien bilden die Basis für Trends wie Industrie 4.0, Smart Production und die Smart Factory, bei denen es im Kern um die intelligente und ganzheitliche Vernetzung der gesamten Produktionskette geht. Laut einer Studie von Microsoft führen 88 Prozent der Befragten bereits eigene IoT-Projekte durch, 92 Prozent davon sind überzeugt, dass IoT entscheidend für den Geschäftserfolg ist. IoT lebt wie alle Digitalisierungsprojekte von Daten, die, eingehend ausgewertet und analysiert, die Basis für Entscheidungen über die Art und Weise des weiteren Ablaufs der Produktion liefern. Dazu greifen Sensoren umfassende Daten zum Zustand der Maschinen und zum Ablauf der Produktionsprozesse ab, d.h. liefern ein Bild davon, was sich in der Anlage abspielt. Meist handelt es sich dabei um real existierende Sensoren, die, an den neuralgischen Punkten der Anlagen und Maschinen angebracht, Daten zu den verschiedensten Aspekten liefern. Das können Parameter wie Temperatur, Druck, (Fließ-)Geschwindigkeit, Beschleunigung sowie Werte zu Drehzahl, Schaltzustand, Position oder auch Schall sein.

Software-Sensoren

Der Einsatz physischer Sensoren kann aber durchaus fehleranfällig, oder aufgrund baulicher Gegebenheiten schlicht nicht möglich oder kostspielig sein. Zudem können viele Werte auch nur im Labor ermittelt werden. Beispiele dafür sind etwa Aspekte der Materialeigenschaften und damit der Qualität des Endproduktes. Solche Angaben liegen daher erst mit einer erheblichen Zeitverzögerung vor und können so nur begrenzt zur Steuerung der aktuellen Produktion beitragen. Die Lösung hierfür sind Software-Sensoren, oft auch als virtuelle Sensoren bezeichnet. Diese können auf Basis der von physischen Sensoren generierten Daten wie etwa Temperatur, Druck, oder Flüsse, sowie anderweitig verfügbarer, den Prozess beeinflussenden Parameter abhängige Größen vorhersagen, d.h. reale Sensorwerte, Labormesswerte oder nicht direkt messbare Größen wie Qualität, Lebensdauer oder anderes. Hierzu nutzen Software-Sensoren so genannte Vorhersagemodelle. Damit quantifizieren sie die Auswirkungen der Messgrößenauf die Zielgröße. Sie können außerdem durch einen erneuten Lernprozess der Modelle leicht an Veränderungen in der Systemumgebung angepasst werden.

Bislang daten-, zeit- und kostenaufwändig

Warum aber setzen sich Software-Sensoren trotz dieser Vorteile nur schleppend durch und warum schrecken viele Unternehmen vor deren Einsatz noch zurück? Der Grund: Der Aufbau der zugrundeliegenden Vorhersagemodelle erfordert in der Regel sehr große Datenmengen und nimmt viel Zeit in Anspruch. Darüber hinaus erfordert er manuelle Eingriffe und eine intensive Beteiligung von Data Scientists mit Fachkenntnissen. So müssen beispielsweise Daten synchronisiert und bereinigt werden, sowie Beziehungen zwischen Daten extrahiert, Ursachen von Vorkommnissen analysiert und auf Basis von Zeitreihen ein Vorhersagemodell erstellt werden. Verwendet man etwa neuronale Netze als Grundlage, muss zunächst das richtige Design gefunden und anschließend aufwändig trainiert werden. All dies machte die Erstellung von SoftwareSensoren zeit- und kostenaufwändig. Zudem können konventionelle datenwissenschaftliche Methoden in vielen Fällen industrielle Anforderungen nur unzureichend erfüllen, etwa, wenn es um komplexe Sensorik-Umgebungen mit mehreren 1.000 Signalen geht und schnelle Ergebnisse gefordert sind.

Das könnte Sie auch interessieren

Fraunhofer IPK und IWF der TU Berlin laden vom 14. bis 15. September 2023 zum 17. PTK nach Berlin ein. Rund 200 Gäste aus Wirtschaft und Wissenschaft werden erwartet, um branchenübergreifend Herausforderungen für den Industriestandort Deutschland zu diskutieren.‣ weiterlesen

Alle Maschinen, Anlagen und Systeme sind miteinander vernetzt und kommunizieren kontinuierlich - das ist das Ziel der Industrie 4.0 oder auch Smart Factory. Die Erfassung von Daten aus der Produktionsumgebung ist dafür unabdingbar. In der Realität werden diese Daten zwar gesammelt, aber oft nicht genutzt.‣ weiterlesen

Expertinnen und Experten der Plattform Lernende Systeme beleuchten in einem neuen Whitepaper, wie es um die Entwicklung europäischer bzw. deutscher KI-Sprachmodelle bestellt ist.‣ weiterlesen

In 12 Prozent der Unternehmen tragen Daten laut einer Bitkom-Befragung bereits stark zum Geschäftserfolg bei, aber zwei Drittel schöpfen Potenzial nicht aus. 4 von 10 Unternehmen nutzen Daten von anderen oder geben eigene Daten weiter.‣ weiterlesen

Laut einer Umfrage von Reichelt Elektronik investieren Unternehmen im industriellen Sektor in Energiesparmaßnahmen, sehen sich aber auch unter großem Druck. 45 Prozent ziehen energieintensive Prozesse zumindest teilweise ins Ausland ab.‣ weiterlesen

Künstliche Intelligenz (KI) gilt als Schlüsseltechnologie und birgt zugleich auch Risiken. In der aktuellen Debatte generative KI-Modelle werden Rufe nach Regulierung laut.‣ weiterlesen

Unzureichender Technologieeinsatz wirkt sich negativ auf die Produktivität kleiner Unternehmen aus. Zu diesem Ergebnis kommt eine Umfrage von Adobe Systems. Für die Mehrheit der Befragten ist der Einsatz solcher Technologien sogar ein Faktor, um einen Job anzutreten.‣ weiterlesen

Exklusiv für Abonnenten

In den vergangenen Jahren ist der Krisenzustand fast normal geworden. Künstliche Intelligenz kann Unternehmen helfen, in diesen Zeiten Stabilität zu gewinnen. Das BMWK-Forschungsprojekt Pairs zeigt, wie das gelingen kann.‣ weiterlesen

Laut einer Umfrage des TÜV-Verbands sorgt sich die Bevölkerung vor unkalkulierbaren Risiken, Fake-News-Schwemmen und Arbeitsplatzverlusten im Zusammenhang mit generativer künstlicher Intelligenz. 84 Prozent fordern gesetzliche Vorgaben für KI-Anwendungen.‣ weiterlesen

Mit modernen Fertigungsprozessen und Technik lässt sich heute ein personalisiertes Produkt zum Preis der Serienfertigung herstellen. Mass Customization heißt das. Doch auf dem Weg dorthin müssen sich Abläufe und Produktions-IT großen Herausforderungen stellen.‣ weiterlesen

Wasserstoff, der möglichst CO2-Arm erzeugt wird, entwickelt sich zu einem der vielversprechendsten Instrumente zur Dekarbonisierung von Branchen mit bislang hohen Emissionen. Laut einer Studie des Capgemini Research Institute, prüfen sich 62 Prozent der Unternehmen aus energieintensiven Industriezweigen den Umstieg auf CO2-arm erzeugten Wasserstoff.‣ weiterlesen