Pflege von KI-Applikationen

Weshalb auch eine KI ‘altert’

Der Einsatz von künstlicher Intelligenz (KI) verspricht für Industrieunternehmen einen Wettbewerbsvorteil. Doch dass auch KI-Systeme überwacht werden müssen, setzt sich nur langsam durch – Lösungen sind oft umständlich und aufwendig. Neue Ansätze sollen das ändern.

(Bild: ©metamorworks/stock.adobe.com)

Erst vor wenigen Wochen hat das Fraunhofer IAIS in Zusammenarbeit mit Munich RE eine Zertifizierungsmöglichkeit für künstliche Intelligenz geschaffen. Denn Software, die mit KI ausgestattet ist und z.B. Qualitätsprognosen auf Basis von so genannten Machine-Learning-Modellen erstellt, darf nicht nur zum Start geprüft, sondern muss permanent überwacht werden. Der Grund dafür ist ein Problem, das Betreiber oft wenig beachten, das aber mit dem zunehmenden Einsatz von KI-Software sichtbarer wird: Machine-Learning-Modelle werden mit der Zeit immer ungenauer und unzuverlässiger. Dieser Alterungsprozess wird als Model Drift bezeichnet und ist in Fachkreisen ein bekanntes Phänomen. Mit abnehmender Verlässlichkeit der KI-Modelle nimmt auch deren Nutzen ab – der dahinterstehende Business Case könnte kippen.

Was verbirgt sich hinter dem Alterungsprozess?

Ein Missverständnis in der KI-Welt ist die Annahme, dass alle Algorithmen von allein und fortwährend dazulernen. In der Realität ist das nur in einigen, speziellen Fällen umgesetzt und oft mit hohem Aufwand verbunden. Gerade in Industrieanwendungen, in denen Sensordaten eine zentrale Rolle spielen, lernen die Modelle zunächst basierend auf den Daten der Vergangenheit (Training). Aus den dort gelernten Mustern erzeugen die Modelle dann ihre Vorhersage. Und hier offenbart sich das Alterungs-Problem: Die Bedingungen der Vergangenheit haben sich zur Gegenwart hin verändert und tun dies fortwährend. Dabei handelt es sich oft nur um kleine Nuancen, die aber erheblichen Einfluss auf die Vorhersagegenauigkeit des Gesamtmodells haben können. Die Frage ist also, welche äußeren Einflüssen lassen das KI -Modell altern?

Daten verändern sich

Ein Beispiel: In einem industriellen Reinigungsprozess werden Bauteile mittels eines automatisierten Verfahrens gesäubert. Dieser Prozess erstreckt über mehrere Tauchbäder unterschiedlicher Säure- und Basenkonzentrationen. Viele Faktoren haben Einfluss auf die Reinigungsqualität der Bauteile. Die Aufgabe der KI ist es, die finale Reinigungsqualität frühzeitig vorherzusagen, um bei negativen Abweichungen in den Prozess einzugreifen zu können oder diesen sogar abzubrechen. Bei der Modellerstellung werden zunächst Annahmen über die möglichen Einflussfaktoren auf die Reinigungsqualität getroffen, etwa Säurekonzentration, Temperatur oder Verschmutzungsgrad der Teile. Sensoren erfassen die dafür notwendigen Daten, welche über einen möglichst repräsentativen Zeitraum gespeichert werden.

Diese Daten der Vergangenheit bilden die Basis für das Modell-Training. Basierend auf den aktuellen Messungen und der Kenntnis über die Vergangenheit trifft das Modell dann seine Entscheidung bzw. die Vorhersage. So kann das Modell im Beispiel früh vorhersagen, ob sich am Ende etwa Qualitätsprobleme ergeben werden und entsprechend warnen. Die aktuellen Daten des Prozesses sind jedoch nicht zu 100 Prozent mit den historischen Daten vergleichbar. Beispielsweise können Sensoren verschmutzen oder durch ihren eigenen Lebenszyklus leicht veränderte Werte liefern. Verändern sich also die aktuellen Daten im Vergleich zu denen, die bei der Erstellung des Modells verwendet wurden, spricht man von einem so genannten ‘Data Drift’. Oder vereinfacht dargestellt: Wenn der Luftdrucksensor in einem Autoreifen durch äußere Einflüsse immer ungenauere Werte liefert, wird auch die Vorhersage zur Reifengesundheit immer schlechter.

Das könnte Sie auch interessieren

Quantencomputer versprechen enorme Rechenleistung und bieten großes Potenzial für Gesellschaft und Wirtschaft. Sie könnten etwa dazu eingesetzt werden, neue medikamentöse Wirkstoffe zu finden. Doch wie ist der aktuelle Stand der Technologie? Dr. Marco Roth vom Fraunhofer IPA gibt einen Überblick.‣ weiterlesen

Capgemini hat die TechnoVision 2023 mit dem Titel 'Right the Technology, Write the Future' veröffentlicht. Der Report hebt Technologietrends hervor, die Führungskräften bei der technologiebasierten Transformation ihres Unternehmens helfen sollen.‣ weiterlesen

Im aktuellen Global CEO Survey von des Beratungsunternehmens PwC geben mehr als 80 Prozent der befragten deutschen CEOs an, dass sie mit einem Rückgang des Weltwirtschaftswachstums rechnen. Inflation, makroökonomische Volatilität und geopolitische Konflikte werden von den Befragten als die größten Gefahren für das Geschäft genannt.‣ weiterlesen

Unternehmen suchen zunehmend nach Konnektivität für eine Vielzahl von Anlagen. Eine größere Vielfalt an Konnektivitätstypen, mehr Sensorfunktionen und Formfaktoren sowie eine größere Softwareintelligenz ermöglichen es dem Markt für Condition-Based Monitoring (CBM), neue Anwendungsfälle zu erschließen und einen größeren Wert für Anwender zu generieren. Einem neuen Bericht des Technologieunternehmens ABI Research zufolge sollen die zustandsorientierten Überwachungssensoren bis 2026 277 Millionen Anschlüsse erreichen.‣ weiterlesen

In sechs neuen Projekten des Spitzencluster it's OWL entwickeln 18 Unternehmen und fünf Forschungseinrichtungen gemeinsam Ansätze und Lösungen, um konkrete Herausforderungen der Industrie anzugehen.‣ weiterlesen

Maschinen mit IIoT-Funktionalitäten werden meist mit Sensorik ausgeliefert, die aktuelle Fertigungsdaten erhebt und verarbeitet. Um diese IIoT-Daten jedoch übergreifend zu nutzen, braucht es eine weitere Software-Instanz zur Verarbeitung: das Manufacturing Execution System (MES) .‣ weiterlesen