Der Weg der KI in die industrielle Produktion

Fast täglich liest man über neue Deep-Learning-Ansätze in allen möglichen Bereichen. Allerdings stellt sich die Frage, inwieweit dieses Thema bereits tauglich für den industriellen Einsatz ist. Um dazu mehr zu erfahren, haben unsere Kollegen vom SPS-MAGAZIN bei Rahman Jamal, Global Technology & Marketing Director von National Instruments, nachgefragt. Alle reden über Deep Learning, dabei ist das Thema doch bereits seit einigen Jahren auf dem Markt?

Bild: National Instruments Germany GmbH

Alle reden über Deep Learning, dabei ist das Thema doch bereits seit einigen Jahren auf dem Markt?

Rahman Jamal: Sie haben recht, das Konzept an sich ist nicht neu. Aber der Zeitpunkt für seine Wiederbelebung ist nicht zufällig. Die Komplexität einer IIoT-Anwendung sowie die Vernetzung solcher Applikationen führt zu einer Unmenge von Daten (Stichwort: Big Analog Data) und schreit regelrecht nach Deep-Learning-Methoden. Wobei mit IIoT-Anwendungen nicht nur Smart-Factory-bezogene I4.0-Applikationen gemeint sind, sondern jegliche smarte Applikationen (Cyber-physical Systems, CPS), wie Smart Grid, Smart Health und Smart Transportation etc. Solche CPS analysieren ihre Umgebung und erkennen auf Grundlage ihrer Beobachtungen Muster und Zusammenhänge, müssen also extrem lern- und anpassungsfähig sein. Seit Maschinen in der Lage sind, sich Zusammenhänge zu erschließen und Neues zu erlernen, werden immer mehr solcher intelligenten Systeme auch im Fertigungsprozess eingesetzt, besonders bei der Zustandsüberwachung, Bildverarbeitung oder Predictive Maintenance. Die Fertigung auf Grundlage vorhandener Daten zu optimieren, ist eines der Kernziele von I4.0. Deep Learning eignet sich hier ideal zur automatisierten Analyse von Big Analog Data auf Basis intelligenter Algorithmen und spielt daher eine große Rolle für den Maschinen- und Anlagenbau sowie die Smart Factory, also die intelligente Fabrik der Zukunft.

Wie kann Deep Learning dem Anwender helfen, Aufgaben besser zu lösen?

Jamal: In den Deep Learning zugrundeliegenden neuronalen Netzen setzt – ähnlich wie bei Kleinkindern – ein kognitiver Selbstlernprozess ein, in dem eigenständig sich wiederholende Merkmale, Strukturen, Muster und Zusammenhänge erkannt werden. Daraufhin werden Synapsen gebildet, auf deren Grundlage der Algorithmus lernt und Bilder verarbeitet. Daher ist bei I4.0 eine Maschine oder Fertigungsstraße in der Lage, eine Vielzahl verschiedener Variationen zu handhaben, auch dann, wenn sich die Umgebungsbedingungen ändern. Dies sorgt für eine zuverlässige Produktion ohne Qualitätsverlust. Durch die Cloud, die die Vernetzung der in einem Unternehmen weltweit eingesetzten Maschinen gestattet, ist es möglich, innerhalb kurzer Zeit eine große Menge an Daten zu generieren, die erforderlich sind, um aussagekräftige Ergebnisse zu erhalten. Gerade für die Bildverarbeitung oder das Erkennen von Mustern in großen Mengen an Messdaten bieten neuronale Netze interessante Ansätze, die bisherige Konzepte nicht lösen konnten. Cogito Instruments hat hierzu ein spannendes Produkt herausgebracht. Beim CI9120 handelt es sich um ein C-Serien-Modul für die NI-Plattform CompactRIO. Es enthält 1.024 Neuronen, die dem System die Fähigkeit verleihen, bis zu 1.024 Muster zu erlernen, zu erkennen und zu klassifizieren. Die Mustererkennung und -klassifizierung erfolgt innerhalb von 10µs. Eine API erlaubt es, Signale einer Kamera, eines Sensors oder über einen Host übertragene Daten innerhalb des CompactRIO-Systems zu erfassen sowie Erkennungsmerkmale zu extrahieren, die Daten in 256Byte große Vektoren umzuwandeln und diese an das CI9120 zu senden. Anhand von Referenzvektoren kann dem Neuron ein Vektor beigebracht werden, dem der Anwender eine Kategorie zuweist. So weiß das Neuron, was es lernen soll. Mit Erlernen eines jeden neuen Vektors vertiefen die Neuronen automatisch ihr Wissen. Das Modul antwortet, ob es den Vektor erkannt hat oder nicht. Falls ja, wird es die damit verbundene Kategorie (Klasse) des Vektors ausgeben. In manchen Fällen, wenn mehrere Kategorien infrage kämen, wird gemeldet, dass es unklar ist, ob ein Vektor wiedererkannt wurde. In diesem Fall lässt sich überprüfen, wie viele Neuronen im Erkennungsprozess einer jeden Kategorie beteiligt waren und es kann eine Messung mit Distanz für jedes Neuron durchgeführt werden, wodurch sich herausfinden lässt, welches das aussagekräftigste Ergebnis ist. Dies gestattet eine Verfeinerung der entsprechenden Kriterien, wobei der Lernprozess noch während der Ausführung stattfindet. Ist die Lernphase abgeschlossen und erkennt das System alle übertragenen Vektoren, kann das interne Wissen auf andere Systeme übertragen und somit repliziert werden.

Welche bisher unlösbaren Aufgaben lassen sich mit Deep Learning lösen?

Jamal: Zum einen kann die sehr schnelle Erkennung von Mustern realisiert werden. Zum anderen lassen sich aber auch das Charakterisieren bewerkstelligen sowie Trends erahnen, selbst dann, wenn das Muster nicht 1:1 eingelernt wurde. Vor allem für den Bereich der Bilderkennung, insbesondere für Big Data in komplexeren intelligenteren Routinen zur Entscheidungsfindung, ist Deep Learning interessant. Im Umfeld der Automatisierung ist Deep Learning besonders dort nützlich, wo Prozesse effektiver verlaufen als ursprünglich geplant oder nicht exakt vorherzusehen sind. Zudem ermöglicht es Anlagen und Robotern, eigenständig fundierte Entscheidungen zu fällen. Dabei gilt es nicht nur, eine solche zu treffen, sondern im Anschluss auch ein Ergebnis zu präsentieren. Im Bereich der industriellen Bildverarbeitung ist es z.B. erforderlich, dass ein System nicht nur eine gut/schlecht-Entscheidung trifft. Es muss ein Bild nicht nur verifizieren, sondern auch das Gesehene verarbeiten und daraufhin intelligente Schritte in die Wege leiten. Dies erfordert eine stetige Erfassung und Auswertung von Daten, ohne die ein solch eigenständiges und zuverlässiges Handeln des Systems nicht möglich wäre. Dadurch wird der gesamte Fertigungsprozess optimiert.

Verwenden Sie bereits Deep-Learning-Ansätze in NI-Produkten?

Jamal: Beispiele wie die oben geschilderte Implementierung bei Cogito Instruments gibt es mittlerweile einige. Ein weiteres Beispiel ist das Deep Learning Toolkit for Labview von Ngene LLC, das Labview die Möglichkeiten der Deep-Learning-Infrastruktur verleiht und der Community der Labview-Entwickler Zugang zu Machine-Learning-Anwendungen wie Bild-, Objekt- oder Spracherkennung ermöglicht. Das komplett in Labview verwirklichte Toolkit vereinfacht den Prozess der Gestaltung, Erstellung, Konfigurierung, Schulung und Visualisierung komplexer neuronaler Netze in Labview. Da die Funktionsfähigkeit des Toolkits nicht von einer externen Bibliothek oder Engine abhängt, gestaltet sich der Prozess der Implementierung trainierter Systeme auf Embedded-Ziele nahtlos. Ebenso steht eine kleine kostenfreie Library in der Community zum Download zur Verfügung. Hierbei handelt es sich um ein Toolkit, das für einfache neuronale Netzwerk-Anwendungen konzipiert ist. Es ist also nicht für anspruchsvollere Anwendungen im Bereich der künstlichen Intelligenz geeignet, sondern dient als Startpunkt, zur Evaluierung oder als Proof of Concept für die Weiterentwicklung.

Besteht nicht die Gefahr, dass wir nicht länger kontrollieren können, wie es zu gewissen Entscheidungen gekommen ist?

Jamal: Definitiv! Nutzt man z.B. Deep Learning, um Aufsätze zu korrigieren und zu bewerten, erhält man meist sehr gute Ergebnisse, die fast der menschlichen Leistung entsprechen. Das Problem ist aber: Man erfährt nicht, warum die Bewertung so ausgefallen ist. Mathematisch könnte man natürlich herausfinden, welche Knoten eines komplexen neuronalen Netzes aktiviert wurden. Doch was die Neuronen genau machen sollten und vor allem, was die einzelnen Neuronenschichten im Kollektiv taten, bleibt uns verborgen. So können wir die Entscheidungsfindung nicht nachvollziehen. Anders beim Machine Learning: Durch die wie Entscheidungsbäume strukturierten Algorithmen sehen wir exakt, warum etwas wie entschieden wurde. Nun mag man vielleicht sagen, dass es nicht ganz so tragisch ist, wenn man nicht nachvollziehen kann, wie die Bewertung eines Aufsatzes vonstattenging. Auch wenn Deep Learning z.B. bei Amazon fehlschlägt und der Kunde beim Kauf eines Produkts die falschen ergänzenden Produkte vorgeschlagen bekommt, kann er die Vorschläge einfach nicht zur Kenntnis nehmen. In anderen Fällen jedoch kann ein Mangel an Entscheidungsgründen enorme Probleme mit sich bringen. Im Finanzwesen etwa ist es unabdingbar, dass Entscheidungen nachvollziehbar sind. Immerhin hat der Kunde ein Recht darauf zu erfahren, warum ihm z.B. ein Kredit verwehrt wird. Kritiker weisen darauf hin, dass die Vorhersagen heutiger Algorithmen zu lediglich 90 Prozent korrekt sind. Eine Trefferquote von 100 Prozent ist schlichtweg nicht möglich. Bei dem Amazon-Beispiel ist das nicht so schlimm. Verrechnet sich der Algorithmus jedoch bei einer Finanzierung, dann ist es durchaus tragisch, denn dies bedeutet, dass zehn Prozent der Kunden, die einen Kredit beantragen, aufgrund eines Systemfehlers abgelehnt werden. In manchen Fällen kann dies existenzgefährdend sein. Wird Deep Learning allerdings in Anwendungen wie etwa in ADAS-Systemen eingesetzt, bei denen es um Leib und Leben geht, dann ist eine 90-prozentige Trefferquote absolut nicht akzeptabel.

Wie lange wird es noch dauern, bis Deep Learning in der Industrie und realen Anwendungen angekommen ist?

Jamal: Bereits heute sind erste Lösungen realisiert, teilweise sogar mit NI-Produkten. So implementierte die Beuth Hochschule für Technik in Berlin neuronale Netze mit Labview und Labview FPGA. Hierbei ging es darum, den Greifvorgangs eines Modells einer menschlichen Hand auf Basis eines künstlichen neuronalen Netzes für die Merkmalserkennung nachzubilden. Ein Bildverarbeitungsalgorithmus wird zum visuellen Erfassen der Greifszene genutzt. Im weiteren Verlauf des Greifvorganges werden die Signale der an dem Handmodell befindlichen taktilen Sensoren mittels neuronaler Netzstrukturen mit Labview ausgewertet. Der auf einem PC-System entworfene Programmcode konnte mit wenigen Änderungen auch auf einem FPGA ausgeführt werden. Ein weiteres Beispiel ist die Implementierung eines echtzeitfähigen Regelungssystems für das Spritzgießen von Kunststoffen, die von der Deutschen Forschungsgemeinschaft (DFG) im Rahmen des Exzellenzclusters ´Integrative Produktionstechnik für Hochlohnländer´ an der RWTH Aachen finanziell gefördert wurde. Das bisher eingesetzte Regelungssystem war auf einem Rechner mit Windows XP implementiert, das kein deterministisches Verhalten der ausgeführten Software garantierte. Daher war es nicht möglich, die für eine gewisse Rechenoperation benötigte Rechenzeit vorherzusagen und somit harte Echtzeitanforderungen zu erfüllen. Eine Regelung unter Echtzeitbedingungen stellt jedoch sicher, dass das Regelungssystem zuverlässig und unmittelbar auf Änderungen im Prozessgeschehen reagiert und keine Verzögerungen des Regeltakts auftreten, die die Prozess- und Produktqualität beeinträchtigen oder zu Beschädigungen an Spritzgießmaschine/-werkzeug führen. Das mittels Labview Real-Time, dem FGPA-basierten Multifunktions-I/O-Gerät NI PXI-7842R, verschiedenen I/O-Modulen der C-Serie sowie dem Real-Time Execution Trace Toolkit neu implementierte Regelungssystem ist in der Lage, harte Echtzeitbedingungen zu erfüllen, und erlaubt bei der Ausführung der Regelalgorithmen zeitlichen Determinismus. Darüber hinaus gestattet es durch die Parallelisierung der Algorithmen eine Steigerung der Rechengeschwindigkeit verglichen mit der bisher verfügbaren Windows-basierten Variante. Aktuell ist auch das DARPA-Projekt (Defense Advanced Research Projects Agency). Dort möchte man der Herausforderung der begrenzten Mobilfunkfrequenzen mit einem flexiblen Ansatz begegnen. Im Rahmen der Zusammenarbeit stellen wir die Hauptinfrastruktur für ein zukunftsweisendes Channel Emulations Testbed namens Colosseum zur Verfügung. Dabei werden USRP-SDRs (Software Defined Radios) eingesetzt, die eine große Bandbreite an Open-Source-, aber auch proprietären Werkzeugen wie GNU Radio, RFNoC und Labview unterstützen. Das Testbed unterstützt bis 256×256-Echtzeitkanalemulation und die Berechnung von mehr als 65.000 Kanalinteraktionen bei bis zu 80MHz Echtzeitbandbreite pro Kanal. Das Collosseum, das am Johns Hopkins University Applied Physics Laboratory aufgebaut ist, wird in der so genannten DARPA Spectrum Collaboration Challenge eine zentrale Rolle spielen, die die hellsten Köpfe im Bereich der kognitiven Funksysteme und Machine Learning zusammenbringt. Diese Initiative soll sicherstellen, dass die exponentiell wachsende Anzahl an drahtlosen Geräten vollen Zugang auf das immer mehr ausgelastete elektromagnetische Spektrum haben.

Das könnte Sie auch interessieren

Vom 22. bis zum 26. April wird Hannover zum Schaufenster für die Industrie. Neben künstlicher Intelligenz sollen insbesondere Produkte und Services für eine nachhaltigere Industrie im Fokus stehen.‣ weiterlesen

Eine Umfrage von Hewlett Packard Enterprise (HPE) unter 400 Führungskräften in Industrie-Unternehmen in Deutschland zeigt, dass zwei Drittel der Befragten den Data Act als Chance wahrnehmen. Der Data Act stieß unter anderem bei Branchenverbänden auf Kritik.‣ weiterlesen

Carbon Management-Technologien stehen im Fokus, um CO2-Emissionen zu reduzieren und zu managen. Die Rolle des Maschinenbaus und mögliche Entwicklungspfade betrachtet eine neue Studie des VDMA Competence Center Future Business.‣ weiterlesen

Deutsche Unternehmen nehmen eine zunehmende Bedrohung durch Cyber-Angriffe wahr. Das zeigt eine aktuelle Umfrage vom Markt- und Meinungsforschungsinstitut YouGov im Auftrag von 1&1 Versatel, an der mehr als 1.000 Unternehmensentscheider teilnahmen.‣ weiterlesen

Fraunhofer-Forschende haben für Fahrer und Fahrerinnen von Baumaschinen einen Helm mit integriertem Beschleunigungssensor entwickelt. Die Helm-Sensorik misst die Vibrationen der Baumaschinen. Die Sensorsignale werden analysiert, eine Software zeigt die Belastung für den Menschen an.‣ weiterlesen

Hohe Geschwindigkeit und hohe Erkennungsraten sind die Anforderungen an die Qualitätskontrolle in der Verpackungsbranche. Wie diese Anforderungen erreicht werden können, zeigt das Unternehmen Inndeo mit einem Automatisierungssystem auf Basis von industrieller Bildverarbeitung und Deep Learning.‣ weiterlesen

Laut einer Studie der Unternehmensberatung Bain & Company könnten Unternehmen ihre Produktivität durch digitale Tools, Industrie 4.0-Technologien und Nachhaltigkeitsmaßnahmen steigern. Deren Implementierung von folgt oft jedoch keiner konzertierten Strategie.‣ weiterlesen

Nach Bitkom-Berechnungen fehlen bis zum Jahr 2040 mehr als 660.000 IT-Fachkräfte. Welche Maßnahmen helfen könnten, diesem Trend entgegenzuwirken, hat der Verband beleuchtet. Potenziale liegen unter anderem darin, mehr Frauen für IT-Berufe zu begeistern oder den Quereinstieg zu erleichtern.‣ weiterlesen

Jeder zweite Betrieb investiert laut einer Betriebsräte-Befragung der IG Metall zu wenig am Standort. Demnach verfügen rund 48 Prozent der Unternehmen über eine Transformationsstrategie. Zudem sehen die Betriebsräte ein erhöhtes Risiko für Verlagerungen.‣ weiterlesen

Ziel des neuen VDMA-Forums Manufacturing-X ist es, der zunehmenden Bedeutung von Datenräumen als Basis für neue, digitale Geschäftsmodelle Rechnung zu tragen. Wie der Verband mitteilt, soll das Forum auf dem aufbauen, was in der letzten Dekade durch das VDMA-Forum Industrie 4.0 erarbeitet wurde. ‣ weiterlesen

Ob es sich lohnt, ältere Maschinen mit neuen Sensoren auszustatten, ist oft nicht klar. Im Projekt 'DiReProFit' wollen Forschende dieses Problem mit künstlicher Intelligenz zu lösen.‣ weiterlesen