KI in der Industrie 4.0 braucht den Faktor Mensch

Bild: ©Wenjie Dong/istockphoto.com

Intellektuelle Fähigkeiten sind noch Zukunftsmusik

Viele KI-Enthusiasten hoffen auf den Tag – der allerdings noch 20 bis 40 Jahre entfernt sein dürfte – bis eine KI intellektuelle Fähigkeiten haben wird. Vielleicht gelingt es mit Quantencomputern sogar schon früher, noch größere Datenbestände auszuwerten und mit Hilfe von KNN sogar mit einer menschlichen und ethisch orientierten Entscheidungsmatrix zu ertüchtigen. Davon abgesehen, stellen sich aber bei den heutigen Anwendungen schon mit schwacher KI ethische Fragen. Was passiert, wenn eine KI durch Machine Learning diskriminierende Entscheidungen fällt? Heute schon sind erste Lösungen für das Bewerbermanagement bei Recruiting-Prozessen im Einsatz. Bei amerikanischen global agierenden Unternehmen soll es bereits vorgekommen sein, dass Frauen bei der Vorauswahl benachteiligt wurden.

Auch bei Finanzdienstleistern sind KIs im Einsatz, sogar schon länger, als es Chatbots gibt. Mit der ‘falschen Adresse’ oder einem Schufa-Eintrag kann es schon länger passieren, dass eine Versicherung oder ein Kredit verweigert werden. Und wie soll sich ein autonomer und KI-basierter Roboter in einer Smart Factory verhalten, wenn er vor zwei gleich schlechte Alternativen gestellt in beiden Fällen einen menschlichen Kollegen verletzen würde? Mit solchen Fragen beschäftigte sich kürzlich ein Expertengremium der EU, das Ende 2018 seine ethischen Leitlinien zur Diskussion stellte und im April seine finale Version veröffentlichte. Bis Juni 2019 erarbeitete das Gremium eine Handlungsempfehlung für die EU. Nach allem, was bisher bekannt ist, greifen diese Leitlinien aber nicht weit genug. Sie beschreiben einen Weg, “den größtmöglichen Nutzen aus der KI erzielen und gleichzeitig die geringstmöglichen Risiken eingehen.

Um sicherzugehen, dass wir auf dem richtigen Weg bleiben, brauchen wir einen auf den Menschen ausgerichteten (‘menschenzentrierten’) Ansatz für die KI”. Das Gremium hat auch eine Checkliste mit Fragen für Anbieter von KI entwickelt, wie sie ihre Systeme sicher betreiben können. Leider aber fehlen Empfehlungen an die EU-Kommission, welche Mindestanforderungen und Sicherheitsauflagen sie den KI-Betreibern auferlegen sollten, damit der Mensch als Gestalter und Nutznießer der digitalen Transformation wirklich im Fokus bleibt. Denn eines ist klar: Eine wirtschaftlich oder aus Sicht von Behörden erfolgreiche KI werden Betreiber nicht ändern, nur weil sie ein wenig diskriminierend agiert.

Der Mensch muss am längeren Hebel sitzen

Hier müssen die EU und internationale Institutionen wie die UN klare Regeln aufstellen und anordnen, dass externe Institutionen die Einhaltung regelmäßig überprüfen dürfen. Eine notwendige Regel wäre z.B., dass immer dann, wenn eine KI mit einem Menschen interagiert, diese als solche ausgewiesen wird und der menschliche Kollege z.B. durch Notausschalter immer am längeren Hebel sitzt.

Oder im Falle, dass eine KI Entscheidungsbefugnisse erhält, muss der Mensch das Recht erhalten, eine natürliche Person wie z.B. den Betriebsrat oder eine andere verantwortliche Stelle im Unternehmen mit der Überprüfung einer KI-Entscheidung zu beauftragen. Darüber hinaus müssen die Betreiber bei einer KI mit Machine Learning verpflichtet sein, ihre sich selbständig umschreibenden Algorithmen durch Testläufe zu überwachen. Bei einem KI-basierten Roboter sollten die Unternehmen schon aus Gründen der Betriebssicherheit ihren Algorithmen regelmäßig einer Prüfung unterziehen. Und weil es Menschen sind, die KI-Algorithmen schreiben, sollten diese durch Weiterbildung ihre Kompetenzen als Fachleute regelmäßig vertiefen müssen.

Eigener Ethikrat

Denkbar wäre auch, wenn große Unternehmen einen eigenen Ethikrat mit externen Experten gründen, der die Weiterentwicklung der Anwendungen überwacht. Auch und vor allem beim KI-Einsatz staatlicher Stellen sind Sicherheitslinien einzubeziehen, die nicht überschritten werden dürfen. So sehr sich auch Verwaltungshandeln künftig mittels KI vereinfachen lassen dürfte, müssen staatliche Stellen ein enges Korsett erhalten, um Freiheitsrechte der Bürger nicht schleichend einzuschränken.

Das könnte Sie auch interessieren

Security Automation, Management digitaler Identitäten, Aufbau neuer Plattformen, Schutz vor Bedrohungen durch IoT-fähige Geräte und Einsatz von DevOps — laut einer Studie des IT-Dienstleisters Capgemini sind dies die Trends des IT-Jahres 2020.‣ weiterlesen

Anzeige

Vernetzte Maschinen bieten echte Vorteile, die zentrale Überwachung von Anlagen birgt große Verbesserungspotenziale. Aber wenn hierfür erst die einst teuer angeschafften Maschinen ausgetauscht werden müssen, dann ist das Kosten/Nutzen-Verhältnis in Frage gestellt. Eine Lösung für dieses Problem heißt Retrofit.‣ weiterlesen

Anzeige

Palo Alto Networks beleuchtet den Zusammenhang von 5G und IT-Sicherheit‣ weiterlesen

Exklusiv für Abonnenten

Dass künstliche Intelligenz für Unternehmen eine wichtige Rolle spielt, ist klar. Stattdessen geht es darum, Möglichkeiten zu finden wie KI dazu beitragen kann, Geschäftsziele zu erreichen und den Umsatz zu steigern. Der IT-Konzern Oracle hat aufgeführt, welche Trends der KI-Seinsatz im Bereich von Business-Software ermöglicht.‣ weiterlesen

Ein Blick in den Markt offenbart: IoT-Produkte des deutschen Mittelstands sind nach wie vor rar gesät. Nicht nur der notwendige Mut, es ist vor allem das Knowhow, das den mittelständischen Unternehmen für die Entwicklung und Umsetzung disruptiver Produkte und Services fehlt. Helfen können echte Plug&Play-Lösungen wie der Cellular Twin von grandcentrix. Denn sie bringt alles mit, was es braucht, um Anwendungen schnell, effizient und zukunftsfähig zu vernetzen.‣ weiterlesen

Im Jahr 2018 haben deutsche Unternehmen ihre Innobationsausgaben im Vergleich zum Vorjahr gesteigert — auf insgesamt 172,6Mrd.€. Im Jahr 2017 belief sich die Summe noch auf 166,9Mrd.€.‣ weiterlesen