Anpassbarkeit ist alles


Komplizierte Upgrades

Erst recht kompliziert wird es, wenn ein Versionsupgrade des PLM-Systems ansteht. Hat das Unternehmen viele individuelle Funktionen und Anpassungen am System vorgenommen, dann müssen diese wieder komplett hart codiert in die neue Version übertragen werden. Der Worst Case: Die Software hat sich inzwischen zu weit vom bisher eingesetzten Release entfernt und zwingt den Anwender, Funktionen oder Anpassungen von Grund auf neu zu entwickeln. Unter Umständen wirft ein solches Ereignis das komplette PLM-Projekt weit zurück, bisher getätigte Investitionen waren möglicherweise nutzlos. In jedem Fall liegt der hauptsächliche Aufwand beim Anwender selbst. Die Verantwortlichen befinden sich damit in einer Zwickmühle: Entweder warten sie mit einem Upgrade so lange wie möglich. Das birgt das Risiko, den Anschluss zu verlieren und benötigte Features der neuen Versionen nicht einsetzen zu können. Oder Unternehmen lassen sich auf das Upgrade und damit schwer kalkulierbare, aber unvermeidliche Anpassungen ein. Stellt sich dabei etwa heraus, dass eine wichtige Funktion des bestehenden Systems vom neuen Release nicht mehr unterstützt wird, ist es häufig schon zu spät für ein Zurück. Oft halten Anwender daher an veralteten Versionen fest, koste es, was es wolle. Und das ist hier im finanziellen Sinn wörtlich zu nehmen. Oft kommen sogar nötige Updates in anderen Bereichen dadurch nicht zustande. So können manche Unternehmen nicht auf neue Betriebssysteme migrieren, da ihr PLM-System diese nicht unterstützt. Das Unternehmen bleibt auf alter IT-Technologie sitzen und verliert den Anschluss. Um Investitionen in ein individuell eingerichtetes, integriertes System zu erhalten, ist ein PLM-System resilient aufzustellen, das heißt ein System für einen Produktlebenszyklus von mehr als 20 Jahren auszulegen. Während viele Anbieter PLM als ein Projekt verstehen, welches nach der Implementierung abschließt, ist diese Betrachtung zu kurz gefasst. Gartner Research hat ermittelt, dass über die Hälfte der Gesamtbetriebskosten über einen Zeitraum von fünf Jahren für eine konventionelle Anwendung wie PLM für Beratungen und interne Ressourcen anfallen, um das System zu warten und zu aktualisieren.

Anforderungen ändern sich

PLM ist als eine Reise zu begreifen. Während der Reisezeit ändern sich die Marktbedingungen und -Anforderungen kontinuierlich. Das System hat also einerseits den gesamten Zyklus zu überdauern, andererseits jedoch immer wieder auf Veränderungen zu reagieren. Ein wichtiger Aspekt bei der Realisierung eines anpassungsfähigen Systems ist die passende Technologie. Hier ist es entscheidend, die bisher gängige starre, fest im Quellcode verankerte Verbindung von Objektmodell, Geschäftslogik, Services und Datenbank aufzubrechen. Dies gelingt mit einer serviceorientierten Architektur (SOA) als Grundlage, die die unterschiedlichen, verbundenen Services wie Workflows, Lifecycles oder Berechtigungen zur Verfügung stellt. Darauf setzen Applikationen für die verschiedenen Anwendungsbereiche auf, wie zum Beispiel Anforderungsmanagement, Qualitätsmanagement oder Dokumentenmanagement. Nur auf der Plattformebene werden im Fall eines Upgrades Änderungen und Neuerungen umgesetzt. Die Applikationen – sowohl die vom PLM-Anbieter bereitgestellten als auch Eigenentwicklungen der Anwender – werden nicht beeinflusst. Auf die Services in diesem Laufzeit-Framework greifen Metadaten-Templates zu. Diese Templates sind komplett in XML erstellt und definieren alles für den Anwender Relevante. Geschäftslogiken, Lösungsmodelle, Funktionen, Arbeitsabläufe – alles wird in Form normalisierter Datenstrukturen in der Datenbank abgelegt. Man kann hier von einer modellbasierten SOA sprechen. Die Vorteile dieses Ansatzes liegen auf der Hand: Lösungs- und Geschäftsmodelle lassen sich in Echtzeit über einen Browser-basierten Client kombinieren, verändern und erweitern. Aufwendige Programmierung und Neukompilierung für jede noch so kleine Änderung gehört damit der Vergangenheit an. Im Fall eines Versionsupgrades fallen Änderungen nur an der zugrunde liegenden Plattform an. Das Upgrade ist für Unternehmen daher weder mit Downtime noch mit Aufwand verbunden, die Modellierebene ist davon gänzlich unberührt. Einige PLM-Anbieter übernehmen sämtliche Upgrades für die Kunden komplett, und das inklusive aller vom Kunden vorgenommen Anpassungen. Die Tatsache, dass das vollständige System auf offenen Standards und Internetprotokollen beruht, sorgt darüber hinaus für Transparenz und Sicherheit: Das System lässt sich reibungslos in vorhandene Umgebungen integrieren, die Daten sind jederzeit ohne spezielle, proprietäre Werkzeuge und Kenntnisse einsehbar. Dadurch wird der Anwender unabhängig von einem bestimmten Anbieter, es kommt nicht zum Vendor-Lock-in. Unternehmen können dadurch ihre Geschicke in Sachen PLM völlig selbst bestimmen.

Wissen konservieren

In der Luftfahrt sind Lebenszyklen von PLM-Systemen von 20 Jahren und mehr an der Tagesordnung. Entsprechend lang müssen Unternehmen auch nachvollziehen können, wann was an dem Produkt modifiziert wurde und welchen Status jedes einzelne Teil hat. Kollaborations-Tools unterstützen dabei, dieses Wissen und die Informationen innerhalb des Unternehmens verfügbar zu haben. Mit ihnen lassen sich Änderungen an 3D-Modellen, Dokumenten und anderen Datentypen problemlos über Abteilungen, Standorte oder sogar mehrere Unternehmen hinweg teilen. In sicheren Chaträumen können Anwender 2D- und 3D-Grafiken ebenso teilen wie Office-Dokumente und andere Dateien. Die Daten bleiben dort im passenden Kontext erhalten und für alle Beteiligten verfügbar. Sollten Mitarbeiter das Unternehmen verlassen, bleibt ihr Know-how greifbar. Außerdem ist die reibungslose Zusammenarbeit in internationalen Kontexten oder über die Lieferkette hinweg sehr einfach möglich. Der Druck auf Hersteller nimmt aufgrund erhöhter Compliance- und Haftungsanforderungen weltweit zu. Sie sind gut beraten, ihre Informationen zu Produkten sorgfältig zu dokumentieren. Nahezu in allen Branchen kommt zudem ein steigender Software- und Elektronikteil in den Produkten zum Einsatz. Ein anpassungsfähiges System unterstützt die Unternehmen dabei, in dynamischen Zeiten flexibel auf Veränderungen reagieren zu können und sich zukunftsfähig aufzustellen.

Das könnte Sie auch interessieren

Vom 22. bis zum 26. April wird Hannover zum Schaufenster für die Industrie. Neben künstlicher Intelligenz sollen insbesondere Produkte und Services für eine nachhaltigere Industrie im Fokus stehen.‣ weiterlesen

Eine Umfrage von Hewlett Packard Enterprise (HPE) unter 400 Führungskräften in Industrie-Unternehmen in Deutschland zeigt, dass zwei Drittel der Befragten den Data Act als Chance wahrnehmen. Der Data Act stieß unter anderem bei Branchenverbänden auf Kritik.‣ weiterlesen

Deutsche Unternehmen nehmen eine zunehmende Bedrohung durch Cyber-Angriffe wahr. Das zeigt eine aktuelle Umfrage vom Markt- und Meinungsforschungsinstitut YouGov im Auftrag von 1&1 Versatel, an der mehr als 1.000 Unternehmensentscheider teilnahmen.‣ weiterlesen

Carbon Management-Technologien stehen im Fokus, um CO2-Emissionen zu reduzieren und zu managen. Die Rolle des Maschinenbaus und mögliche Entwicklungspfade betrachtet eine neue Studie des VDMA Competence Center Future Business.‣ weiterlesen

Nach Bitkom-Berechnungen fehlen bis zum Jahr 2040 mehr als 660.000 IT-Fachkräfte. Welche Maßnahmen helfen könnten, diesem Trend entgegenzuwirken, hat der Verband beleuchtet. Potenziale liegen unter anderem darin, mehr Frauen für IT-Berufe zu begeistern oder den Quereinstieg zu erleichtern.‣ weiterlesen

Laut einer Studie der Unternehmensberatung Bain & Company könnten Unternehmen ihre Produktivität durch digitale Tools, Industrie 4.0-Technologien und Nachhaltigkeitsmaßnahmen steigern. Deren Implementierung von folgt oft jedoch keiner konzertierten Strategie.‣ weiterlesen

Hohe Geschwindigkeit und hohe Erkennungsraten sind die Anforderungen an die Qualitätskontrolle in der Verpackungsbranche. Wie diese Anforderungen erreicht werden können, zeigt das Unternehmen Inndeo mit einem Automatisierungssystem auf Basis von industrieller Bildverarbeitung und Deep Learning.‣ weiterlesen

Jeder zweite Betrieb investiert laut einer Betriebsräte-Befragung der IG Metall zu wenig am Standort. Demnach verfügen rund 48 Prozent der Unternehmen über eine Transformationsstrategie. Zudem sehen die Betriebsräte ein erhöhtes Risiko für Verlagerungen.‣ weiterlesen

Ob es sich lohnt, ältere Maschinen mit neuen Sensoren auszustatten, ist oft nicht klar. Im Projekt 'DiReProFit' wollen Forschende dieses Problem mit künstlicher Intelligenz zu lösen.‣ weiterlesen

Ziel des neuen VDMA-Forums Manufacturing-X ist es, der zunehmenden Bedeutung von Datenräumen als Basis für neue, digitale Geschäftsmodelle Rechnung zu tragen. Wie der Verband mitteilt, soll das Forum auf dem aufbauen, was in der letzten Dekade durch das VDMA-Forum Industrie 4.0 erarbeitet wurde. ‣ weiterlesen

Wie kann eine Maschine lernen, sich in unserer Lebenswelt visuell zu orientieren? Mit dieser Frage setzen sich die Wissenschaftler am Deutschen Forschungsinstitut für Künstliche Intelligenz (DFKI) aktuell auseinander – und entwickeln Lösungen.‣ weiterlesen