Systemarchitektur: Cloudbasierter Ansatz
der Social-Media-Giganten ist ungeeignet

Social-Media-Plattformen bieten ein Publikum mit täglich 2,9 Milliarden aktiven Nutzern, die Fotos und Videos mit ihren Freunden teilen, liken und kommentieren. Täglich kommen mehr als eine Million Nutzer hinzu, die primär mit ihrem mobilen Endgerät kommunizieren. Alleine Facebook verzeichnet in seinem globalen Rechenzentrum Hive einen eingehenden Datenstrom von ca. 600.000 GB pro Tag, was ca. 600 handelsüblichen 1TB-Festplatten entspricht. In der Größenordnung von 10 bis 100TB liegt der tägliche Bedarf der Netzwerke Instagram, Line, Snapchat, Tencent, VKontakte, WeChat und WhatsApp.

 (Bild: BCG Digital Ventures)

(Bild: BCG Digital Ventures)

Technisch gesehen besteht die Herausforderung jedoch nicht in der Handhabung des eingehenden Datenstroms, sondern in seiner Verteilung und Synchronisation mit Followern auf der ganzen Welt. Damit die Inhalte weltweit sofort verfügbar sind, haben Unternehmen wie Google, Microsoft, Facebook und Amazon in eine eigene Glasfaser-Infrastruktur (Projekt Marea) investiert und betreiben lokale Rechenzentren in bis zu 18 geografisch verteilten Regionen, um ihre Daten zu replizieren. Die Synchronisation der lokalen Rechenzentren verbraucht dabei einer Studie der Firma Infinera zufolge mehr als 50 Prozent der weltweit verfügbaren Internetbandbreite.

Verzögerungen reduzieren

In einer Welt des Internets der Dinge liegt die Herausforderung weniger in der Verteilung und Synchronisierung der Daten sondern vielmehr in der verzögerungs- und unterbrechungsfreien Kommunikation. Der zentrale, cloudbasierte Systemarchitekturansatz der Social- Media-Konzerne ist dafür jedoch ungeeignet. Selbst wenn man in der Lage wäre, die globale Infrastruktur flächendeckend durch Glasfaserkabel (200.000km/s) zu ersetzen, würde es immer noch 91ms dauern, bis ein Datenpaket von Berlin in das 9.105km entfernte San Francisco hin- und zurückgesendet wird. Für IoT Anwendungen im Bereich Home Automation oder Wearables stellt diese Verzögerung kein Problem dar. Im Kontext von industriellen Anwendungen sind 91ms eine beachtliche Zeitspanne. Ein selbstfahrendes Auto würde bei einer Geschwindigkeit von 50km/h eine Distanz von 1,25m zurücklegen – eine nicht unerhebliche Wegstrecke, die manchmal über Leben und Tod entscheiden kann. Die selbstfahrenden Autos der Zukunft sind daher mit eigener Rechenkapazität und Speicher ausgestattet, um die großen Datenmengen der optischen Sensorsystem lokal verarbeiten zu können. Das Warten auf die Antwort aus der Cloud ist also keine Option für das Industrial Internet of Things. Im Vergleich zur IoT-Welt bedeutet IIoT eine um eine Zehnerpotenz größere Datenmenge und die Notwendigkeit eine um zwei Zehnerpotenzen höhere Datenverarbeitungsgeschwindigkeit zu erzielen.

Große Datenmengen

Neben dem selbstfahrenden Auto finden sich typische IIoT-Anwendungen z.B. bei Predictive- Maintenance-Lösungen, die eine vorbeugende Instandhaltung von Maschinenkomponenten ermöglichen sollen. Oftmals stellt die dabei generierte Datenmenge die IT-Infrastruktur der produzierenden Unternehmen vor eine Herausforderung. Haupttreiber der Datenmenge ist die hohe Abtastrate (z.B. 1.000Hz) und die Notwendigkeit Messergebnisse möglichst exakt speichern (z.B. als 16-stellige Gleitkommazahl (8 Byte) zu können. Stattet man z.B. eine Werkzeugmaschine mit 60 Sensoren zur Zustandsüberwachung von Temperatur, Vibration und Zustand des Schmierstoffs aus, werden bei einer Abtastrate von 0,1ms in einem Zweischichtbetrieb (16h) pro Maschine bis zu 27GB an Rohdaten generiert. „Wenn die IT-Infrastruktur Ihres Unternehmens einen theoretischen Datenupload von 100MBit ermöglicht und 60 Prozent der Bandbreite für Sicherheits- und Overhead-Kommunikation reserviert ist, können Sie max. zehn Werkzeugmaschinen mit Predictive-Maintenance-Funktion anbinden, bis Ihre Netzwerkkapazität erschöpft ist“, sagte Dr. Markus Obdenbusch, Oberingenieur, WZL RWTH Aachen.

Das könnte Sie auch interessieren

Laut einer Studie des Beratungshauses Capgemini wollen rund 44 Prozent der Unternehmen in Deutschland, Österreich und der Schweiz ihre IT-Ausgaben erhöhen. Etwa jeder siebte der 108 befragten IT-Verantwortlichen gab an, das Budget um mehr als zehn Prozent anzuheben. Damit setzt sich bei den IT-Ausgaben der positive Trend der beiden vorangegangenen Erhebungen weiter fort.‣ weiterlesen

Der Digitalisierungsindex der Deutschen Telekom zeigt, dass mittelständische Industrieunternehmen bei der Digitalisierung weiter sind als andere Branchen: Mit 58 von 100 möglichen Punkten liegt die Industrie über dem branchenübergreifenden Schnitt. Zu den Digital Leadern fehlt jedoch noch ein ganzes Stück.‣ weiterlesen

Gehen Mitarbeiter in den Ruhestand oder wechseln Angestellte den Arbeitgeber, geht mittelständischen Unternehmen wichtiges Wissen über Produkte, Prozesse und Kunden verloren. Digitales Wissensmanagement kann dabei unterstützen, Erfahrungen und Know-how zu erhalten.‣ weiterlesen

Die Mehrheit der deutschen Unternehmen setzt auf Weiterbildung wenn es um digitale Themen geht. Das geht aus einer Bitkom-Studie hervor. Demnach ist der Anteil der Unternehmen, die auf die Schulung ihrer Mitarbeiter setzen im Vergleich zu einer vorherigen Erhebung angestiegen.‣ weiterlesen

Deutschland soll Technologieführer für künstliche Intelligenz (KI) werden, so das Ziel der Bundesregierung. Schon heute werden zahlreiche Lernende Systeme und KI-Anwendungen in Deutschland entwickelt und angewendet. Die Plattform Lernende Systeme hat daher eine KI-Landkarte veröffentlicht um zu zeigen, wo die Technologie bereits eingesetzt wird.‣ weiterlesen

Laverana zählt zu den Pionieren für Naturkosmetik in Deutschland. Das Unternehmen setzt auf Werte wie Qualität, verantwortungsvolle Unternehmensführung und Nachhaltigkeit. Seine Managementsysteme steuert das Unternehmen inzwischen über ein integriertes Managementsystem. TÜV Rheinland hat dies im Rahmen einer Kombi-Zertifizierung geprüft.‣ weiterlesen