Systemarchitektur: Cloudbasierter Ansatz
der Social-Media-Giganten ist ungeeignet

Social-Media-Plattformen bieten ein Publikum mit täglich 2,9 Milliarden aktiven Nutzern, die Fotos und Videos mit ihren Freunden teilen, liken und kommentieren. Täglich kommen mehr als eine Million Nutzer hinzu, die primär mit ihrem mobilen Endgerät kommunizieren. Alleine Facebook verzeichnet in seinem globalen Rechenzentrum Hive einen eingehenden Datenstrom von ca. 600.000 GB pro Tag, was ca. 600 handelsüblichen 1TB-Festplatten entspricht. In der Größenordnung von 10 bis 100TB liegt der tägliche Bedarf der Netzwerke Instagram, Line, Snapchat, Tencent, VKontakte, WeChat und WhatsApp.

 (Bild: BCG Digital Ventures)

(Bild: BCG Digital Ventures)

Technisch gesehen besteht die Herausforderung jedoch nicht in der Handhabung des eingehenden Datenstroms, sondern in seiner Verteilung und Synchronisation mit Followern auf der ganzen Welt. Damit die Inhalte weltweit sofort verfügbar sind, haben Unternehmen wie Google, Microsoft, Facebook und Amazon in eine eigene Glasfaser-Infrastruktur (Projekt Marea) investiert und betreiben lokale Rechenzentren in bis zu 18 geografisch verteilten Regionen, um ihre Daten zu replizieren. Die Synchronisation der lokalen Rechenzentren verbraucht dabei einer Studie der Firma Infinera zufolge mehr als 50 Prozent der weltweit verfügbaren Internetbandbreite.

Verzögerungen reduzieren

In einer Welt des Internets der Dinge liegt die Herausforderung weniger in der Verteilung und Synchronisierung der Daten sondern vielmehr in der verzögerungs- und unterbrechungsfreien Kommunikation. Der zentrale, cloudbasierte Systemarchitekturansatz der Social- Media-Konzerne ist dafür jedoch ungeeignet. Selbst wenn man in der Lage wäre, die globale Infrastruktur flächendeckend durch Glasfaserkabel (200.000km/s) zu ersetzen, würde es immer noch 91ms dauern, bis ein Datenpaket von Berlin in das 9.105km entfernte San Francisco hin- und zurückgesendet wird. Für IoT Anwendungen im Bereich Home Automation oder Wearables stellt diese Verzögerung kein Problem dar. Im Kontext von industriellen Anwendungen sind 91ms eine beachtliche Zeitspanne. Ein selbstfahrendes Auto würde bei einer Geschwindigkeit von 50km/h eine Distanz von 1,25m zurücklegen – eine nicht unerhebliche Wegstrecke, die manchmal über Leben und Tod entscheiden kann. Die selbstfahrenden Autos der Zukunft sind daher mit eigener Rechenkapazität und Speicher ausgestattet, um die großen Datenmengen der optischen Sensorsystem lokal verarbeiten zu können. Das Warten auf die Antwort aus der Cloud ist also keine Option für das Industrial Internet of Things. Im Vergleich zur IoT-Welt bedeutet IIoT eine um eine Zehnerpotenz größere Datenmenge und die Notwendigkeit eine um zwei Zehnerpotenzen höhere Datenverarbeitungsgeschwindigkeit zu erzielen.

Große Datenmengen

Neben dem selbstfahrenden Auto finden sich typische IIoT-Anwendungen z.B. bei Predictive- Maintenance-Lösungen, die eine vorbeugende Instandhaltung von Maschinenkomponenten ermöglichen sollen. Oftmals stellt die dabei generierte Datenmenge die IT-Infrastruktur der produzierenden Unternehmen vor eine Herausforderung. Haupttreiber der Datenmenge ist die hohe Abtastrate (z.B. 1.000Hz) und die Notwendigkeit Messergebnisse möglichst exakt speichern (z.B. als 16-stellige Gleitkommazahl (8 Byte) zu können. Stattet man z.B. eine Werkzeugmaschine mit 60 Sensoren zur Zustandsüberwachung von Temperatur, Vibration und Zustand des Schmierstoffs aus, werden bei einer Abtastrate von 0,1ms in einem Zweischichtbetrieb (16h) pro Maschine bis zu 27GB an Rohdaten generiert. „Wenn die IT-Infrastruktur Ihres Unternehmens einen theoretischen Datenupload von 100MBit ermöglicht und 60 Prozent der Bandbreite für Sicherheits- und Overhead-Kommunikation reserviert ist, können Sie max. zehn Werkzeugmaschinen mit Predictive-Maintenance-Funktion anbinden, bis Ihre Netzwerkkapazität erschöpft ist“, sagte Dr. Markus Obdenbusch, Oberingenieur, WZL RWTH Aachen.

Das könnte Sie auch interessieren

Onlinezugangsgesetz, digitales Bürgerportal, E-Government-Gesetz: Die Agenda der Anforderungen an die Digitalisierung der öffentlichen Verwaltungen ist lang. Abseits des Dauerthemas IT-Sicherheit beschäftigt die Behörden vor allem die Umsetzung der E-Akte. Das zeigt die Studie 'Branchenkompass Public Services 2018' von Sopra Steria Consulting in Zusammenarbeit mit dem F.A.Z.-Institut.‣ weiterlesen

Selbständig arbeitende Staubsauger und Rasenmäher gehören mittlerweile zum Alltag. Und das ist nur die sichtbare Spitze des riesigen Eisberges Internet der Dinge (Internet of Things, IoT). Studie der Unternehmensberatung BearingPoint und des IIHD Instituts analysiert, wie IoT für den stationären Handel zum 'Game Changer' wird.‣ weiterlesen

Die Unternehmensberatung PWC hat für ihren Global Blockchain Survey weltweit 600 Führungskräfte und Fachexperten befragt. Demnach befassen sich 84 Prozent der Befragten aktiv mit der Technologie. 15 Prozent haben bereits Projekte umgesetzt.‣ weiterlesen

Mit der Hightech-Strategie 2025 will die Bundesregierung einen Leitfaden für die Zukunft schaffen. Insgesamt wurden dafür zwölf Missionen identifiziert. Das Investitionsvolumen für das laufende Jahr beträgt 15 Milliarden Euro.‣ weiterlesen

Im Zuge der Digitalisierung der Arbeitswelt haben die Managementberatung Kienbaum und die Online-Jobplattform Stepstone den Veränderungsgrad von Führung untersucht. Für die Studie wurde im ersten Quartal 2018 eine Online-Befragung durchgeführt, an der rund 13.500 Fach- und Führungskräfte teilgenommen haben.‣ weiterlesen

Eine Studie von Fujitsu zeigt: Nur 25 Prozent der europäischen Unternehmen sehen Künstliche Intelligenz als strategisch wichtig an und nur elf Prozent verfügen über eine KI-Strategie.‣ weiterlesen