Systemarchitektur: Cloudbasierter Ansatz
der Social-Media-Giganten ist ungeeignet

Social-Media-Plattformen bieten ein Publikum mit täglich 2,9 Milliarden aktiven Nutzern, die Fotos und Videos mit ihren Freunden teilen, liken und kommentieren. Täglich kommen mehr als eine Million Nutzer hinzu, die primär mit ihrem mobilen Endgerät kommunizieren. Alleine Facebook verzeichnet in seinem globalen Rechenzentrum Hive einen eingehenden Datenstrom von ca. 600.000 GB pro Tag, was ca. 600 handelsüblichen 1TB-Festplatten entspricht. In der Größenordnung von 10 bis 100TB liegt der tägliche Bedarf der Netzwerke Instagram, Line, Snapchat, Tencent, VKontakte, WeChat und WhatsApp.

 (Bild: BCG Digital Ventures)

(Bild: BCG Digital Ventures)

Technisch gesehen besteht die Herausforderung jedoch nicht in der Handhabung des eingehenden Datenstroms, sondern in seiner Verteilung und Synchronisation mit Followern auf der ganzen Welt. Damit die Inhalte weltweit sofort verfügbar sind, haben Unternehmen wie Google, Microsoft, Facebook und Amazon in eine eigene Glasfaser-Infrastruktur (Projekt Marea) investiert und betreiben lokale Rechenzentren in bis zu 18 geografisch verteilten Regionen, um ihre Daten zu replizieren. Die Synchronisation der lokalen Rechenzentren verbraucht dabei einer Studie der Firma Infinera zufolge mehr als 50 Prozent der weltweit verfügbaren Internetbandbreite.

Verzögerungen reduzieren

In einer Welt des Internets der Dinge liegt die Herausforderung weniger in der Verteilung und Synchronisierung der Daten sondern vielmehr in der verzögerungs- und unterbrechungsfreien Kommunikation. Der zentrale, cloudbasierte Systemarchitekturansatz der Social- Media-Konzerne ist dafür jedoch ungeeignet. Selbst wenn man in der Lage wäre, die globale Infrastruktur flächendeckend durch Glasfaserkabel (200.000km/s) zu ersetzen, würde es immer noch 91ms dauern, bis ein Datenpaket von Berlin in das 9.105km entfernte San Francisco hin- und zurückgesendet wird. Für IoT Anwendungen im Bereich Home Automation oder Wearables stellt diese Verzögerung kein Problem dar. Im Kontext von industriellen Anwendungen sind 91ms eine beachtliche Zeitspanne. Ein selbstfahrendes Auto würde bei einer Geschwindigkeit von 50km/h eine Distanz von 1,25m zurücklegen – eine nicht unerhebliche Wegstrecke, die manchmal über Leben und Tod entscheiden kann. Die selbstfahrenden Autos der Zukunft sind daher mit eigener Rechenkapazität und Speicher ausgestattet, um die großen Datenmengen der optischen Sensorsystem lokal verarbeiten zu können. Das Warten auf die Antwort aus der Cloud ist also keine Option für das Industrial Internet of Things. Im Vergleich zur IoT-Welt bedeutet IIoT eine um eine Zehnerpotenz größere Datenmenge und die Notwendigkeit eine um zwei Zehnerpotenzen höhere Datenverarbeitungsgeschwindigkeit zu erzielen.

Anzeige

Maximale Transparenz am industriellen Arbeitsplatz - dafür sorgen die interaktiven Echtzeit-Dashboards auf Low-Code-Basis von Peakboard. Durch die neuen Dialogfunktionen können Fehlerquellen in der Produktion noch schneller behoben werden. ‣ weiterlesen

Große Datenmengen

Neben dem selbstfahrenden Auto finden sich typische IIoT-Anwendungen z.B. bei Predictive- Maintenance-Lösungen, die eine vorbeugende Instandhaltung von Maschinenkomponenten ermöglichen sollen. Oftmals stellt die dabei generierte Datenmenge die IT-Infrastruktur der produzierenden Unternehmen vor eine Herausforderung. Haupttreiber der Datenmenge ist die hohe Abtastrate (z.B. 1.000Hz) und die Notwendigkeit Messergebnisse möglichst exakt speichern (z.B. als 16-stellige Gleitkommazahl (8 Byte) zu können. Stattet man z.B. eine Werkzeugmaschine mit 60 Sensoren zur Zustandsüberwachung von Temperatur, Vibration und Zustand des Schmierstoffs aus, werden bei einer Abtastrate von 0,1ms in einem Zweischichtbetrieb (16h) pro Maschine bis zu 27GB an Rohdaten generiert. “Wenn die IT-Infrastruktur Ihres Unternehmens einen theoretischen Datenupload von 100MBit ermöglicht und 60 Prozent der Bandbreite für Sicherheits- und Overhead-Kommunikation reserviert ist, können Sie max. zehn Werkzeugmaschinen mit Predictive-Maintenance-Funktion anbinden, bis Ihre Netzwerkkapazität erschöpft ist”, sagte Dr. Markus Obdenbusch, Oberingenieur, WZL RWTH Aachen.

Das könnte Sie auch interessieren

Die Industrie arbeitet daran, die Barrieren zwischen IT und OT abzubauen. So können Unternehmen ihre Produktion effizienter und innovativer gestalten und im immer härter werdenden globalen Wettbewerb bestehen. Francis Chow von Red Hat erklärt, welche Rolle Open-Source-Technologien dabei spielen.‣ weiterlesen

3 Prozent der großen Industrieunternehmen setzen GenAI bereits großflächig ein, und rund ein Viertel hat erste Pilotprojekte gestartet. Laut einer Untersuchung der Unternehmensberatung McKinsey kann die Mehrheit der Unternehmen den Mehrwert der Technologie für den Unternehmenserfolg bislang aber noch nicht beziffern.‣ weiterlesen

Ein Bericht von ABI Research und Palo Alto Networks über den Stand der OT-Sicherheit zeigt, dass im vergangenen Jahr eines von vier Industrieunternehmen seinen Betrieb aufgrund eines Cyberangriffs vorübergehend stilllegen musste. Die Komplexität beim Einsatz von OT-Sicherheitslösungen stellt für die Befragten das größte Hindernis dar.‣ weiterlesen

Für dauerhafte Wettbewerbsfähigkeit müssen deutsche Hersteller angesichts weiterhin drohender Rezession und hoher Energiekosten die nächste Stufe der Digitalisierung erreichen. Die Mehrheit der Unternehmen bereitet sich in diesem Zug auf Smart Manufacturing vor, wie eine von Statista durchgeführte und Avanade beauftragte Studie zeigt.‣ weiterlesen

Vom 22. bis zum 26. April wird Hannover zum Schaufenster für die Industrie. Neben künstlicher Intelligenz sollen insbesondere Produkte und Services für eine nachhaltigere Industrie im Fokus stehen.‣ weiterlesen

Eine Umfrage von Hewlett Packard Enterprise (HPE) unter 400 Führungskräften in Industrie-Unternehmen in Deutschland zeigt, dass zwei Drittel der Befragten den Data Act als Chance wahrnehmen. Der Data Act stieß unter anderem bei Branchenverbänden auf Kritik.‣ weiterlesen

Mit der Do-it-yourself-Automatisierung sollen Unternehmen ihre Automatisierungskonzepte selbst gestalten können. Die Komponenten dafür werden über eine Plattform bereitgestellt. Etienne Lacroix, CEO der DIY-Plattform Vention erklärt das Konzept.‣ weiterlesen

Fraunhofer-Forschende haben für Fahrer und Fahrerinnen von Baumaschinen einen Helm mit integriertem Beschleunigungssensor entwickelt. Die Helm-Sensorik misst die Vibrationen der Baumaschinen. Die Sensorsignale werden analysiert, eine Software zeigt die Belastung für den Menschen an.‣ weiterlesen

Deutsche Unternehmen nehmen eine zunehmende Bedrohung durch Cyber-Angriffe wahr. Das zeigt eine aktuelle Umfrage vom Markt- und Meinungsforschungsinstitut YouGov im Auftrag von 1&1 Versatel, an der mehr als 1.000 Unternehmensentscheider teilnahmen.‣ weiterlesen

Carbon Management-Technologien stehen im Fokus, um CO2-Emissionen zu reduzieren und zu managen. Die Rolle des Maschinenbaus und mögliche Entwicklungspfade betrachtet eine neue Studie des VDMA Competence Center Future Business.‣ weiterlesen

Rund 2.700 Aussteller aus mehr als 50 Ländern werden vom 10. bis 14. Juni zur Achema in Frankfurt erwartet. Mit mehr als 1.000 Rednern setzt das begleitende Kongress- und Bühnenprogramm darüber hinaus Impulse für eine erfolgreiche Transformation der Prozessindustrie. An allen fünf Messetagen sollen zudem Angebote für den Nachwuchs zur Zukunftssicherung der Branche beitragen.‣ weiterlesen