Mit der richtigen Architektur
ins Internet der Dinge

Hatten Unternehmen lange Zeit Bedenken bei der Implementierung eigener Cloud-Lösungen bezüglich Sicherheit und Anwendungsrahmen, wird die Cloud spätestens mit dem Einzug von IoT-Konzepten ins Unternehmen unumgänglich. Wenn schnelle Bereitstellung der Anwendungen, hohe Agilität und Skalierbarkeit sowie vorausschaubare und planbare Betriebskosten gefragt sind, ist eine Cloud-Lösung der richtige Ansatz.

Beim Edge Computing werden die Daten nicht an ein zentrales Rechenzentrum gesendet, sondern auf dem Gerät selbst verarbeitet. (Bild: GE)

Beim Edge Computing werden die Daten nicht an ein zentrales Rechenzentrum gesendet, sondern auf dem Gerät selbst verarbeitet. (Bild: GE)

Die dezentrale Architektur von Cloud Computing ermöglicht den Fernzugriff von überall auf die abgelegten Daten und vereinfacht unter anderem die Zusammenarbeit von weit entfernten Teams an gemeinsamen Projekten. Was aber passiert, wenn Trilliarden an Endgeräten riesige Datenmengen senden, die in kritischen Fällen in Echtzeit ausgewertet werden müssen?

Intelligenz bewegt sich ‘an den Rand’

Edge Computing oder auch Fog Computing ist ein Ansatz dafür. Die Daten werden hierbei nicht über das Internet an ein zentrales Rechenzentrum gesendet, sondern auf dem Gerät selbst und damit am Entstehungsort der Daten verarbeitet, etwa im vernetzten Auto oder in einer Überwachungskamera. Edge Computing unterstützt somit Hochleistungsinteraktionen in Echtzeit, da sie weder durch Batchverarbeitung noch netzwerkbedingte Latenzzeiten ausgebremst werden. Die Geräte am Rande der Cloud kommunizieren miteinander und treffen unabhängig von ihr Entscheidungen. Möglich wird dadurch nicht nur die Sammlung, Verarbeitung und Analyse von Daten aus der ‘Außenwelt’, sondern auch die umgekehrte Richtung. Das neueste Update für die Videoüberwachungskameras eines großen Gebäudekomplexes muss somit nicht mehr vom zentralen Server an jedes einzelne Gerät im Netzwerk geschickt werden, sondern nur noch an eine für Edge Computing ausgerüstete Kamera, über die daraufhin die Verteilung an alle anderen Geräte läuft. Dieser Ansatz ist nicht gänzlich neu, die Umsetzung ist jedoch erst heutzutage möglich. Die Gründe sind einfach: Die Software ist mittlerweile so weit entwickelt, dass sie nicht mehr nur auf Hochleistungshardware laufen muss. Zudem ebnen die Geräte selbst den Weg für diese Form der Datenverarbeitung, indem sie Speicher, Rechenleistung und Netzwerkverbindung in sich vereinen können – all diese Komponenten, die früher nur im zentralen Rechenzentrum zu finden waren. Mussten die Daten vorher zunächst über das Netzwerk an ein solches Rechenzentrum geschickt und dort gespeichert werden, um sie daraufhin analysieren und weiterverarbeiten zu können, wird es für die Einleitung eines Bremsvorganges in den selbstfahrenden Autos der Zukunft schon zu spät sein. Trotz rechtzeitiger Sensorwarnung droht der Auffahrunfall. Der gesamte Prozess kann am Entstehungsort selbst, in diesem Fall im vernetzten Auto, ablaufen. Schließlich können Rechenleistung, Speicherkapazität und Anwendungen mittlerweile von einer kleinen Computing-Box in der Größe eines Laptops geliefert werden, die am Rand des Netzwerkes platziert wird.

Gründe für das Edge Computing

Wie bereits angedeutet, wird die Geschwindigkeit der Datentransfers aufgrund teils hoher Latenzzeiten im Netzwerk bald zum Problem in der Cloud. Heutzutage mag das noch für die meisten IT- und Kommunikationsprozesse funktionieren. Mit der drastischen Zunahme an intelligenten, vernetzten Geräten wird dies zukünftig jedoch zu einer echten Herausforderung. Bereits jetzt setzen Unternehmen in vielen Bereichen auf Echtzeit-Analysen von Daten, um kurzfristig Entscheidungen treffen zu können und dadurch Wettbewerbsvorteile zu erzielen, sei es in der Produktion, während des Produkteinsatzes oder für Marketingzwecke, da diese Daten kurz nach ihrer Erhebung am wertvollsten sind. Spätestens mit der zunehmenden Automatisierung der Produktion oder selbstfahrenden Autos, Bahnen oder Bussen wird die direkte Verarbeitung sogar essentiell, um frühzeitig auf drohende Maschinenausfälle, Unfälle und Schäden reagieren zu können. Edge Computing bietet hier die Möglichkeit, die Daten bereits zu verarbeiten und zu analysieren, bevor sie zentral gesammelt werden. So können im Anschluss etwa nur bestimmte Datensätze, sofern sinnvoll oder durch Richtlinien für Datenverarbeitung und -schutz vorgegeben, an das Rechenzentrum übermittelt und dort abgelegt werden. Bei datenintensiven und zeitkritischen Anwendungen empfiehlt sich eine Vorverarbeitung vor Ort auch, um mögliche Sicherheitsrisiken zu vermeiden. Daten werden beim Edge Computing eben nicht in weit entfernten Rechenzentren oder im Ausland verarbeitet, wo womöglich andere Vorschriften im Umgang mit Daten herrschen. Darüber hinaus sind die Geräte selbst sichererer und verringern die Zahl möglicher Zugangspunkte für mögliche Angriffe von außen. Ein weiterer wesentlicher Grund für die Verlagerung an den Rand des Netzwerks sind die hohen Kosten für den Transport riesiger Datenvolumen zum Rechenzentrum oder zur Cloud. Ein einfaches Beispiel illustriert diese Datenmengen: Ein intelligenter Stromzähler, der alle 15 Minuten misst, generiert 400 Megabyte im Jahr. Eine mittelgroße Gemeinde mit 500.000 Stromkunden kommt damit jährlich auf 200 Terabyte an Daten – eine gewaltige Menge, die es zu sammeln, verarbeiten und speichern gilt. Dabei sind nicht immer alle Daten gleich wichtig und gleich zeitkritisch. Die Wahl zwischen einer Cloud- oder Edge-Verarbeitung wird von der Anwendung selber getroffen und hängt davon ab, welche Daten dringend mitgeteilt werden müssen und welche nicht.

Das könnte Sie auch interessieren

Vom 22. bis zum 26. April wird Hannover zum Schaufenster für die Industrie. Neben künstlicher Intelligenz sollen insbesondere Produkte und Services für eine nachhaltigere Industrie im Fokus stehen.‣ weiterlesen

Eine Umfrage von Hewlett Packard Enterprise (HPE) unter 400 Führungskräften in Industrie-Unternehmen in Deutschland zeigt, dass zwei Drittel der Befragten den Data Act als Chance wahrnehmen. Der Data Act stieß unter anderem bei Branchenverbänden auf Kritik.‣ weiterlesen

Fraunhofer-Forschende haben für Fahrer und Fahrerinnen von Baumaschinen einen Helm mit integriertem Beschleunigungssensor entwickelt. Die Helm-Sensorik misst die Vibrationen der Baumaschinen. Die Sensorsignale werden analysiert, eine Software zeigt die Belastung für den Menschen an.‣ weiterlesen

Deutsche Unternehmen nehmen eine zunehmende Bedrohung durch Cyber-Angriffe wahr. Das zeigt eine aktuelle Umfrage vom Markt- und Meinungsforschungsinstitut YouGov im Auftrag von 1&1 Versatel, an der mehr als 1.000 Unternehmensentscheider teilnahmen.‣ weiterlesen

Carbon Management-Technologien stehen im Fokus, um CO2-Emissionen zu reduzieren und zu managen. Die Rolle des Maschinenbaus und mögliche Entwicklungspfade betrachtet eine neue Studie des VDMA Competence Center Future Business.‣ weiterlesen

Nach Bitkom-Berechnungen fehlen bis zum Jahr 2040 mehr als 660.000 IT-Fachkräfte. Welche Maßnahmen helfen könnten, diesem Trend entgegenzuwirken, hat der Verband beleuchtet. Potenziale liegen unter anderem darin, mehr Frauen für IT-Berufe zu begeistern oder den Quereinstieg zu erleichtern.‣ weiterlesen

Laut einer Studie der Unternehmensberatung Bain & Company könnten Unternehmen ihre Produktivität durch digitale Tools, Industrie 4.0-Technologien und Nachhaltigkeitsmaßnahmen steigern. Deren Implementierung von folgt oft jedoch keiner konzertierten Strategie.‣ weiterlesen

Hohe Geschwindigkeit und hohe Erkennungsraten sind die Anforderungen an die Qualitätskontrolle in der Verpackungsbranche. Wie diese Anforderungen erreicht werden können, zeigt das Unternehmen Inndeo mit einem Automatisierungssystem auf Basis von industrieller Bildverarbeitung und Deep Learning.‣ weiterlesen

Jeder zweite Betrieb investiert laut einer Betriebsräte-Befragung der IG Metall zu wenig am Standort. Demnach verfügen rund 48 Prozent der Unternehmen über eine Transformationsstrategie. Zudem sehen die Betriebsräte ein erhöhtes Risiko für Verlagerungen.‣ weiterlesen

@Grundschrift_NH:Die Implementierung von künstlicher Intelligenz in Unternehmen erreicht oft nicht das erforderliche Maß für eine signifikante Wertschöpfung. ‣ weiterlesen

Ob es sich lohnt, ältere Maschinen mit neuen Sensoren auszustatten, ist oft nicht klar. Im Projekt 'DiReProFit' wollen Forschende dieses Problem mit künstlicher Intelligenz zu lösen.‣ weiterlesen