Noch bevor wir alle die Cloud richtig verdaut haben, wird von IT-Strategen schon der nächste Paradigmenwechsel postuliert: Fog-Computing (oder “Edge Computing”, aber Fog klingt in Zeiten der Cloud einfach besser). Was ist das, was nutzt es und ist das wirklich neu? Ein Kommentar.

 

Was bedeutet Fog Computing?

Fog Computing meint zum einen eine stärkere Einbindung der Rechenleistung der Endgeräte (Computer, Tablets und Smartphones, aber auch Kaffeemaschinen, Triebwerke und Klimaanlagen) in die Gesamtanwendung, zum anderen werden neue Geräte gefordert, die als Schaltstationen zwischen der Cloud und den Endgeräten fungieren und dabei den Datentransfer über das (stets zu langsame) Internet reduzieren. Diese Schaltstationen könnten ggf. auch selbst die Daten mehrerer Endgeräte verarbeiten und somit die Cloud zweifach entlasten:

  • Es werden nicht mehr Rohdaten an die Cloud-Server übertragen, sondern lokal berechnete, verdichtete Daten, was die Masse der zu übertragenden Daten reduziert. Dies entlastet die Bandbreite.
  • Durch die Verteilung der Rechenleistung auf lokale Rechner wird weniger Rechenleistung auf den Cloud-Servern benötigt.

Ist Fog Computing neu?

Nein. Seit Anbeginn der Computertechnik werden in regelmäßigen Zyklen zwei Ansätze abwechselnd unter immer neuen Namen durch die IT-Gemeinde getrieben:

  • der zentralistische Ansatz (Terminal Server, Thin Client, Cloud Computing)
  • der dezentrale Ansatz (Personal Computer, Serviceorientierte Architektur, Fog Computing)

Somit ist Fog-Computing nur der nächste Schlauch, in dem uns alter Wein serviert wird. HealthDataSpace, den wir stolz als “Health Cloud” bezeichnen, könnte mit Fug und Recht auch das Attribut “Fog Computing” für sich beanspruchen. Schließlich findet ein Großteil der Anwendungslogik direkt auf dem Endgerät statt, nicht zuletzt die Ver- und Entschlüsselung. Das muss schon aus Datenschutzgründen so sein. Auch die Schaltstationen gibt es schon seit den 90ern, im Web heißen sie “Proxy Server”. Haben wir Digithurst Entwickler also das Fog-Computing erfunden? Natürlich nicht. Ganz selbstverständlich macht sich jedes gute Entwicklerteam Gedanken darüber, wie es die Architektur einer Anwendung so strukturiert, dass sie optimiert ist bezüglich der ihr zur Verfügung stehenden Ressourcen.

Die wesentlichen Ressourcen für jede Anwendungsarchitektur:

  • Rechenleistung
  • Speicherplatz
  • Bandbreite

Daraus ergeben sich fast schon auf natürliche Weise Entscheidungen, was wo stattzufinden hat, damit die Anwendung bei ihren Benutzern überhaupt Akzeptanz finden kann (oder um ein weiteres Buzzword zu bemühen: eine positive User Experience bewirkt). Es braucht dafür weder Cloud, noch Fog, noch Swamp, es braucht schlicht Menschen, die ihre Optionen verstehen und ihr Handwerk beherrschen. Am Ende werden die Entwicklerteams gewinnen, die gute Anwendungen bauen bzw. wie es Andreas Dobler, Geschäftsführer von Telepaxx, bezogen auf den Speicherdienst formuliert hat: “Wir machen Cloud Archiving schon seit 15 Jahren, wir wussten bisher bloß noch nicht, dass es so heißt.”

Ein Kommentar des Entwicklungsteams unseres Schwesterunternehmens Digithurst

Bildnachweis: ©photodune.net / racorn

Kommentar hinterlassen

Ihre Email-Adresse wird nicht veröffentlicht.