von RA Thomas Schmidt | 17.11.2020
RA Thomas Schmidt – Geschäftsführer der RA-MICRO Vertriebs GmbH – fasst zusammen, was sich hinter dem Begriff „Cloud“ verbirgt.
Alle wollen in die Cloud?! Zugegeben, das ist zu allgemein formuliert, aber zumindest spielen sehr viele mit dem Gedanken. Egal ob privat oder im Geschäftsleben. Und die meisten sind bereits in der Cloud, wissen es womöglich aber nicht. Die Frage ist nur, was ist die Cloud?
Letztlich kann man schnell zusammenfassen, was allgemein unter Cloud zu verstehen ist: Es sind Computer mit Datenspeichern, die nicht mehr bei den jeweiligen Nutzern zu Hause oder im Büro stehen, sondern an Orten, die eher einer Lagerhalle ähneln. Und da sind die einzelnen Computer nicht allein. Im Gegenteil, es gibt dort sehr viele davon. In der Regel in Reih und Glied, laut surrend, fast kreischend, blinkend und mit vielen Kabeln, die diese an ein Netzwerkwerksystem anschließen. Und von diesen Lagerhallen gibt es ebenfalls viele. Zu viele für einen Ort, darum sind diese Lagerhallen auch wieder miteinander vernetzt, damit sich die Computer innerhalb dieser Hallen mit denen aus den anderen Hallen „unterhalten“ können. Diese „Unterhaltung“ dient naturgemäß nicht dem einfachen Austausch – nein, es dient viel mehr dazu ständig zu prüfen, ob der andere noch da ist, ob er noch genug Speicherplatz hat, ob sich ansonsten etwas verändert hat, was der jeweils andere „wissen“ sollte.
Im Ergebnis kann man mit seinem Smartphone jemand anderem eine Nachricht schicken, vielleicht mit einem witzigen Schnappschuss. Diese Nachricht landet dann samt Foto auf einem dieser Computer in einer der Hallen und der andere Nutzer erhält Zugriff auf diese Datei. Bei der Summe der Nachrichten, Fotos, Videos, die in sozialen Medien veröffentlicht werden und der sich ständig verändernden Anzahl der Nutzer, die wieder weltweit verteilt sind, wäre es nur schwerlich möglich, dies mit einem einzelnen Computer an einem Standort rund um die Uhr zu bewerkstelligen. Das Gleiche gilt natürlich für viele weitere Dienste, die über das Internet angeboten werden: Webseiten, App-Anwendungen, Zahlungssysteme, Streamingdienste u. v. m. Darum schaltet man typischerweise ganze Computer „in Serie“, sodass diese nach Außen nicht mehr als einzelne Computer erscheinen, sondern ihre Ressourcen zusammenwirken und dadurch besonders leistungsfähig sind. Fällt ein Computer aus – und das ist in der EDV-Welt letztlich immer eine Wann-Frage, können die anderen erstmal dessen Aufgaben übernehmen. Es wird zwar dann ein wenig langsamer, aber die Dienste sind weiterhin aktiv, bis der ausgefallene Computer ersetzt wurde.
Bei all den großartigen Vorteilen gibt es in der Regel bei diesen Systemen einen entscheidenden Nachteil: Man weiß nicht genau, wo die einzelne Nachricht, das Foto, das Video oder eben auch das Dokument mit all den darin gespeicherten vertraulichen Daten liegt und wer letztlich darauf Zugriff hat.
Darum gibt es Anbieter, die beide Welten kombinieren. Der Computer steht nicht mehr im eigenen Büro, sondern in der „Halle“ des Rechenzentrumanbieters. Dieser Computer wird dann so konfiguriert, dass der Nutzer einen Teil der Ressourcen dieses Computers erhält, auf die nur er Zugriff hat. Die anderen Teile werden an weitere Kunden vergeben, ohne dass es zu Überschneidungen der genutzten Ressourcen kommt. So kann man in der Flut der Computer und Speicher im Internet am Ende trotzdem genau sagen, wo sich die Daten des Nutzers befinden. Durch die Mehrfachnutzung teilen sich die Kosten der ungleich teureren Rechenzentrumscomputer auf die einzelnen Kunden so auf, dass diese für den einzelnen dennoch wirtschaftlich sinnvoll sind. Außerdem genießen alle zusammen die Vorteile der „Cloud“: hat der einzelne professionelle Hochleistungs-Computer doch ein größeres Problem, wird dieses Problem durch die Techniker des Rechenzentrums behoben. Sollte dies im schlimmsten Fall nicht machbar sein, erhält der Nutzer eine Systemrücksicherung auf einem dann neuen Austauschcomputer im Rechenzentrum je nach Datenmengen innerhalb von wenigen Stunden. Darüber hinaus ist der einzelne Computer im Rechenzentrum – anders als der normale PC zu Hause oder im Büro – mit einer starken, mehrfach ausgelegten Internetleitung verbunden, wird professionell gekühlt und hat eine Notstromversorgung. Achtung: Es gibt leider Fälle, bei denen die o.g. Mehrfachverteilung durch Rechenzentrumanbieter so weit geht, dass, überspitzt formuliert, das übrig gebliebene einzelne Kuchenstück nur noch von der Seite sichtbar ist. Dann spürt der Nutzer jede Last, die sein „Nachbar“ auf dem gleichen Rechner auslöst. Auch wenn dies für das Rechenzentrum und den Nutzer finanziell verlockend ist, da beide weniger bezahlen müssen, sollte das ein Showstopper sein. Denn auch wenn es Synergieeffekte im Rechenzentrum gibt, ein perpetuum mobile wird dadurch nicht erschaffen. Eine gesicherte Hardwarezuteilung in Bezug auf Prozessor, Arbeitsspeicher und Festplatte für jeden (weiteren) Benutzer ist elementar für einen reibungslosen Betrieb und sollte vom Cloud-Anbieter zur Verfügung gestellt werden.
Wenn also der Server im Büro nun eh alt geworden sein sollte und/oder man nur noch in technisch reduzierter Form unterwegs sein möchte, z. B. mit günstigen Büro-PCs oder gar sogenannten Thin-Clients. Und wenn man unterwegs entweder mit (günstigem) Laptop oder gar Tablet arbeitet, dann sollte man sich überlegen, die Cloud-Variante des Servers für sich zu nutzen. Das Nutzererlebnis (user experience – schöne Bezeichnung, ich meine dies zum ersten Mal bei Microsoft gelesen zu haben) ist je nach Anbieter, praktisch das gleiche. Es fühlt sich an wie ein Windows 10 PC neuester Bauart mit Betriebssystem, Office und Fachanwendungen, die ebenfalls auf dem Hochleistungs-Computer im Rechenzentrum laufen. Durch seinen eigenen PC im Büro greift man letztlich wie durch ein Fenster auf diese Ressourcen zu. Immer vorausgesetzt, man hat Internet…
Und da gilt im Homeoffice oder im Real-Office: Schenken Sie den Angaben „bis zu“ doch besondere Aufmerksamkeit. Bis zu 1000 Mbit/s klingt toll. Noch mehr der Preis: rund 50 € brutto mtl. bei diversen Anbietern. Leider ist das im Ergebnis ein theoretischer Maximalwert – aufschlussreicher sind da schon die Informationsblätter, die jedem Angebot mittlerweile beigefügt werden (müssen). Mindestens 600 Mbit/s bleiben von den 1000 noch über (und aus Erfahrung: das auch nur, wenn die Nachbarn nicht gerade eine 10-staffelige Netflix-Serie konsumieren). Streitigkeiten mit dem Internetanbieter sind da vorprogrammiert und der Nachweis, dass es nicht am eigenen Netzwerk liegt, mühsam. Tendenziell haben sich VDSL-Leitungen gegenüber den Kabel-Internetleitungen als zuverlässiger erwiesen. Gerade im Bereich der verschlüsselten Internetverbindung (Stichwort VPN) scheinen mit Kabel-Internetleitungen deutliche Geschwindigkeitseinbußen einherzugehen. Von den 1000 Mbit/s bleiben dann ggf. sage und schreibe 20-30 Mbit/s über, das wären dann so 2-4 Mbyte/s. Eine VDSL 100 Leitung schafft auf wundersame Weise 10 Mbyte/s.
Auch hilfreich bei Verbindungsproblemen ist der Weg ins Internet über eine Kabelverbindung… ja, ist nicht schön, ein langes graues Netzwerkkabel durch das Wohnzimmer liegen zu sehen, bei sehr starker WLAN-Nachbarschaft manchmal aber ein Segen für Verbindungsstabilität und -qualität. Und spätestens wenn man sich an Videokonferenzen mit mehreren Teilnehmern beteiligt, ist eine gute Verbindung ein Segen.
Neuere WLAN-Technologien, Stichwort 5 GHz, ax-Standard und WPA3 sollten nach Möglichkeit vom aktuellen WLAN-Router beherrscht werden. Das kann auch schon viel bringen. Mesh-Systeme, die allerorts als Heilsbringer und in TV-Werbungen einen ununterbrochenen WLAN-Empfang vom Waschküchenkeller bis in Dachböden versprechen, sind ebenfalls mit Vorsicht zu genießen. Diese kochen grundsätzlich alle nur mit Wasser: sobald ein WLAN-Router, bzw. streng genommen ein WLAN-Zugangspunkt aus dem Mesh, also Verbundsystem näher zu sein scheint als der bisherige, schaltet der/das Laptop/Tablet/Smartphone auf diesen Zugangspunkt um – ein Internet-Telefonat oder eine Videokonferenz findet, kommt dabei unter Umständen unter die Räder. Werden die einzelnen Zugangspunkte nicht per verlegtem Netzwerkkabel im Büro/Homeoffice verbunden, sondern ebenfalls per WLAN, können spontane Ein- oder Zusammenbrüche der Qualität ohne ersichtlichen Grund durchaus die Folge sein. Noch ein Satz zu Powerline, also Netzwerkkabel über die Stromleitungen: Nur als absolute Notlösung, sonst Finger davon lassen.
Und ein letzter Punkt noch: Wenn man in die sichere Cloud gehen möchte, sollte man sich auch gleich überlegen, wie man da wieder rauskommt. Man sollte eine Cloud-Lösung wählen, bei der man keine Abhängigkeit aufbaut. Empfehlenswert ist folgende Lösung: Windows Server 2019 im Rechenzentrum wird (mehrfach) täglich ins Homeoffice oder in das Real-Office auf eine Synology DS-720+ per Active Backup for Business gesichert. Fällt dieser aus oder möchte man ohne Cloud weitermachen: Wiederherstellung dieses Windows Servers außerhalb der Cloud auf einem besseren PC oder kleinen Server, je nach Datenmenge dauert das zwischen 30 und 240 Minuten. Ergebnis: Sie sind wieder raus aus der Cloud.