Ein weiterer Angriffspunkt für Cloud-Bedenkenträger ist der Datentransfer. Der Transfer großer Datenmengen kann in der Tat ein unangenehmer Engpass sein. Wer das mal ausprobieren möchte, kann ja mal seine Ethernetverbindung auf 10MBit drosseln und dann 10GB Daten verschieben. Auf einmal entwickelt man unglaubliches Verständnis für die Entwickler von Kompressionsalgorithmen, und für die von 10GBIT Ethernet.
Doch der Datentransfer kann sich in mehreren Dimensionen zum Engpass entwickeln: Neben dem offensichtlichen zeitlichen Engpass, mehrere 100 Gigabyte über eine DSL-Leitung in die Cloud zu verschieben, gibt es da noch monetäre Restriktionen, die den Datentransfer verhältnismäßig teuer machen.
Eine kurze Übersicht über die Einflussfaktoren:
- Grundpreis pro übertragenes Bit: Volumen kostet, üblicherweise wird pro Bit (oder ganzzahlige Vielfache davon) ein gewisses Entgeld fällig.
- Grundpreis pro gespeichertes Bit: Pro abgelegtes Bit (teileweise auch pro Bit und Speicherdauer) wird ein weiteres Entgeld fällig.
- Put/Get-Befehle werden separat berechnet: Amazon beispielsweise möchte nicht nur pro bewegtem Bit bezahlt werden, es gibt auch eine Art Pauschale pro abgestztem Put oder Get. Nun stelle man sich vor, wie der Kostenzähler rotiert, wenn man viele kleine Dateien schreibt, und aus irgendwelchen Gründen jede Datei mit einem einzelnen Put geschrieben wird. Teilweise wird auch ein Entgeld fällig, wenn aus der Cloud auf die Daten zugegriffen wird.
- Backup on demand: Manche Cloudanbieter für Storage fangen an, Backupdienste anzubieten – natürlich gegen gesonderte Berechnung.
Was soll man also tun? Es kommt auf die Preisgestaltung an: Daten, die ständig im Zugriff sind, die sehr groß sind oder die sich ständig verändern, sind denkbar schlecht in der Cloud aufgehoben. Selten veränderliche Daten, die nur kurz aufbewahrt werden müssen und auf die nur selten zugegriffen werden, bieten sich für die Cloud an.
Im Blog von Ralf Zenses gibt’s eine schöne Darstellung des Zusammenhangs – willkommen im Pareto-Space!