Vor ein paar Wochen saß ich im Industriearbeitskreis Cloud Computing an der RWTH Aachen – eine interessante Runde von Wissenschaftlern und Praktikern, die mit Cloud Computing arbeiten. „Arbeiten“ kann dabei total unterschiedliche Ausprägungen haben.
So hörte ich einen sehr interessanten Vortrag von Prof. Sattler von der TU Illmenau zum Thema verteilte, cloudfähige Datenbanken, und wieso ACID-Bedingungen hier manchmal nicht allzu ernst zu nehmen sind. Für jemanden wie mich, für den die ACID-Bedingungen bei Datenbanken mit das zentralste Merkmal einer Datenbank sind, war das ein mehr als nur ein interesssantes Gedankenexeriment.
Ein anderer Vortragender brachte dann eine These auf, auf die ich zunächst erbost reagieren wolllte. Ich nahm mich dann aber zurück, weil ich seine Antwort und seine Überlegugnen dahinter nachvollziehen wollte.
Auf der Heimfahrt aus Aachen tat mir das dann Leid: Ich hätte emotional reagieren und erbost die Überlegung zurückweisen sollen. Dann wäre es mir besser gegangen und ich hätte nicht soviel gegrübelt.
Aber zurück zur Ausgangslage: Der Vortragene war Business Analyst, eine besondere Form des Beraters. Ein Business Analyst untersucht Prozesse und deren Abläufe in Unternehmen um Schwierigkeiten, Deadlocks, Engpässe oder schlicht und einfach unsinnige Prozesse zu identifizieren und sofern möglich zu beseitigen oder zumindest zu verbessern. Die meisten Business-Prozesse sind heute IT-unterstützt, daher hat ein Business Analyst im Normalfall auch viel mit IT zu tun, insbesondere mit den IT-Abteilungen der analysierten Unternehmen.
Das Credo des Business Analysten war nun: Wenn ein Prozess harkt und die interne IT nicht sofort eine brauchbare Lösung liefert, nimm Cloud Computing von einem externen Anbieter. Man merkte seinem Vortrag an, dass er häufiger schlechte Erfahrungen mit internen IT-Abteilungen gemacht hatte. Viele schienen langsam und in internen Prozessen gefangen zu sein.
Meiner Ansicht gibt es hier einige Fehlerquellen:
- Wenn ein Prozess mit Beteiligung der internen IT-Abteilung nicht anständig arbeitet, sollte man sich fragen, woran das liegt. Es bringt rein gar nichts, der internen IT-Abteilung pauschal den Rücken zu kehren. Wenn der Prozess zwar IT-Unterstützt ist, das Problem aber nicht IT-ursächlich ist, bringt eine Wolke nix.
- Wenn das Unternehmen nur noch externe IT-Dienste nutzt, und diese seitens einer internen IT-Abteilung nicht mal mehr überwacht werden, wird die interne IT-Abteilung zur Wartungsabteilung für Desktop-PCs. Wissen geht verloren, man begibt sich in Abhängigkeit von externen Anbietern. Man besitzt dann zwar größere Mengen Daten, doch hat man keine Ahnung, wie man diese ggf. vom externen Anbieter „zurückholt“.
- Statt einer internen IT-Abteilung braucht man über kurz oder lang eine interne IT-Rechts-Abteilung. Diese überprüft ständig die SLAs und Verträge mti den diversen Anbietern, von denen man abhängig ist. Sorry, liebe mitlesende Anwälte, aber ich denke nicht, dass dies ein anzustrebender Zustand ist.
- Etwas vermisst habe ich eine Definition von Cloud Computing, gerne auch aus Prozess-Analysten-Perspektive. Doch hatte ich permanent den Eindruck, es ginge um ASP – Application Service Providing. Gerade als er sein Lieblings-Beispiel, die DATEV, nannte, wurde das seht deutlich. Die bekannten NIST-Kriterien (mittlerweile in Version 15) legte er nicht an. Hier kann aber auch ein Verständnisproblem meinerseits liegen. Vielleicht ist nur ASP aus Prozess-Analysten-Perspektive die einzig sinnvolle Art von Cloud Computing. Nur wenn dem so ist: Warum hat sich ASP bis heute nicht durchgesetzt?
Als ich ihn in der Diskussion darauf ansprach, ob Formen des Private Cloud Computing unter Umständen bei der Lösung der Probleme helfen könnten, kam der nächste Schlag ins Gesicht für manchen IT-Verantwortlichen: Er meinte, Private Cloud sei keine Lösung, geschweige denn ein Betriebskonzept. Private Cloud Computing sei nicht mehr als ein Marketing-Gag der Hersteller, auf die RZ-Betreiber hereinfallen würden.
Also mal ehrlich: Cloud Computing ist kein Marketing-Gag, egal ob private oder public. Es ist eine mittlerweile recht sauber definierte Form, den Betrieb eines Rechenzentrums, einer IT-Abteilung oder eines einzelnen RZ-Dienstes zu organisieren. Merkmale wie standardisierte Dienste, klare zugesagte Leistungen, klare Abrechnungsmodelle. Da gibt es keinen Marketing-Gag.
Was versucht heute jemand, der ein Rechenzentrum betreibt? Die Analysten von Gartner und Co. würden sofort Buzzwords wie „Reduce Time To Market“, „Cost Consolidation“ oder „Lean IT“ bringen. Dahinter verbirgt sich meiner Ansicht nach ein ganz einfaches Verhalten: Der IT-Leiter versucht, Komplexität aus seinem Betrieb herauszunehmen. Er versucht, möglichst einfach seine Dienste zu erbringen. Er versucht, Fehlerquellen aufgrund komplizierter Architekturen und Systeme zu vermeiden.
Das klingt gewohnt, hat was von Henry Ford. Der versuchte, Autos statt in handwerklicher Einzelfertigung in Serienfertigung herzustellen. Sowas tut auch der IT-Verantwortliche heute: Er versucht, seinen Betrieb weg vom „handwerklichen“ Ansatz hin zu einem mehr industriealisierten zu verlagern: Statt für jedes System oder jeden Dienst das Rad neu zu erfinden, versucht man auf „vorproduzierte Fertigteile“ zurückzugreifen. (Danke an die Bahn, PWC und Ralf für diesen Denkanstoß!)
Vor einigen Jahren waren solche vorproduzierte Komponenten noch sehr granular: Ein Betriebssystem, ein Server, eine paar Gigabyte Festplattenkapazität, eine Datenbank, eine Skriptsprache, ein Forumssystem, ein Content-Management-System, ein Mailserver, eine geschlagene Woche an Konfigurationsarbeiten und… fertig war das Blog – noch ohne Inhalt und ohne eigenes Layout.
Heute besorgt man sich eine vorkonfigurierte virtuelle Maschine, lässt ein Konfig-Skript durchlaufen und nach 10 Minuten Arbeit läuft die Grundkonfiguration. Solche Maschinen gibt es nicht nur für Blogs, sondern auch für CRM-Systeme, für ERP-Systeme, für…. die Liste ist lang. Das Ausliefern als standardisierte VM ist zwar noch nicht die häufigst genutzte Variante, aber sie erfreut sich steigender Beliebtheit.
Ist dies jetzt schon Cloud-Computing? Nein. Es ist nur ein Beispiel für den Aspekt der Standardisierung.
Jetzt stelle man sich vor, dass eine interne IT-Abteilnung eines Unternehmens solche Fertig-Systeme nutzt anstelle von den oben genannten atomaren Bausteinen: Die Reaktionszeit wird schneller, und sofern die Basis-VMs gut gepflegt sind, wird auch die Qualität nicht darunter leiden, sondern eher steigen. Vor allem aber sieht der interne Kunde schneller ein Resultat: Statt auf die Lieferung und Grundinstallation des Servers zu warten, vergehen bei entsprechender Automatisierung nur noch Minuten bis zum Welcome-Screen seines neuen Servers.
Nun ein wenig Weiterdenken: Statt eines reaktiven IT-Betriebes (Kunde droht mit Auftrag, IT-Abteilung erfindet für den Kunden das Rad neu und bastelt eine individuelle Lösung) wird es ein proaktiverer Betrieb (IT-Abteilung besorgt sich eine Menge vorkonfigurierter VMs aus vertrauenswürdiger Quelle, nutzt diese wenn Kunde mit Auftrag droht). Wenn das bisherige Problem eine langsam reagierende IT-Abteilung war, ist das Problem nun zum Teil gelöst.
Gut, Standardisierung scheint eine Lösungsmöglichkeit zu bieten. Doch haben viele instinktiv Angst vor Standardisierung, vor Gleichmacherei (Hier ein Dank an Prof. Böhle und seine Mitarbeiterin Frau Neumer, die auf diese Argumentationschiene aufmerksam machten und mir interessanten Lesestoff schickten). Wenn man die Auswahl hat zwischen einer Salami vom Bio-Bauern, der mit viel Liebe und Herzblut seine Tiere großzieht, und der im Bliester verpackten gleichförmigen 8,5cm Salami mit viel E621 und dem Besten aus den Vitaminen B, A, S und F, so werden viele die Bio-Salami vorziehen. Standardisierung bedeutet häufig nämlich sowas die „Kleinster Gemeinsamer Nenner“, und das kann unangenehm sein. Also Standardisierung als Gefahr?
In der Tat kann, sofern man auf der falschen Ebene standardisiert, viel gesunde Individualität verloren gehen. Das Customizing von SAP war jahrelang ein entsprechendes Beispiel: Statt SAP an das eigene Unternehmen anzupassen, empfanden es manche Unternehmer mehr als eine Anpassung des eigenen Unternehmens an die Walldorfer Standardsoftware. Standardisierung auf Geschäftsprozess-Ebene ist also keine gute Idee. Mit einer Standardisierung auf Ebene der Werkzeuge scheint aber niemand Probleme zu haben. Windows auf dem Desktop wird als Standard geschluckt, und wenn STRG+C nicht Copy bedeutet, liegen die Nerven blank…
Aber zurück zu meinem Ausgangsaufreger: Private Cloud Computing im Sinne von Adaption der von der NIST genannten Merkmale des Cloud Computing auf eine abgeschlossene IT-Landschaft, ist meiner Ansicht nach kein Marketing-Gag. Insbesondere die Standardisierung – sofern auf der richtigen Ebene durchgeführt – bietet Möglichkeiten. Kombiniert man diese mit Virtualisierung, Self-Service und ggf. weiteren Verfahren zur Abrechnung nach Nutzungsverhalten, kann man sich weg von der handwerklichen IT hin zu einer moderneren beegen. Casus knacktus bleibt dabei die Ebene der Standardisierung. Hier den Königsweg zu finden, bleibt spannend.