Blog

Wie wir heute rechnen: So sieht moderne Infrastruktur aus

von Michael Churchman 6. Juli 2017 | 7 Minuten Lesezeit

Die heutige IT-Infrastruktur ist weder die Ihrer Großeltern noch die von vor einer Generation. Die Zeiten von Lochkarten, Elektronenröhren, Ferritkernspeichern, Disketten und Einwahl-Internet sind vorbei.

Die heutige Infrastruktur ist nicht mehr mit der IT-Infrastruktur von vor fünf Jahren oder gar vor einem Jahr vergleichbar. Moderne Infrastrukturen verändern sich ständig, und wir können lediglich eine Momentaufnahme des aktuellen Zustands sowie einen allgemeinen Ausblick auf die zukünftige Entwicklung bieten.

Um die Infrastruktur effektiv zu überwachen, müssen Sie verstehen, wie die Infrastruktur heute aussieht, wie sie sich verändert und was sie morgen beinhalten wird.

Hardware: Weniger von Moores

Beginnen wir mit einer grundlegenden Unterscheidung: Die Hardware-Infrastruktur ist relativ stabil (wobei der Schwerpunkt auf dem Wort „relativ“ liegt) und befindet sich seit einigen Jahren in einem Zustand der Semi-Stabilität. Jegliche Spekulationen über Mooresches Gesetz Von einem Ende der Entwicklung zu sprechen, wäre verfrüht. Die Kurve des Mooreschen Gesetzes scheint sich zumindest teilweise vorerst abgeflacht zu haben, zumindest in Bezug auf die Prozessorgeschwindigkeit und die RAM-Kapazität (bei Massenspeichern sieht die Sache anders aus).

Software: Veränderung ist natürlich

Diese Stagnation bedeutet, dass die bedeutendsten und wichtigsten Veränderungen in der IT-Infrastruktur im Softwarebereich stattgefunden haben. Das ist nicht verwunderlich, da moderne Infrastruktur zu einem erheblichen Teil aus Software besteht. Softwaredefinierte Netzwerke, virtuelle Maschinen, Container und ähnliche Technologien führen dazu, dass die Grenze zwischen Hardware und Software heute praktisch verschwimmt.

Die Tatsache, dass IT-Infrastruktur größtenteils als Software betrachtet werden kann, ist selbst ein Schlüsselelement des modernen Computings und sollte daher nicht überraschen. Hardware ist schließlich im Grunde ein Rahmenwerk, eine Struktur, die Dinge erst möglich macht. Was man mit diesen Möglichkeiten anstellt, kann den entscheidenden Unterschied ausmachen.

Frei von Hardwareverzögerungen

Die Umstellung auf softwarebasierte Infrastruktur hat weitreichende Folgen, die weit über einen typischen Plattformwechsel hinausgehen. Zum einen bremst die Hardware selbst den Veränderungsprozess erheblich. Der Austausch oder die Aufrüstung physischer Server, Netzwerke und Peripheriegeräte ist teuer und zeitaufwendig, weshalb viele Unternehmen traditionell mit solchen Änderungen warten, bis diese offensichtlich notwendig sind (oder sogar noch später). Diese Verzögerung mag zwar nur wenige Jahre betragen, betrifft aber typischerweise sowohl die Softwareebene als auch die Infrastrukturhardware selbst, da sowohl ältere Hardware als auch die dazugehörige ältere Software berücksichtigt werden müssen.

In modernen softwarebasierten Infrastrukturen sind sowohl Anwendungssoftware als auch die Infrastrukturelemente weitgehend (wenn nicht sogar vollständig) von den zugrundeliegenden Hardwarekomponenten isoliert, oft durch mehrere Abstraktionsebenen. Solange die Hardware die Anforderungen der Abstraktionsebene erfüllt, ist die Infrastruktur selbst weitgehend frei von hardwarebedingten Verzögerungen.

„Weiche“ Faktoren

Infolgedessen wird die Änderungsrate von Infrastruktur und Anwendungssoftware heute von anderen Faktoren bestimmt, wie etwa der Unternehmenskultur und den praktischen Grenzen der Softwareentwicklung. Diese Faktoren sind im Allgemeinen „weich“, und die dadurch bedingte Verzögerung ist deutlich kürzer und hängt wesentlich stärker von den jeweiligen Gegebenheiten der Organisation ab.

Infrastruktur heute

Das bedeutet, dass jedes Verständnis unserer heutigen Rechenprozesse nur eine Momentaufnahme des aktuellen Zustands der modernen IT-Infrastruktur sein kann. Und was würde eine solche Momentaufnahme beinhalten? Die Schlüsselelemente könnten etwa so aussehen:

  • Die Wolke. Wenn Infrastruktur Software ist, die auf mehreren Abstraktionsebenen aufbaut, gibt es keinen Grund, sie an bestimmte Server oder Netzwerke zu binden. Die Cloud (die im Grunde eine Abstraktionsebene höherer Ordnung darstellt) wird zur grundlegendsten Infrastrukturebene, mit der Entwickler interagieren. Die von Entwicklern erstellte und verwaltete Infrastruktur ist faktisch vollständig virtualisiert, unabhängig davon, ob es sich um Anwendungen handelt, die auf virtuellen Maschinen laufen, oder um Container, die auf einem virtualisierten Hostsystem ausgeführt werden.
  • Virtualisierung. Virtualisierung ist somit zur Selbstverständlichkeit geworden, und wir beginnen erst jetzt, die Tragweite dieser Tatsache zu verstehen. Bestehende Betriebssysteme wurden ursprünglich unter Berücksichtigung der hardwarebedingten Einschränkungen entwickelt; Systeme, die vollständig ohne Bezugnahme auf diese Grenzen konzipiert wurden, sind uns bisher nicht bekannt.
    Selbst unter Berücksichtigung der Grenzen aktueller Betriebssysteme bedeutet der mittlerweile übliche Grad an Virtualisierung jedoch, dass nicht nur Anwendungen, sondern auch die Umgebungen, in denen sie existieren, so einfach erstellt, verwaltet und zerstört werden können wie ein einfacher Prozess, der in einem herkömmlichen Betriebssystem läuft.
  • Automatisierung entlang der gesamten Wertschöpfungskette. Wenn Infrastruktur Software ist, ist es sinnvoll, sie wie andere Softwarearten zu verwalten – durch Automatisierung. Ebenso sinnvoll ist es, diese Automatisierung auf die gesamte Softwarebereitstellungskette auszudehnen, sei es in Form eines zentralen Systems zur Verwaltung aller Prozesse oder durch Skripte, die Aufgaben je nach Bedarf untereinander verteilen.
    Traditionell war Automatisierung oft zeitplangesteuert; in modernen Infrastrukturen ist sie jedoch typischerweise ereignisgesteuert. Dies ermöglicht eine größere Flexibilität und vermeidet unnötige Verzögerungen.
  • Kontinuierliche Bereitstellung. Eine derart flexible, reaktionsorientierte Automatisierung führt ganz natürlich zu kontinuierlicher Bereitstellung; wenn kein Bedarf an manuellem Eingreifen oder Verzögerungen im Bereitstellungsprozess besteht, dann gibt es keinen Grund, warum er nicht kontinuierlich sein sollte.
    Tatsächlich erweisen sich die Gründe für nicht-kontinuierliche Bereitstellung typischerweise als Folge nicht-virtualisierter Infrastruktur und nicht-automatisierter Bereitstellungspipelines. Der Wegfall der Notwendigkeit, die Einschränkungen einer hardwarebasierten Infrastruktur zu berücksichtigen, kombiniert mit der Möglichkeit, die virtualisierte, softwarebasierte Infrastruktur vollständig zu automatisieren, hat kontinuierliche Bereitstellung nicht nur möglich, sondern unvermeidlich gemacht. klicken Sie hier um zu lernen, wie man Continuous Delivery mit Incident Management optimiert.

Wie rechnen wir also heute? Wir rechnen größtenteils in einer virtualisierten Umgebung, die durch mehrere Abstraktionsebenen von der Hardwareebene isoliert ist. Unsere Entwicklungs- und Bereitstellungspipeline ist kontinuierlich und wird durch ereignisgesteuerte Automatisierung verwaltet. In vielerlei Hinsicht ist die moderne IT-Umgebung eine virtuelle Welt, die so weit von der traditionellen hardwarebasierten IT-Welt abgekoppelt ist, dass viele der Probleme, die die IT noch vor wenigen Jahren dominierten, irrelevant geworden sind.

Ein virtuelles Morgen?

Wenn das eine Momentaufnahme von heute ist, wie wird die Lage morgen oder in fünf oder zehn Jahren aussehen? Das lässt sich natürlich nicht mit Sicherheit sagen. Jede Prognose, die heute getroffen wird, dürfte mit der Zeit immer absurder erscheinen.

Doch hier sind einige weitere Prognosen. Wahrscheinlich stehen wir erst am Anfang der Auswirkungen, die sich aus der Befreiung der virtuellen Rechenumgebung von den durch die Hardware bedingten Beschränkungen ergeben. Es ist auch wahrscheinlich, dass die Grenzen zwischen virtualisiertem Rechnen, virtueller Realität und der traditionellen Welt der physischen Erfahrung weiter verschwimmen werden. In vielerlei Hinsicht ist die Geschwindigkeit des Wandels in der Computertechnik heute durch unsere Fähigkeit begrenzt, Veränderungen zeitnah zu verarbeiten und neue Möglichkeiten voll auszuschöpfen. Automatisierung und künstliche Intelligenz werden jedoch voraussichtlich nahezu jede Funktion, Branche und jeden Bereich grundlegend verändern, neue Effizienzpotenziale freisetzen und den Fokus der Arbeit von Menschen dramatisch verändern.

Die Virtualisierung von Computeranwendungen und Alltagserfahrungen könnte unsere Fähigkeit, zukünftige Veränderungen zu bewältigen, beschleunigen. In diesem Fall wären zukünftige Computertechnologien und das Leben im Allgemeinen für uns völlig unkenntlich, würden wir jetzt einen ersten Blick darauf werfen, obwohl wir wahrscheinlich sowohl Schöpfer als auch Teilhaber dieser Zukunft sein werden. Indem wir die Welt verändern, verändern wir uns selbst.