Der Blog

Schnelle Daten, schnelle Überwachung

von Christopher Tozzi 16. Februar 2017 | 6 Minuten Lesezeit

Big Data ist Schnee von gestern. Der Schlüssel zur effektiven Datennutzung liegt heute in der schnellen Datenerfassung.

Auch das traditionelle Incident Management, das die Erfassung und Analyse großer Mengen an Überwachungsdaten erfordert, reicht nicht mehr aus. Unternehmen müssen heute auch „schnelles Monitoring“ betreiben. Das bedeutet nicht nur, Überwachungsdaten zu erfassen, sondern diese auch in Echtzeit nutzbar zu machen.

In diesem Beitrag wird untersucht, was schnelle Überwachung bedeutet, und erläutert, wie Vorfallmanagementteams diesen Ansatz implementieren können, um große Vorteile zu erzielen.

Definition von Fast Data

Um das Konzept der schnellen Überwachung zu verstehen, müssen Sie verstehen schnelle Daten - einer der neuesten Innovationen in der Big Data-Welt.

Vereinfacht ausgedrückt handelt es sich bei Fast Data um Big Data, das schnell verarbeitet wird. Während Big Data traditionell das Speichern großer Informationsmengen und deren spätere Analyse bedeutet, bedeutet Fast Data die schnellstmögliche Analyse großer Informationsmengen – idealerweise in Echtzeit. Ziel ist es, die Daten zu analysieren, wenn sie möglichst umsetzbar und relevant sind.

Die Möglichkeit, Daten von der Quelle in eine Analyseplattform zu streamen, ist ein wichtiger Teil der Nutzung schneller Daten. Deshalb sind Big-Data-Tools wie Apache Spark sind in den letzten Jahren populär geworden. Durch die Unterstützung der Streaming-Datenerfassung sowie der In-Memory-Verarbeitung kann Spark große Mengen an Informationen deutlich schneller verarbeiten und analysieren als nicht-streamende, auf der Festplatte gespeicherte Datenanalyseplattformen.

Schnelles Daten- und Vorfallmanagement

Incident Management ist ein anderes Feld als Datenanalyse, doch Incident Management-Administratoren können viel vom schnellen Datentrend lernen. Im Bereich Infrastrukturüberwachung und Incident Management ist die Fähigkeit, große Mengen an Überwachungs- und Warndaten in Echtzeit zu analysieren, um die Reaktion zu verbessern, heute wichtiger denn je.

Vom traditionellen Vorfallmanagement zum schnellen Vorfallmanagement

Die Verbindung zwischen schnellen Daten und schnellem Monitoring ist kein Zufall. In vielerlei Hinsicht spiegelt die Entwicklung des Vorfallmanagements die Entwicklung der Datenanalyse wider.

Bis vor etwa zehn Jahren waren Datenmengen, ebenso wie Infrastrukturen, relativ klein. Die meisten Unternehmen mussten keine Petabyte an Daten analysieren, da diese nicht so groß waren. Ebenso wenig benötigten die meisten Unternehmen Überwachungslösungen für große und vielfältige Infrastrukturen. Stattdessen genügten ihnen einfache Überwachungssysteme, um relativ kleine und unkomplizierte Netzwerke aus Servern und Workstations im Auge zu behalten.

Mitte der 2000er Jahre begannen Daten und Infrastruktur deutlich zu wachsen. Die Digitalisierung aller Bereiche führte dazu, dass Unternehmen Unmengen an Informationen sammelten – Big Data entstand. Gleichzeitig führten die zunehmende Verbreitung mobiler Geräte, die zunehmende Virtualisierung und der Bedarf an immer mehr Rechenleistung zu deutlich größeren und komplexeren Infrastrukturen. Diese neue Landschaft erforderte ein umfassendes Monitoring.

Und in den letzten Jahren hat ein weiterer tiefgreifender Wandel stattgefunden. In einer Zeit, in der sich Informationen ständig ändern, untergräbt die Analyse von Daten, die selbst nur wenige Stunden alt sind, den Wert von Analysen. Ebenso verhindert das Incident Management auf der Grundlage nicht aktueller Überwachungsinformationen, dass Administratoren Vorfälle effektiv priorisieren und darauf reagieren können.

Obwohl schnelle Daten und schnelles Monitoring unterschiedliche Tools erfordern, sind die Prinzipien und Motivationen hinter beiden Trends dieselben. Incident-Management-Teams, die einen möglichst reibungslosen Betrieb ihrer Infrastruktur und Apps gewährleisten möchten, tun gut daran, sich an ihren Datenanalysten-Kollegen zu orientieren und sich auf schnelles Monitoring zu konzentrieren.

Schnelle Überwachung ermöglichen

Das schnelle Sammeln und Reagieren auf Überwachungsinformationen mag einfach klingen – aber wie lässt sich schnelles Monitoring in der Praxis umsetzen? Die wichtigsten Richtlinien sind:

  • Zentralisieren Sie die Datenerfassung Um die Überwachungsinformationen so schnell wie möglich zu verstehen, sollten Sie alle Überwachungsdaten an einen zentrale Schnittstelle Dadurch entfällt die Notwendigkeit, zwischen verschiedenen Dashboards oder Überwachungssystemen zu wechseln, was Zeit und geistige Energie verschwendet und es äußerst schwierig macht, die Grundursache zu verstehen.
  • Sammeln Sie alle verfügbaren Informationen Traditionelles Incident Management konzentriert sich meist nur auf das Sammeln von Maschinendaten und Warnmeldungen. Diese Informationen liefern einen Teil der notwendigen Informationen für ein schnelles Monitoring. Um jedoch schnellstmöglich auf Vorfälle reagieren zu können, benötigen Sie einen möglichst umfassenden Überblick und Einblick. Beispielsweise sollte die Erfassung von menschlich generierten Daten aus Tickets und Supportanrufen nicht vernachlässigt werden. Dies bedeutet auch, Funktionen wie PagerDutys benutzerdefinierter Ereignistransformator um Daten aus Quellen zu sammeln, wie z. B. Social Media Kanäle , die traditionell kein Teil der Arbeitsabläufe des Vorfallmanagements sind.
  • Lärm minimieren Sie werden eine große Anzahl von Warnmeldungen erhalten, aber nur einige davon erfordern eine Aktion. Daher ist es unbedingt erforderlich, die Störmeldungen auszublenden und alles zu unterdrücken, was nicht bearbeitet werden muss, damit die Anzahl der Warnmeldungen, auf die Sie achten müssen, minimal bleibt. Warnmeldungen sollten automatisch dedupliziert werden, und es sollte einfach sein, verwandte Symptome zu einem einzigen Problem zusammenzufassen, das einer Lösung bedarf. Dies erleichtert die sofortige Identifizierung der Warnmeldungen, die Aufmerksamkeit erfordern, und löst den entsprechenden Reaktions-Workflow in Echtzeit aus.
  • Machen Sie Daten leicht interpretierbar Das Sammeln und zentrale Speichern großer Mengen von Überwachungsdaten hilft Ihnen, diese schnell nutzbar zu machen. Um den Prozess jedoch vollständig zu optimieren, sollten Sie auch sicherstellen, dass Daten aus verschiedenen Quellen in ein einheitliches Format normalisiert werden, um die Analyse aller Informationen im Dashboard zu erleichtern und den kognitiven Aufwand zu reduzieren. Auf diese Weise müssen Sie sich nicht alle Schemata verschiedener Anbieter merken oder kontextualisieren. Dazu benötigen Sie Incident-Management-Lösungen, die Informationen in unterschiedlichen Formen verarbeiten und Felder universell normalisieren können, um sofort umsetzbare und leicht verständliche Erkenntnisse zu generieren.

All diese Vorgehensweisen minimieren den manuellen Analyseaufwand, den die Incident-Management-Administratoren bei einem kritischen Vorfall leisten müssen. Dadurch verkürzen sie die Zeit zwischen der Erfassung von Warnmeldungen und der Reaktion darauf. So können die Incident-Management-Mitarbeiter so schnell wie möglich auf Vorfälle reagieren und die schnelle Überwachung in Echtzeit umsetzen, um die Betriebszeit zu verbessern.

 

 


Delaney, Ozzy. „Speeding.“ 20. Januar 2015. Online-Bild.<https://www.flickr.com/photos/24931020@N02/15854782234/>