cloud-cosendolas-photocase

Laut Cloud-Monitor 2016 von KPMG nutzt die ITK-Branche am häufigsten Cloud-Computing, gefolgt von den Banken und vom Automobilbau. (Bild: Cosendolas Photocase)

Der Trend geht klar zu weniger Hardware und mehr Cloud. Die digitale Transformation verändert die Unternehmenslandschaft. Laut dem KPMG-Cloud-Monitor 2016 setzen bereits 54 Prozent der deutschen Unternehmen Cloud-Computing ein – Tendenz steigend. Die Vorteile liegen auf der Hand: IT-Ressourcen, zum Beispiel die Infrastruktur, Plattformen oder Software lassen sich so flexibel und bedarfsgerecht beziehen. Viele versprechen sich davon mehr Agilität und Innovationsstärke. Neue Geschäftsmodelle werden möglich, die den Nutzer in den Mittelpunkt stellen und dank Technologien wie Cloud-Computing kaum an Hardware gebunden sind. Mit Cloud-Services lassen sich außerdem die Skalierbarkeit und die Effizienz steigern.

Mehr Möglichkeiten, aber auch mehr Risiken

Doch neben den Vorteilen bedeutet die zunehmende Nutzung von Cloud-Services ein höheres Risiko für Unternehmen. Werden benötigte Service Levels erreicht? Sind die sensiblen Unternehmensdaten sicher? Werden die Compliance-Vorgaben und Sicherheitsstandards regelmäßig kontrolliert und geprüft? Auch für die unternehmenseigene IT-Infrastruktur geht die Anbindung von Cloud-Ressourcen mit erhöhten Anforderungen einher.

Eckdaten

Der klare Vorteil von Cloud-Computing ist, dass sich die IT-Ressourcen flexibel einsetzen lassen. Allerdings bedeutet die Nutzung der Cloud ein höheres Risiko für Unternehmen. Sensible Daten könnten in fremde Hände gelangen und Störungen im Netzwerk auftreten. Ein umfassendes Monitoring, das die Infrastruktur analysiert und überwacht, hilft Fehlerursachen zu erkennen und schneller zu klären.

Werden Cloud-basierte Anwendungen und Plattformen in die IT-Landschaft integriert, können sich Fehler im gesamten Unternehmensnetzwerk bemerkbar machen. Denn die Integration bedeutet, dass Daten von den Rändern bis zum Kern des Netzwerks und in die Cloud transportiert werden müssen. Auf diesen Wegen können Fehler entstehen. Treten Störungen auf, sollten diese schnell erkannt und behoben werden, und zwar unabhängig von der Umgebung, in der sie auftreten. Nur so lassen sich sowohl eine positive Benutzererfahrung, hohe Nutzerzufriedenheit und Loyalität als auch der Geschäftserfolg sicherstellen. Eine optimale Bereitstellung hängt von der Qualität der Infrastruktur ab.

Warnsignale frühzeitig erkennen und vorbeugen

Dies zeigt, dass die Leistungsfähigkeit und Verfügbarkeit von Cloud-Ressourcen für Unternehmen erfolgskritisch sind. Jedoch haben Unternehmen in der Regel wenig Einblick, geschweige denn Handhabe, sich der Servicequalität zu vergewissern. Um bei der Nutzung ihrer Cloud-basierten Services eine hohe Performance sicherzustellen und sich nicht mehr darauf verlassen zu müssen, dass Anbieter die versprochene Leistung auch liefern, können Unternehmen mit Hilfe von Cloud Assurance ihre externe Ressourcen im Blick behalten.

Dafür benötigen sie ein umfassendes Monitoring, das die gesamte Bereitstellungsinfrastruktur analysiert und überwacht. Es sollte alle Systemkomponenten, interne wie externe, einbeziehen und die Abhängigkeit zwischen einzelnen Elementen erfassen. Um Warnsignale für bevorstehende Performance-Probleme frühzeitig zu erkennen – oder zu verhindern, bevor sie entstehen, ist es notwendig, den Traffic in Echtzeit zu beobachten, und zwar über den gesamten Servicebereitstellungsprozess hinweg. Wenn Probleme oder ungewöhnliche Muster auftauchen, helfen Monitoring-Daten dabei, die Fehlerursache schneller zu klären, im Anschluss zu beseitigen und die Wiederherstellung von Services zu beschleunigen.

Verantwortlichkeiten klären und Prozesse optimieren

Doch die Überwachung mithilfe des Monitoring hat für Nutzer wie Anbieter von Cloud-basierten Services einen zusätzlichen Vorteil. Denn Informationen zur Fehlerursache unterstützen nicht nur das Troubleshooting und die Wiederherstellung von Services. Sie können auch klären helfen, wer für den Ausfall und die durch entstandenen Schäden verantwortlich ist, wie folgendes Beispiel zeigt: In einem europäischen Hafen staute sich die Fracht, weil Ladungsverzeichnisse nur mit großer Verzögerung gedruckt werden konnten. Der Hafenbetreiber machte einen Anbieter von Cloud-Services für das Problem verantwortlich. Durch eine Analyse der Traffic-Daten konnte jedoch innerhalb kürzester Zeit die wahre Ursache herausgefunden werden: Ein fehlerhafter Domain-Name führte zu massenhaften DNS-Abfragen, die das Netzwerk so stark belasteten, dass es die Übermittlung und Ausführung von Druckanweisungen extrem verzögerte. Dank dieser Information konnte nicht nur das Problem behoben werden, sondern auch die Verantwortung wurde eindeutig geklärt.

Außerdem lassen sich mit einem guten übergreifenden Monitoring bestehende Unternehmensprozesse optimieren. Ist es engmaschig, stellt es Unternehmen Daten zur Verfügung, die Geschäftsentscheidungen unterstützen können. Veränderungen im Nutzungsmuster von Kunden können beispielsweise Aufschluss über Nachfrageschwankungen geben. Dies sollte in die Kapazitätsplanung einfließen, aber auch Impulse für die Produktentwicklung setzen. Um das zentrale Digitalisierungs-Versprechen Agilität voll einzulösen, helfen genaue Prognosen zu Auslastung und Nachfrage dabei, einen bedarfsgerechten Mix aus internen und externen IT-Ressourcen zu erhalten und so die Effizienz von IT-Infrastrukturinvestitionen zu erhöhen.

Cloud Computing wird in den nächsten Jahren eine zentrale Rolle für die meisten Unternehmen spielen, die die digitale Transformation angehen. Die Herausforderung für IT-Verantwortliche wird sein, jeden neuen Service und jede neue Anwendung aus der Cloud im Blick zu behalten und mit den Unternehmensstrategien für Cloud-Nutzung und digitale Transformation in Einklang zu bringen. Monitoring hilft ihnen dabei und sorgt dafür, dass die Unternehmen mit ihr Schritt halten können.

Martin Klapdor

(Bild: Netscout)
Senior Solutions Architect bei NETSCOUT

(hag)

Sie möchten gerne weiterlesen?