- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Bedarf an schnellem Service-Management


Fünf Voraussetzungen für die Service-Management-Plattform der Zukunft
Ein zukunftsfähigerService Desk muss nicht nur Mitarbeiteranfragen aus der IT, sondern auch aus HR, Facilities und anderen Abteilungen bearbeiten können

- Anzeigen -





Von Oliver Krebs, Area Director EMEA bei Cherwell

"Die Fabrik der Zukunft wird nur noch zwei Mitarbeiter haben, einen Mann und einen Hund. Der Mann ist da, um den Hund zu füttern und der Hund, um den Mann davon abzuhalten, Geräte zu berühren." Wie weit wir aktuell noch von dieser im Jahr 1990 geäußerten Vision von Warren Bennis entfernt sind, wird immer wieder versucht vorherzusagen. Schon den jetzigen technologischen Stand vor fünf Jahren präzise vorauszusehen, wäre aber nahezu unmöglich gewesen.

In Bezug auf IT-Service Management (ITSM) zeichnet sich meiner Ansicht nach bereits ab, was kurz- und mittelfristig auf Unternehmen zukommen wird. Zum Beispiel werden neue Technologien wie Künstliche Intelligenz und Machine Learning noch stärker in den Mittelpunkt rücken, während eine ansprechende Benutzererfahrung und die Minimierung der Total Cost of Ownership weiterhin wichtig bleiben werden. Folgende fünf Themen sollten IT-Verantwortliche im Auge behalten und prüfen, ob ihre Service Management-Infrastruktur dafür gewappnet ist.

1) Flexibilität und Geschwindigkeit als Grundvoraussetzungen
Agile und Lean Frameworks sind keine wirklich neuen Entwicklungen. Neu ist jedoch der steigende Bedarf an besonders schnellem Service Management. Deshalb müssen auch die entsprechenden Prozesse schneller und responsiver werden. Dabei können Agile und Lean Frameworks helfen. Dies hat sich bei einem in der DevOps-Bewegung zentralen Konzept für das Risikomanagement bereits bewährt: Häufige kleine Änderungen sind weniger riskant als große und dafür seltenere Änderungen. Die Automatisierung solch kleinerer Standard-Änderungen hat DevOps sowie das Release und Deployment Management deutlich vorangebracht.

Die Plattform selbst mussnicht nur agiler und flexibler, sondern auch leichter anpassbar werden. Ein Lösungsansatz können sogenannte Low-Code-Plattformen sein, für die keine vertieften Programmierkenntnisse erforderlich sind und die es dem Service Desk dementsprechend ermöglichen, responsiver gegenüber verschiedensten Anforderungen zu sein.

2) Virtuelle Assistenten: Die neue Kultur des Self-Service
Ein zukunftsfähigerService Desk muss nicht nur Mitarbeiteranfragen aus der IT, sondern auch aus HR, Facilities und anderen Abteilungen bearbeiten können. Mit Hilfe eines einheitlichen Portalskann die Produktivität aller Mitarbeiter deutlich verbessert werden. Durch die Ausweitung auf die einzelnen Abteilungen im Unternehmen wird ITSMzum Enterprise Servicemanagement (ESM).

Ermöglicht wird eine solche Erweiterung durch Out-of-the-Box-Module,etwa für Projekt- und Portfoliomanagement (PPM), Governance, Risk and Compliance (GRC) sowie ein integriertes Sicherheitsmanagement.Die Service Management-Plattform muss einfach anpassbar sein, um neue Module, etwafür die Zuweisung von Parkplätzen oder die Verwaltung von Flottenfahrzeuge, erstellen zu können. Idealerweise sollte es auch möglich sein, Einbindungen, Erweiterungen und ESM-Lösungen zu teilen und herunterzuladen.

3) Service Management muss über die IT hinaus wachsen
Nutzer werden anspruchsvoller und erwarten Zugang zum Self-Serviceaufverschiedenen Kanälen. So werden webbasierte Service-Portaleund mobile Apps in Zukunft durch sprachgesteuerte Kanäle wie Alexa Voice Service (Amazon), Siri (Apple) oder Cortona (Microsoft) ergänzt werden. Auch sogenannte Bots werden im Self-Service als Chatbots, E-Mail-Auto-Response-Bots oder Twitter-Bots eine zunehmend wichtigere Rolle spielen. Mit ihnen können vergleichsweise einfache Aufgaben wie das Erstellen von Tickets, die Abfrage von Statusinformationen oder die Präsentation von Wissen automatisiert werden.

Ein Zusammenwirken von Spracherkennung, Natural Language Processing (NLP) und KI ist für sogenannte Virtuelle Assistentennotwendig, die man als computergenerierte Verkörperung eines Servicemitarbeiters bezeichnen kann. Gartner zufolge wird es zwar noch fünf bis zehn Jahre dauern, bis sie sich in der Breite durchsetzen werden. Dennoch muss eine Service Management-Plattform vor diesem Hintergrund robuste Automatisierungs- und Integrationspunkte mit Sprachdiensten, Bot-Frameworks und KI-Plattformen bieten.

4) Was bringt Machine Learning im Tagesgeschäft wirklich?
Machine Learning hat sich unter anderem aus der Untersuchung von Mustererkennung entwickelt und könnte bereits in zwei bis fünf Jahren seine Vorteile voll entfalten. Stellen wir uns folgendes Szenario vor: Ein User ruft ein Self-Service-Portal auf und sucht eine Fehlermeldung, die zu seinem Problem passt. Findet er nichts Passendes, tippt er eine Beschreibung ins Suchfeld. Fällt der Stichwortabgleich negativ aus, muss sich der User doch wieder an den Service Desk wenden. Haben nun zwanzig weitere User dasselbe Problem, werden zwanzig verschiedene Tickets geöffnet, obwohl es sich eigentlich nur um ein einziges Problem handelt.

Stellt man sich dasselbe Szenario mit intelligentem Musterabgleich vor, so wird sich für den ersten User erst einmal nicht viel ändern. Bei jedem weiteren User wird ein Muster erkannt und entsprechende Auto-Vervollständigungen im Suchfeld angezeigt. So kann den folgenden Usern eine passende Fehlermeldung präsentiert werden und zusätzlich die geschätzten Reparaturdauer und dem möglichen Workaround.

Da für Machine Learning schnell zur Verfügung stehende Informationen und Daten essentiell sind, benötigt ein zukunftsfähiger Service Desk eine starke Wissensmanagement-Basis. Laut Gartner werden bis 2020 schätzungsweise 99 Prozent aller KI-Initiativen im ITSM aufgrund einer fehlendenetablierten Wissensmanagement-Basis scheitern.

5) Mit Predictive Analytics den zukünftigen Servicebedarf vorhersagen
Auch bei Predictive Analytics werden Daten über verschiedene Datensätze hinweg nach Mustern durchsucht. So können etwa erfolgreiche mit erfolglosen Change-Prozessen verglichen und die daraus resultierenden Informationen zur Verbesserung des Change-Managements verwendet werden. Durch Muster in Umfrageergebnissen wiederum können neue Serviceangebote oder Bereiche für Prozessverbesserungen identifiziert werden.

Grundsätzlich gibt Predictive Analytics durch die Erkennung von Mustern Orientierung darüber, welche Ereignisse voraussichtlich eintreten werden. Angesichts der Fülle an Informationen, die in einem Service Desk oder einer Service Management-Plattform vorhanden sind, hilft Predictive Analytics dabei, bessere Entscheidungen zu treffen, Risiken und Chancen zu antizipieren und den Servicebedarf zu prognostizieren.

Ein zukunftsfähigerService Desk muss über flexible und einfach anzupassende Dashboards und Reportings verfügen. Da Predictive Analytics in der Regel über eine separate Anwendung bereitgestellt wird, ist die Integration zwischen der Service Management-Plattform und einer gebündelten Analyseanwendung unerlässlich.

Bestens gerüstet für die Zukunft
ITSM wird in nächster Zeit erheblichen Veränderungen unterworfen sein. Diese erfordern eine höhere Flexibilität der Service Delivery-Plattformen, eine schnellere Bearbeitung von Anfragen und eine einheitliche Benutzererfahrung für IT- und Nicht-IT-Services. Eine deutlich wichtigere Rolle wird der Self-Service spielen. Indem Machine Learning-Muster identifiziert und Empfehlungen gibt, wird eine bessere Selbstversorgung der Mitarbeiter möglich: das Ticketvolumen sinkt, die Effizienz von IT-Mitarbeitern und Technikern steigt und die allgemeine Servicequalität verbessert sich.
(Cherwell: ra)

eingetragen: 09.11.18
Newsletterlauf: 29.11.18

Cherwell Software: Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • DevOps werden zunehmend datengetrieben

    DevOps haben sich in der Software-Entwicklung in den vergangenen Jahren immer weiter durchgesetzt. Die effizientere und effektivere Zusammenarbeit von Entwicklung und IT-Betrieb bringt allen Beteiligten zahlreiche Vorteile: So steigt nicht nur die Qualität der Software, sondern auch die Geschwindigkeit, mit der neue Lösungen entwickelt und ausgeliefert werden. In 2019 haben wir gesehen, dass Automatisierung, künstliche Intelligenz und AIOps immer häufiger eingesetzt und von der DevOps-Gemeinschaft erforscht werden. Container und Functions as a Service nahmen weiter zu, so dass Entwickler und Betriebsteams ihre Anwendungen und Infrastruktur besser kontrollieren konnten, ohne die Geschwindigkeit zu beeinträchtigen. Doch wohin geht die Reise jetzt?

  • Cloud Computing-Daten schützen

    Mit wachsenden digitalen Geschäftsanforderungen investieren Unternehmen massiv in die Erweiterung ihrer Netzwerkverbindungsfähigkeiten, um sicherzustellen, dass ihre Daten den richtigen Personen zur richtigen Zeit zur Verfügung stehen. Insbesondere für Cloud-basierte, hochgradig vernetzte und agile Geschäftsmodelle ist die Gewährleistung eines ordnungsgemäßen Zugriffs auf Daten und Systeme unerlässlich. Zusammen mit der Konnektivität in immer komplexeren Infrastrukturen wachsen auch die Anforderungen an Netzwerk- und Datensicherheit. Wenn nicht die richtigen Schutzvorkehrungen getroffen werden, können Bedrohungen, die von Datenlecks und Fehlkonfigurationen bis hin zu Risiken durch Insider reichen, in jedem komplexen Cloud- und Netzwerkökosystem ihr Schadenspotenzial entfalten.

  • Durchsetzung von Cloud-Sicherheitsrichtlinien

    Cloud Computing-Services bieten Unternehmen heute eine kostengünstige und flexible Alternative zu teurer, lokal implementierter Hardware. Vorteile wie hohe Skalierbarkeit, Leistung und Effizienz sowie reduzierte Kosten liegen auf der Hand, sodass immer mehr Unternehmen ihre Anwendungen und Daten in die Cloud migrieren. Sensible Daten wie personenbezogene Informationen, Geschäftsgeheimnisse oder geistiges Eigentum sind jedoch neuen Risiken ausgesetzt. Denn in der Cloud gespeicherte Daten liegen außerhalb der Reichweite vieler lokaler Sicherheitsvorkehrungen. Unternehmen müssen deshalb zusätzliche Maßnahmen ergreifen, um ihre Daten in der Cloud, über den teils rudimentären Schutz der Anbieter hinaus, gegen Cyberangriffe und Datenlecks abzusichern. Allgemein sind Public-Cloud-Provider für die physische Sicherheit, globale und regionale Konnektivität sowie die Stromversorgung und Kühlung ihrer eigenen Rechenzentren zuständig. Dies ermöglicht Unternehmen eine flexible Skalierbarkeit und entlastet sie davon, eine eigene Infrastruktur wie ein Rechenzentrum oder Server-Hardware bereitzustellen. Zugleich liegt es in der Verantwortung der Unternehmen, all ihre in die Cloud migrierten Daten und Anwendung selbst auf gewünschte Weise zu schützen.

  • Redundante SaaS-Anwendungen ermittetteln

    Die Software-as-a-Service (SaaS)-Landschaft wächst und wächst. Wer bis jetzt noch nicht auf Wolken geht, plant in absehbarer Zeit himmelwärts zu wandern. Für den IT-Betrieb bringt die Cloud bei allen Vorteilen jedoch auch Herausforderungen mit. Das gilt insbesondere bei der Verwaltung von SaaS-Ausgaben. Auf den ersten Blick steht die Inventarisierung und Konsolidierung von SaaS mit Recht ganz unten auf der Prioritätenliste von IT-Abteilung. Bei den unzähligen täglichen Aufgaben und den Herausforderungen im Zuge der digitalen Transformation, wird das "Ausmisten" im IT-Haushalt gerne auf die lange Bank geschoben. Das kann sich auf lange Sicht jedoch zu einem kostspieligen Fehler auswachsen, denn die Ausgaben für die Cloud (22 Prozent) liegen mittlerweile nur noch knapp hinter den Ausgaben für On-Premise (23 Prozent). Dazu gehört auch Software-as-a-Service (SaaS), Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (PaaS). Über 80 Prozent der befragten Unternehmen planen die Ausgaben für SaaS und IaaS/PaaS im nächsten Jahr weiter zu erhöhen.

  • CLOUD Act auch für europäische Cloud-Provider?

    Nahezu zeitgleich mit der DSGVO ist der US-amerikanische CLOUD Act in Kraft getreten. In der Praxis geraten damit zwei Rechtsauffassungen unvereinbar miteinander in Konflikt. Nicht nur für Cloud-Anbieter, sondern auch für Unternehmen, die Cloud Computing-Anwendungen nutzen, könnte dies rechtliche Schwierigkeiten mit sich bringen. Anliegen des "Clarifying Lawful Overseas Use of Data" (CLOUD) Act ist es, die US-amerikanische Strafverfolgung zu erleichtern, indem der Zugriff auf im Ausland gespeicherte Kommunikationsdaten von Verdächtigen vereinfacht wird. Was bislang im Rahmen von Rechtshilfeabkommen zwischen den Regierungsbehörden verschiedener Länder im Laufe mehrerer Monate abgewickelt wurde, soll nun schneller möglich sein.

  • Cloud-Repatriation eine Realität

    Unternehmen nutzen vermehrt die Hybrid Cloud um Daten und Anwendungen in alle Umgebungen verschieben zu können. Dies macht das Zurückholen von Daten und Anwendungen ins eigene Rechenzentrum offiziell zu einem Trend. Noch vor wenigen Jahren glaubten wir, dass die Public Cloud die Zukunft der IT ist und früher oder später, physische Rechenzentren ersetzen würde. Tatsächlich ist der Trend Daten und Workloads in Public Clouds zu migrieren seit langem ungebrochen stark und es ist kein Ende dieser Entwicklung auszumachen. Doch trotz dieses generell anhaltenden Trends in Richtung Public Cloud ist Cloud-Repatriation, also die entgegengesetzte Entscheidung, Daten und Workloads zurück nach Hause ins eigene Rechenzentrum zu holen, in letzter Zeit zur Realität geworden. Was treibt diese Entwicklung an?

  • So hilft die KI bei der Datenanalyse

    Die Elektromobilität wird dazu führen, dass Fahrzeuge und Infrastrukturen riesige Datenströme generieren. In dieser Daten-Goldgrube verstecken sich viele Hinweise darauf, wie Unternehmen ihre Angebote und Produkte verbessern, aber auch die Kundenzufriedenheit steigern können. Wer den Datenschatz heben möchte, benötigt eine übergreifende Datenplattform und KI-Lösungen mit Maschine Learning-Komponenten. In den Medien generiert das Thema Elektromobilität derzeit interessante Schlagzeilen. Daimler kündigte an, ab 2021 mit der Produktion von autonom fahrenden Taxis zu starten. Auch Volkswagen steht unter Strom, denn die Wolfsburger wollen in den kommenden zehn Jahren 70 neue vollelektrische Elektrofahrzeuge entwickeln. Dazu meldet nun auch Lidl, dass der Lebensmitteldiscounter auf seinen Parkplätzen künftig Ladestationen für Elektrofahrzeuge installieren wird, wie es schon andere Handelsketten, beispielsweise Aldi, Rewe und Ikea, vormachen. Und im nächsten James Bond-Film wird der Superagent vermutlich mit einem Elektrofahrzeug von Aston Martin auf Gangsterjagd gehen.

  • Funktionierende DevOps-Kultur zu etablieren

    DevOps mit grundlegender IT-Modernisierung verbinden: Weitreichende Veränderungen wie die digitale Transformation oder neue Regularien wie die DSGVO wurden von vielen Unternehmen zum Anlass genommen, die eigene IT-Architektur von Grund auf zu überdenken. Die Ziele dabei waren und sind im Prinzip immer eine flexiblere IT, die schnell auf sich ändernde Umstände reagieren kann - eine der Kernkompetenzen von DevOps. Es ist also überaus sinnvoll, DevOps als eine der zentralen Säulen der neuen IT zu etablieren und sich dadurch kürzere Softwareentwicklungs- und Bereitstellungszyklen zu sichern.

  • Cloud-Big Data-Projekte: Exponentielles Wachstum

    Für IT-Verantwortliche wird es immer wichtiger, mit der Cloud den Einsatz innovativer Technologien zu unterstützen. Cloud Cpmputing-Services für Machine Learning, Künstliche Intelligenz, Blockchain oder Serverless Computing sind heute mit wenigen Mausklicks abrufbar. Damit beschleunigt sich die Umsetzung neuer Geschäftsmodelle ebenso wie die Produktentwicklung. Warum ein organisationsweites Datenmanagement für den Cloud-Erfolg wichtig ist, zeigt der folgende Beitrag. In der Studie "Multi-Cloud in deutschen Unternehmen" berichten die Analysten von IDC, dass 68 Prozent der Unternehmen bereits Cloud Computing-Services und -Technologien für mehrere Workloads verwenden.

  • Multiple Clouds nicht gleich Multi-Cloud

    Multi-Cloud ist derzeit einer der heißesten Trends für Unternehmen. Die Verwendung mehrerer Clouds gleichzeitig, kann viele Vorteile bieten. Richtig eingesetzt kann man mit der richtigen Kombination von Clouds unter anderem die Kosten für Infrastruktur senken, die Präsenz von Daten und Workloads in verschiedenen Regionen verbessern oder die Herstellerbindung an Cloud Computing-Anbieter vermeiden. Unternehmen, die den Ansatz Multi-Cloud hingegen falsch verstanden haben, kann dieses Missverständnis viel Geld kosten. Denn eine fehlgeleitete Multi-Cloud-Strategie hat das Potenzial, Anwendungen, Teams und Budgets unnötig aufzusplitten.