- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

Sechs Big Data-Prognosen für das Jahr 2017


Mittlerweile gibt es Datenplattformen basierend auf neuen Technologien, mit denen Big Data effizient verarbeitet und genutzt werden kann
Mit Hilfe von agilen Modellen und einem breiten Spektrum von Analysewerkzeugen können auf dem gleichen Datenbestand Batch-Analysen, interaktive Analysen sowie der Datentransport zwischen Systemen ("global messaging") realisiert werden

- Anzeigen -





Der Markt befindet sich durch die digitale Transformation in einem Umbruch. Anfänglich war Big Data ein eher technisches Thema für IT-Experten. Mittlerweile erlernen Kunden, Firmen und Organisationen den Einsatz von datengetriebenen Technologien für neue Geschäftsmodelle und Projekte. Laut John Schroeder, Vorstandsvorsitzender und Mitbegründer von von MapR Technologies, Inc., hat sich der Fokus in der IT auf die Wertigkeit der Daten verschoben.

John Schroeder hat bezogen auf Markt-Trends für das Jahr 2017 sechs Prognosen aufgestellt.

1) Das Comeback der künstlichen Intelligenz
Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik, das es schon seit einigen Jahrzehnten gibt. Die Grundlagen der mathematischen Theorie der KI wurden bereits in den sechziger Jahren u.a. von Ray Solomonoff definiert. Bis vor einigen Jahren hatte KI relativ wenig Einfluss auf die klassische Datenverarbeitung. Zurzeit erfährt der Bereich der künstlichen Intelligenz jedoch eine Wiedergeburt in eine Welt, in der Daten und Informationen eine immer größere Rolle spielen. Begriffe wie maschinelles Lernen, kognitives Computing und neuronale Netze sind auf dem Anwendungsgebiet der Massendatenverarbeitung "mainstream" geworden. Dieser Trend wird sich auch 2017 verstärkt fortsetzen. Im Kern geht es hier überwiegend um die automatische und iterative Anwendung rechenintensiver Algorithmen auf großen Datenmengen.

Eine Ursache des Comebacks der künstlichen Intelligenz ist somit Big Data, das bekanntlich durch drei Hauptmerkmale charakterisiert wird – "Volume" (Daten-Volumen), "Velocity" (Daten-Entstehungsgeschwindigkeit) und "Variety" (Daten-Vielfalt).

Mittlerweile gibt es Datenplattformen basierend auf neuen Technologien, mit denen Big Data effizient verarbeitet und genutzt werden kann. Mit Hilfe dieser Plattformen können sowohl neue als auch klassische Modelle der Datenprozessierung horizontal skaliert werden. Hierbei wird im Vergleich zu traditionellen Systemen eine Kostenreduktion vom Faktor 10-20 erreicht.

2) Wettbewerbsvorteil vs. Governance
Für das Jahr 2017 wird ein Tauziehen zwischen der Daten-Wertschöpfung auf der einen und Daten-Governance auf der anderen Seite prognostiziert.

Viele Unternehmen besitzen wertvolle Informationen über Kunden und Partner. Die Vorreiter unter ihnen transformieren ihr Unternehmen vom Marktsegment Führer in eine datengetriebene Organisation.

Hierbei ist die digitale Transformation eine Gratwanderung zwischen der Einhaltung von Richtlinien, der Gewährung von Datensicherheit und Datenschutz und der Wertschöpfung aus Daten. Unternehmen aus dem Finanz- und Gesundheitswesen sind hierfür ein Paradebeispiel, da dort die Datenbasis gleichermaßen für regulierte und nicht regulierte Anwendungsfälle verfügbar sein muss.

Regulierte Anwendungsfälle setzen die Steuerung von Geschäftsprozessen, Daten-Qualität und Daten-Herkunft ("Lineage") voraus. Letzteres ermöglicht ausgehend von aggregierten Datensätzen die Rückverfolgung zu den ursprünglichen Daten. Die Einhaltung der Regularien ist notwendig und meist auch gesetzlich vorgeschrieben. Allerdings führt dies zu Einschränkungen bei der Umsetzung von nicht-regulierten Anwendungsfällen wie zum Beispiel die "360 Grad Kundensicht", da diese auf polystrukturierte und heterogene Daten zurückgreifen müssen, die sich nur mit großem Aufwand regulieren lassen.

3) Data-Lake für das analytische und operative Geschäft
"Stellen Sie sich ihre Möglichkeiten vor, wenn alle Daten in einem zentralen Data Lake sicher abgelegt sind und jede Abteilung ihres Unternehmens jederzeit kontrollierten Zugriff auf diese Daten hat" – dies klingt zunächst einmal sehr vielversprechend. Leider resultiert dies in der Praxis häufig eher in einen Datensumpf, der in Gestalt eines Data Warehouse Nachbaus operationale und Echtzeit-Anforderungen nicht erfüllt.

Unternehmen investieren in neue Geschäftsmodelle, um wettbewerbsfähig zu bleiben. Für die Realisierung dieser Anwendungsfälle wird eine agile Plattform benötigt, die gleichermaßen analytische und operationale Aufgaben übernehmen kann. Zum Beispiel werden im E-Commerce für den Besucher eines Web-Portals in nahezu Echtzeit individualisierte Produktempfehlungen berechnet und angezeigt. Medienunternehmen müssen in der Lage sein, personalisierte Inhalte anzubieten. Automobilhersteller und Unternehmen aus dem Maschinenbau müssen einen Datenaustausch zwischen Menschen und Maschinen ermöglichen, um in Echtzeit auf Ereignisse reagieren zu können.

4) Datenagilität schafft Wettbewerbsvorteile
Agile Softwareentwicklung in Kombination mit "Continuous Delivery" durch den DevOps-Ansatz ermöglichen die Entwicklung und das Ausrollen von qualitativ hochwertiger Software. Für 2017 wird prognostiziert, dass agile Ansätze auch verstärkt in den Bereich der Datenverarbeitung vordringen werden. Der Begriff Datenagilität beschreibt die Fähigkeit, den Kontext von Daten zu verstehen und daraus Unternehmensentscheidungen abzuleiten. Nicht ein großer Data-Lake alleine, sondern die Datenagilität verschafft letztendlich Wettbewerbsvorteile.

Mit Hilfe von agilen Modellen und einem breiten Spektrum von Analysewerkzeugen können auf dem gleichen Datenbestand Batch-Analysen, interaktive Analysen sowie der Datentransport zwischen Systemen ("global messaging") realisiert werden.

5) Blockchain verändert Finanzdienstleistungen
1998 hat Nick Szabo einen Aufsatz mit dem Titel "The God Protocol" verfasst. Darin sinnierte er über ein Protokoll, bei dem Gott der vertrauenswürdige Mittelsmann aller Transaktionen wäre.

Blockchain ist Mechanismus, der in sich an diesem Verfahren – wenn auch ohne direkte Einflussnahme von Gott – orientiert und die Grundlage für das "bitcoin" Protokoll ist.

Im weiteren Sinne ist Blockchain eine weltweit verteilte Datenbank, die das Speichern von Daten und Prozessieren von Transaktionen revolutioniert. Transaktionen werden in verketteten Blöcken gespeichert, wobei jeder Block auf seinen Vorgänger-Block referenziert und mit einer Prüfsumme versehen wird, in der die Prüfsummen aller vorausgehenden Blöcke mit einfließt. Folglich kann der Inhalt eines Blocks nicht geändert werden ohne Änderungen in allen nachfolgenden Blöcken vornehmen zu müssen.

Blockchain zeichnet sich durch große Effizienz und Sicherheit aus. Zum Beispiel müssten mit Blockchain Konsumenten nicht mehr auf eine SWIFT Transaktion warten und befürchten, dass es auf einem zentralen Daten-Center ein Datenleck gibt, das Schaden verursacht.

Für Unternehmen ermöglichen Blockchain Kosteneinsparungen und das Potenzial eines Wettbewerbsvorteils. Im Finanzwesen werden für das Jahr 2017 die Realisierung von vielen Anwendungsfällen erwartet, die auf dem o.g. Verfahren basieren und eine große Auswirkung auf das Speichern von Daten und Transaktionen haben werden.

6) Integration von maschinellem Lernen verstärkt den Einfluss von Microservices
Derzeit gibt es zahlreiche Aktivitäten, um maschinelles Lernen in den Architekturansatz der Microservices zu integrieren. Bislang haben sich Microservices überwiegend auf leichtgewichtige Services beschränkt. Microservices und maschinelles Lernen sind sich weitgehend im Rahmen der Nutzung und Verarbeitung von "Fast Data" begegnet. Für 2017 wird prognostiziert, dass neben den typischerweise eher "stateless" geprägten Microservices auch immer mehr "stateful" Applikationen und Services entstehen, die sich Big Data zunutze machen. Daneben wird maschinelles Lernen verstärkt in Szenarien zum Einsatz kommen, die große Mengen von historischen Daten benutzen, um den Kontext von "Fast Data" besser verstehen zu können.

"Unsere Prognosen werden stark von führenden Kunden beeinflusst, die durch die Integration von analytischen und operativen Anwendungsfällen einen erheblichen Mehrwert generieren", so John Schroeder. "Unsere Kunden nutzen die MapR konvergente Datenplattform für die agile und flexible Verwertung von Daten. Sie bietet ein breites Spektrum für die agile Datenverarbeitung durch Hadoop, Spark, SQL, NoSQL bis hin zum Streaming von Dateien und Nachrichten. Die MapR-Datenplattform ist eine einzigartige Kombination von Werkzeugen für die Umsetzung von aktuellen und zukünftigen Anwendungsfällen in privaten, öffentlichen und hybriden Cloud-Deployments."
(MapR Technologies: ra)

eingetragen: 10.01.17
Home & Newsletterlauf: 18.01.17

MapR Technologies: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Wachsende Menge an Cloud-Dienstleistungen

    Managed-Service-Provider sind gezwungen, ihre Rolle grundlegend neu zu definieren, meint IT-Dienstleister Consol. Nur so werden sie im Spannungsfeld von großen Cloud-Playern und veränderten Kundenanforderungen überleben können. Der Cloud Computing-Markt hat in den letzten Jahren einen massiven Wandel vollzogen. Große Player wie Amazon, Google oder Microsoft nehmen eine dominierende Rolle ein und die Kunden stellen neue, höhere Anforderungen an Cloud-Angebote. Damit und mit dem Einzug von DevOps und agilen Methoden haben sich die Rahmenbedingungen für den Betrieb im Allgemeinen und für Managed-Services im Besonderen grundlegend geändert. Auf diese Veränderungen muss auch ein Managed-Service-Provider reagieren, um seine Marktposition zu behaupten.

  • Bedeutung umfassender Transparenz für Apps

    Domino's Pizza wird immer beliebter. Ein Grund dafür ist, dass Kunden nach ihrer Bestellung den gesamten Prozess in der App verfolgen können: Wann wird die Pizza zubereitet, wann in den Ofen geschoben, in eine Schachtel verpackt oder im Lieferauto eingeladen. Schließlich kann der Kunde dem Boten schon die Tür öffnen, bevor dieser klingelt. Denn er weiß genau, wann die heiße Pizza ankommt. Obwohl eine solche Nachverfolgung für eine Pizza- oder Paketlieferung heute möglich ist, erreichen viele Unternehmen noch nicht den gleichen Grad an Sichtbarkeit für ihre geschäftskritischen Anwendungen. Warum ist das so?

  • Secure Access Service Edge (SASE)

    Vor nicht allzu langer Zeit noch wurden die Begrifflichkeiten der Cloud-Sicherheit und der Security Cloud oftmals in einen Topf geworfen und miteinander vermischt. Trotz eines gravierenden Unterschieds. War von Cloud-Sicherheit die Rede, wurde ebendiese der Wolke oftmals abgesprochen - es schwang immer ein gewisses Unbehagen mit der sicheren Datenvorhaltung in der Cloud mit. Die Security-Cloud im Unterschied dazu dient gerade der Sicherheit. Denn dabei wird die Funktionalität von Hardware-Appliances in die Cloud verlagert und den Kunden als Service zur Verfügung gestellt. Heute hat die Cloudifizierung auf breiter Front in Unternehmen Einzug gehalten und die Diskussionen um die Cloud-Sicherheit sind angesichts der Vorteile und Entwicklungen verstummt. Da es oftmals sogar die Anwendungen sind, die den jeweiligen Cloud Computing-Anbieter, wie AWS, Google oder Azure auf der Grundlage ihrer spezifischen Anforderungen vorgeben, sind Multicloud-Umgebungen längst auf der Tagesordnung in Unternehmen.

  • IoT benötigt Automatisierung

    Der Trend zur Automatisierung wird schon seit einiger Zeit immer größer. Ein Treiber dieses Trends ist die umfassende Digitalisierung, ein sich immer schneller drehendes Geschäft und die steigende Datenmenge. Diese große Datenmenge lässt sich manuell einfach nicht mehr effizient, fehlerfrei und schnell verarbeiten und verlangt nach Automatisierung. Ein wichtiger Aspekt der Automatisierung ist die Abschaffung von manuellen, sich wiederholenden Aufgaben in der IT. Diese werden etwa durch die Automatisierung vieler Prozesse im Datawarehouse eliminiert und verkürzen damit die Zeit, bis Unternehmen Wert aus ihren Daten schöpfen können. Über die Vereinfachung und Beschleunigung von Datenprozessen hinaus, hilft Automatisierung auch in anderen Bereichen der IT, zum Beispiel bei IoT und Cloud Computing.

  • Banken adaptieren Cloud Computing

    Das neue Jahr geht für Banken genauso aufregend weiter, wie das alte geendet hat. Denn künstliche Intelligenz und Cloud Computing werden 2020 den Durchbruch im Bankwesen erleben. Um die sich schnell verändernden Kundenerwartungen zu erfüllen, werden Banken ihre Filialmodelle überdenken und noch mehr Technologie einsetzen müssen, um näher am Kunden zu sein. Die PSD2-Zahlungsrichtlinie ist zwar schon seit letztem Jahr in Kraft, doch wenn Banken das meiste aus Open Banking für sich herausholen möchten, sollten sie einen großen Schritt auf neue, agile Marktteilnehmer in diesem Bereich zugehen. Niccolò Garzelli, Senior Vice President Sales bei Auriga, prognostiziert, was die Bankbranche dieses Jahr erwartet.

  • Weiter im Trend liegt Edge Computing

    Red Hat hat zentrale IT-Trends 2020 unter technischen Gesichtspunkten beleuchtet. Auch 2020 werden wieder zahlreiche neue oder weiterentwickelte Technologien den IT-Markt prägen. Red Hat hat die Themen Edge Computing, Internet of Things (IoT), Serverless, Hardware und IT-Silos ausgewählt und die technischen Implikationen und Neuerungen untersucht.

  • Von klügeren Bots und dem IT-Concierge

    Laut Marktanalyst Gartner verantworten CIOs bis 2023 mehr als das Dreifache der Endgeräte als noch 2018. Ohne technologische Unterstützung können sie diese Aufgabe auf Dauer kaum bewältigen. Schon heute sind die IT-Teams gefordert, immer mehr Anwendungen zu unterstützen, zunehmend strategische Beiträge zu leisten und die Kundenzufriedenheit kontinuierlich zu verbessern - mit nur geringfügig steigenden Budgets. Der Einsatz KI-gestützter Automatisierungs- und Self-Service-Tools wird daher im Jahr 2020 immer deutlicher zunehmen und IT-Teams helfen, ihre Service-Level zu halten.

  • Entwicklung hin zu Hybrid-Architekturen

    Während in den vergangenen Jahren vor allem innerhalb der Unternehmensführungen ausgiebig darüber diskutiert wurde, ob nun Cloud oder "On Premise" die bessere Wahl ist, haben sich mittlerweile hybride Architekturen durchgesetzt, die Public- und Private-Cloud-Modelle mit Edge-Infrastrukturen rund um neu gestaltete zentrale Rechenzentren vereinen. Diese im Wandel befindliche Herangehensweise an das Management von Daten und Computing-Ressourcen ist einer der fünf wichtigsten Rechenzentrums-Trends 2020, die Experten von Vertiv, einem weltweiten Anbieter für IT-Infrastruktur- und Continuity-Lösungen, identifiziert haben. Die Entwicklung hin zu Hybrid-Architekturen erlaubt es Unternehmen, die Kontrolle über sensible Daten zu behalten und gleichzeitig die rapide wachsenden Anforderungen an Kapazität und Rechenleistung auf Kundenseite zu erfüllen. Nachdem Konnektivität und Verfügbarkeit gemeinsame Konzepte in diesem neuen Daten-Ökosystem werden, wird in Zukunft der Fokus verstärkt auf die nahtlose Kommunikation zwischen On-Premise-Ressourcen, der Cloud und dem Netzwerkrand - dem "Edge" - gelegt werden.

  • Alle Zeichen stehen auf Desktop-as-a-Service

    "Unser Leben und Arbeiten wird im 21. Jahrhundert maßgeblich von der Digitalisierung bestimmt. Dabei handelt es sich nicht um einen Trend, sondern vielmehr um eine unumkehrbare Umwälzung aller Lebens- und Arbeitsbereiche. Mehr denn je gilt: was digitalisiert werden kann, wird digitalisiert. Vor diesem Hintergrund müssen sich Unternehmen teilweise radikal verändern, und die Art, wie dort gearbeitet wird, ändert sich ebenfalls: die digitale Transformation betrifft uns alle. Die Cloud ist kein Trend mehr, sie ist da, wir müssen sie nun nutzen, um die Anforderungen nach mehr Sicherheit, niedrigeren Kosten, höherer Flexibilität und besserer Nachhaltigkeit zu erfüllen. Für den Desktop-as-a-Service und eine Enduser-orientierte Infrastruktur deuten alle Trends darauf hin, dass sich diese Erwartungen im kommenden Jahr weitestgehend erfüllen werden.

  • Bewertung von Sicherheitsrisiken

    Mit Beginn eines neuen Jahres ziehen viele Unternehmensabteilungen Bilanz über den Verlauf der vergangenen zwölf Monate. Was lief gut, wo gibt es Verbesserungsbedarf und wofür sollten im kommenden Jahr mehr Ressourcen aufgewendet werden? Eine Diskussion, die in der geschäftskritischen IT-Abteilung überaus intensiv geführt wird. Insbesondere in der Security setzen sich die Verantwortlichen mit Fragen wie diesen auseinander: Wie sah die Bedrohungslage im vergangenen Jahr aus? Mit welchen Maßnahmen sind wir diesen entgegengetreten? Gab es Vorkommnisse, die die Notwendigkeit zusätzlicher Maßnahmen nahelegen?