Sie sind hier: Startseite » Markt » Hintergrund

IoT in Supply-Chain-Initiativen und Logistik


Bei der Wahl der Cloud geht es daher um viel Das Thema Vertrauen spielt eine sehr wichtige Rolle
Cloud-Datenbanken stehen dabei allerdings vor einigen Herausforderungen


Von Patrick Callaghan, Solutions Architect bei DataStax

Um es mit den Worten des britischen Schriftstellers Douglas Adams zu sagen: Das Internet der Dinge ist groß. Wirklich groß. Sie mögen denken, dass die Datenmenge, mit der Sie in Ihrem Unternehmen zu tun haben riesig ist – denn laut der IDG IoT Studie 2018 hat bereits ein Fünftel der befragten Unternehmen IoT-Projekte umgesetzt. In Wahrheit aber sind das nur Peanuts im Vergleich zu dem Volumen an Daten, das von vernetzten Fahrzeugen und IoT-fähigen Lieferketten erzeugt wird. Ganz zu schweigen von der Vielfalt an Datentypen und der Geschwindigkeit, mit der sie generiert werden. Dass der Umgang mit diesen Daten eine große Herausforderung ist, liegt auf der Hand. Was gilt es also zu beachten?

Mehr Daten, mehr Probleme oder vielleicht mehr Möglichkeiten?
Sensoren an jedem vernetzten Gerät sammeln durchgängig Informationen und erzeugen so Daten, um das aktuelle Geschehen abzubilden. Betrachtet man zudem den Straßenverkehr, erhält man Unmengen von Updates von tausenden Lastwagen, Bussen oder Autos. Sogar Schiffscontainer übermitteln Angaben zu ihrem Standort, ihrem Status und Problemen, mit denen sie zu kämpfen haben. Multipliziert man all diese Daten, ist das Ausmaß schon heute nicht mehr greifbar. Dabei planen einige globale Logistikunternehmen die Anzahl der Datenpunkte, mithilfe derer ein Paket oder eine Sendung nachverfolgt wird, noch zu erhöhen: Von heute etwa 20 bis 25 auf künftig mehr als 100.

Aus betriebswirtschaftlicher Sicht sind diese zusätzlichen Daten unerlässlich. Sie werden gebraucht, um mit Wettbewerbern im Supply Chain Management und der Logistik Schritt halten zu können. Denn richtig und in Echtzeit genutzt, können diese Daten die Servicequalität verbessern, indem sie aufkommende Probleme, zum Beispiel bei der Lieferung eines Produktes, frühzeitig lösen. Wie man es auch dreht und wendet: Die Zukunft wird uns noch mehr Daten bringen.

Die Datenflut kommt
Bereits heute produzieren wir mehr Daten als je zuvor in der Menschheitsgeschichte. Diese riesigen Datenmengen stellen Unternehmen vor eine Herausforderung: Sie müssen ihre internen IT-Infrastrukturen an die aktuellen Gegebenheiten anpassen. An dieser Stelle setzen Public-Cloud-Angebote an – aber sind diese auch für IoT-Daten geeignet?

Dabei hilft es, sich bewusst zu machen, wie die Daten eintreffen und wie sie von Datenbanken weiterverarbeitet werden. Datenbanken speichern Daten für die unterschiedlichsten Zwecke: als Transaktionssysteme, um weitere Anweisungen auszuführen, als Ablage von Langzeitdaten oder zur Analyse von Daten, die uns einen Einblick in das tägliche Geschehen geben kann. Gerade im Umgang mit IoT-Daten, die von unzähligen Sensoren stammen und bei denen die Reihenfolge entscheidend sein kann, ist die Skalierbarkeit der Datenbanken so wichtig. Hier setzen Cloud-Lösungen an: Anstatt intern neue Ressourcen aufzubauen, können Public Cloud Services einfach hinzugebucht werden, um die Nachfrage schnell zu decken. Cloud-Datenbanken stehen dabei allerdings vor einigen Herausforderungen.

Vertrauen ist gut, Kontrolle ist besser
Bei der Wahl der Cloud geht es daher um viel. Das Thema Vertrauen spielt eine sehr wichtige Rolle. Für viele international tätige Unternehmen, für die funktionierende Supply Chains und die Logistik eine herausragende Rolle spielen, sind die bestehenden Datensätze und Anwendungen unternehmenskritisch. Diese einfach zu Cloud-Providern zu verlagern ist schwierig, wenn nicht gar unmöglich.

Darüber hinaus sind die Daten selbst unglaublich wertvoll. Natürlich sind die großen Cloud-Anbieter in der Lage, ihre IT-Sicherheit effektiver zu gestalten als einzelne Unternehmen; manche Unternehmen geben die Kontrolle aber trotzdem ungerne ab. Nachvollziehbar, will man doch informiert sein, wo die eigenen Daten gespeichert werden und wer Zugriff hat. Hinzu kommt, dass gerade Handel- und Logistikunternehmen den Druck neuer Marktteilnehmer, wie bspw. Amazon, spüren. Sie konkurrieren mit den gleichen Unternehmen, die ihnen ihre Cloud-Infrastruktur zur Verfügung stellen – keine einfache Situation.

Deshalb entscheiden sich Unternehmen mit hohen Anforderungen an das Supply Chain Management und die Logistik vorwiegend für den Einsatz einer Hybrid Cloud. Schätzungen der Analysten von Gartner zufolge werden rund 90 Prozent der Unternehmen bis 2020 auf ein hybrides Infrastrukturmanagement setzen. Gleichzeitig prognostiziert Gartner eine Steigerung der Gesamtausgaben für Cloud Computing auf 68,4 Milliarden US-Dollar im Jahr 2020.

Enorme Datenmengen bergen enormes Potenzial
Je größer die Datenmenge, desto größer ist ihr Potenzial – aber auch die Komplexität des Datenmanagements. Gerade Logistikunternehmen verfügen über komplexe Netzwerke von Anwendungen, die intern Daten produzieren. Hinzu kommen die Unmengen an IoT-Daten. Führt man beide Datenbestände zusammen, bergen diese ein enormes Potenzial.

Allerdings ist dieser Schritt nicht einfach. Während Cloud-basierte Compute- und Storage-Services schnell skalierbar sind, um auch zunehmende Datenmengen zu bewältigen, gilt dies nicht auch automatisch für die Datenbank. Denn die meisten traditionellen Vertreter basieren auf Technologien, die für den Betrieb einzelner Instanzen oder kleinerer Cluster an einem einzigen Standort entwickelt wurden – aber definitiv nicht für die Cloud.

Flexibles Datenmanagement ist gefragt
Planen Unternehmen den Einsatz von IoT und damit eine Cloud Computing-Lösung zu implementieren, reicht es nicht aus, einzelne Datenbankinstanzen in der Cloud zu hosten. Vielmehr gilt es, Datenbanken so zu konzipieren, dass sie nativ in der Cloud laufen. Hierfür müssen sie vollständig verteilt sein, auf beliebig vielen Knoten laufen können und nicht abhängig von einem traditionellen "Master-Knoten" sein.

Des Weiteren muss eine Cloud-Datenbank heterogene Informationen verarbeiten können – sie bekommt es schließlich mit Daten zu tun, die Milliarden verschiedener Sensoren, Geräte und Personen ständig und weltweit verteilt über diverse Kanäle produzieren. Genau deshalb ist die Skalierbarkeit so wichtig, eine Datenbank muss sich flexibel den Gegebenheiten anpassen können.

Wichtig für Hybrid-Cloud-Umgebungen ist, dass sie unabhängig von der jeweils zugrunde liegenden Cloud arbeiten – sei es eine interne Private Cloud oder eine Public Cloud. Im Idealfall läuft das System über mehrere Public Clouds. So können Unternehmen die Vorteile derjenigen Provider nutzen, die in Sachen Standort und Service am besten zu ihnen passen – und überall aktiv sein. Lebt ein Unternehmen flexibles Datenmanagement, bewältigt es den Datenfluss spielend, den IoT-Projekte mit sich bringen.
(DataStax: ra)




eingetragen: 11.01.19
Newsletterlauf: 18.02.19

DataStax: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Hintergrund

  • Datenschutzstrategien für hybride IT

    Eine von Arcserve beauftragte unabhängige Befragung unter IT-Führungskräften ergab, dass 80 Prozent schon einmal von Ransomware betroffen waren. Während 82 Prozent der Betroffenen angaben, dass sie den Schaden innerhalb von 48 Stunden beheben konnten, war dazu knapp ein Fünftel nicht in der Lage. Problematisch ist auch, dass bis zu 30 Prozent der Daten bei einem erfolgreichen Ransomware-Angriff nicht wiederhergestellt werden konnten.

  • Cloud-basierte Monetarisierung löst Probleme

    Mit ihrer jahrzehntelangen Erfahrung im Management wiederkehrender Kundenbeziehungen sind Telekommunikationsunternehmen (Telcos) attraktive Partner in der Abonnement-Wirtschaft. Ihr großer Kundenstamm, der sich durch historisch niedrige Abwanderungsraten auszeichnet, bietet eine solide Grundlage, um vom wachsenden Abonnementmarkt zu profitieren.

  • Fokus auf Datenschutz & Compliance

    IT-Ausgaben in der Finanzbranche werden 2025 auf über 58 Milliarden USD steigen, während Technologien wie generative Künstliche Intelligenz (GenAI) Arbeitsabläufe, Datenmanagement und Kundeninteraktionen revolutionieren. Gleichzeitig wird der sich vollziehende Generationswechsel bei den Anlegern endgültig ein neues Level an Digitalisierung fordern. Fünf zentrale Trends werden diesen Wandel prägen: die Optimierung von Kundenerlebnissen, die Einführung modularer Architekturen, datengetriebene Innovationen, die Konvergenz von Branchen und ein verstärkter Fokus auf Datenschutz und Compliance.

  • Optimierung der Cloud-Kosten oberste Priorität

    Das Jahr 2024 war das "Jahr der generativen KI", was zu einer raschen Ausweitung der Datenerzeugung, -verwaltung und -konsolidierung führte. Dieser Anstieg zeigt keine Anzeichen einer Verlangsamung. Darüber hinaus kam es 2024 zu den ersten großen Angriffen auf die Lieferkette auf globaler Ebene, angeführt von CrowdStrike, die Unternehmen dazu zwangen, die Cybersicherheit auf allen Ebenen zu überdenken.

  • Hybrid-Cloud als ausgewogenere Lösung

    Durch den rasanten technologischen Wandel sind datengesteuerte Initiativen in modernen Geschäftsstrategien wichtiger denn je. Im Jahr 2025 stehen die Unternehmen jedoch vor neuen Herausforderungen, die ihre Datenstrategien, ihre Bereitschaft für Künstliche Intelligenz (KI) und ihr allgemeines Vertrauen in Daten auf die Probe stellen werden. Insgesamt ist die Bereitschaft für KI in internationalen Unternehmen sehr gering (17 Prozent).

  • Hybride Ansätze statt Cloud Only

    Wie sieht die Perspektive für das Dokumentenmanagement im Jahr 2025 aus? Die Zukunft ist digital, so viel ist sicher. Mit der E-Rechnungspflicht, künstlicher Intelligenz und Cloud-Technologien stehen grundlegende Veränderungen bevor. Der DMS-Experte easy software AG hat die relevantesten Branchentrends zusammengefasst.

  • Migration in die Cloud

    Die Versicherungsbranche befindet sich in einem rasanten Wandel. Fadata, Anbieterin von Softwarelösungen für die Versicherungsbranche, wirft einen Blick auf das Jahr 2025 und beleuchtet die wichtigsten Entwicklungen und Trends in den Bereichen Versicherung und digitale Transformation. Die wichtigsten Trends, die laut Fadata die Zukunft der Versicherung prägen werden, sind Internalisierung, Prävention, Cloud-Migration, Embedded Insurance, Ökosystem-Entwicklung und Talent-Transformation. Diese sechs Trends treiben transformative Veränderungen in der gesamten Branche voran, wobei die Versicherer innovative Ansätze verfolgen, um Kundenbedürfnisse, betriebliche Effizienz, Sicherheit, Risiken und Marktanforderungen zu adressieren. Versicherer werden im Jahr 2025 ihre wichtigsten Abläufe zunehmend internalisieren. Sie wollen ihre Abläufe straffen, Kosten senken und die Datensicherheit erhöhen. All dies kann durch die verbesserte Steuerung der Prozesse erreicht werden, die eine Internalisierung ermöglicht.

  • NIS2 wird Bewusstsein für CPS-Sicherheit stärken

    Und wieder liegt ein herausforderndes Jahr hinter uns. Die geopolitische Lage insbesondere in der Ukraine und im Nahen Osten ist weiterhin angespannt, während die innenpolitische Situation in den zwei stärksten Volkswirtschaften Europas derzeit ungewiss erscheint. All dies hat auch Auswirkungen auf die Cybersecurity. Schon längst sollten wir dabei nicht nur an IT-Sicherheit denken, sondern auch an IoT und Betriebstechnik (OT), also an cyber-physische Systeme (CPS).

  • Generative KI mit bemerkenswerten Fortschritte

    Generative Künstliche Intelligenz (generative KI) hat in den letzten Jahren bemerkenswerte Fortschritte erzielt. Dies ist auch auf die steigende Zahl von Entwicklern zurückzuführen, die über ein immer umfangreicheres Know-how verfügen. Doch eine Frage brennt Unternehmen wie Investoren unter den Nägeln: Wann lässt sich mithilfe von KI die betriebliche Effizienz auf das nächste Level heben?

  • Datendschungel: Herausforderung & Chance

    Das Jahr 2024 markierte einen Wendepunkt für die generative KI. Chat GPT und andere Akteure haben sich zu einigen der am schnellsten wachsenden Plattformen der letzten Zeit entwickelt. Doch inmitten dieser aufregenden KI-Revolution wird ein entscheidender Aspekt oft übersehen: das Datenmanagement. Ein starkes und durchdachtes Datenmanagement könnte der Schlüssel sein, um das volle Potenzial von KI-Lösungen zu entfalten.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen