Deutschlands großes Presseportal - Homepage
» kostenlos Pressemitteilung veröffentlichen
» Kunden Login zu "meine Redaktion"
»Suche / Lokale Suche
> Startseite > IT, Computer & Internet

Hochverfügbarkeit im Data Warehouse

Big Data, Small Data, Sensor- oder Log-Daten, strukturiert oder unstrukturiert – deutsche Unternehmen nutzen endlich ihre Informationen: Bei vier Fünfteln basieren Unternehmensentscheidungen auf Datenanalysen, so eine Studie (https://www.bitkom.org/Presse/Anhae....ffen-10-06-2016-final.pdf ). In modernen Data-Warehouse-Architekturen sollten heute Informationen zentral, sicher, indexiert und bereits vorsortiert für weiterführende Analysen vorliegen. Doch was ist, wenn beispielsweise ein Server ausfällt oder ein Netzteil in Rauch aufgeht? Themen wie Hochverfügbarkeit und fehlertolerante IT-Architekturen werden dabei auch im Zusammenhang mit dem Data Warehouse (DWH) immer wichtiger und beschäftigen Big-Data-und DWH-Experten wie Markus Ruf von der mip GmbH.

„Die frühere Ansicht, dass Daten nicht unbedingt hochverfügbar sein müssen, da ja Unternehmen ohne sie bzw. ohne Auswertungen und Analysen weiter funktionieren können, zählt heute nur noch eingeschränkt“, erklärt Ruf. Zwar haben immer noch die tatsächlich wertschöpfenden Prozesse Priorität. Jedoch sind in der Zwischenzeit Informationen sowie Datenanalysen teilweise selbst zu wertschöpfenden Prozessen in Unternehmen geworden. Vortages- oder Tagesauswertungen gehören zu wichtigen Entscheidungshilfen für Vorstände, Management und Unternehmensführung, genauso wie für Abteilungen. „Daten etwa zum Kundenverhalten sind heute wesentlich für aktuelle sowie künftige Entwicklungen und Trends – Stichwort: Predictive Analytics“, so Ruf.

Hochverfügbares Data Warehouse: Welche Variante macht Sinn?

Auch wenn bei einem Ausfall die Firma nicht gleich zusammenbricht, ist ein hochverfügbares DWH sinnvoll. Welche Methode bzw. Hochverfügbarkeitsstrategie sich hierfür am besten eignet, muss von Fall zu Fall am besten zusammen mit DWH-Experten geprüft werden: Wie lange darf mein DWH im Jahr höchstens ausfallen? Müssen die Daten 24 Stunden am Tag, 7 Tage die Woche vorliegen? Damit hängt meist auch die Frage zusammen, wie viel das Thema Hochverfügbarkeit überhaupt kosten darf.
Sehr häufig wird ein Data Warehouse nur tagesaktuell genutzt. Aber selbst wenn bei einem Ausfall die Berechnungen und Auswertungen über Nacht nicht stattfinden können, weil kein paralleler bzw. gespiegelter DWH-Aufbau vorliegt, lassen sich die Informationen aus den operationalen Daten wiedergewinnen. „Eine Herausforderung ist jedoch, dass einige Firmen ihre Daten direkt im Data Warehouse archivieren und so nicht mehr alles aus dem operativen System rekonstruieren können“, erklärt Ruf. „Hier ist es deshalb entscheidend, dass die Informationen zum Beispiel auf einem parallel betriebenen DWH oder in der Cloud gesichert sind.“

Verschiedene Wege führen zu mehr Hochverfügbarkeit

Um Daten hochverfügbar zu machen, existieren mehrere Methoden, die jeweils von der im Vorfeld ermittelten höchstmöglichen Ausfallzeit und dem eigenen Geldbeutel abhängen. Dazu gehören:

1. eine vollständige (und bestenfalls automatisierte) Rekonstruktion der Daten aus den operativen Vorgängen (über Nacht) – allerdings mit einem Tag Verzögerung

2. die Virtualisierung des Data Warehouse über eine virtuelle Maschine (VM): Wenn eine DWH-Hardware-Komponente ausfällt, wird die VM einfach auf einen anderen physikalischen Server oder ins Storage Area Network (SAN) verschoben. So lässt sich das DWH wieder starten. Diese Variante setzt voraus, dass der Storage- bzw. VM-Server nicht ausgefallen ist. Erst eine Spiegelung auf der physikalischen Ebene macht das System hochverfügbar.

3. ein HADR-Cluster (High-Availability Data Replication) in der Datenbank selbst: Während der Datenaufbereitung wird eine Kopie des gesamten DWH angelegt. Somit lassen sich die Informationen bereits dort auf einer zweiten physikalischen Ebene spiegeln. Das hat aber auch Performance-Einbußen zur Folge, weil die Daten jedes Mal doppelt geschrieben werden müssen.

Synchron oder asynchron – das ist hier die Frage

Beim Thema Hochverfügbarkeit im Data Warehouse muss zudem im Vorfeld entschieden werden, ob dieser Bereich synchron oder asynchron aufgebaut werden soll. „Bei angestrebter Synchronität muss man stets darauf warten, bis alle Informationen geschrieben worden sind, was ein DWH langsam macht“, so Ruf. „Beim asynchronen Schreiben der Daten können diese allerdings verloren gehen, während sie ins DWH übernommen werden.“ Die wenigen so eingebüßten Datensätze lassen sich jedoch wieder per Datenrekonstruktion vervollständigen. Hier müssen sich Unternehmen entscheiden, ob sie nicht zugunsten einer höheren Performance eventuelle Datenverluste verschmerzen können.

Cloud und Hochverfügbarkeit

Geht es darum, Daten im Notfall dynamisch verschieben zu können, kommt beim Thema Hochverfügbarkeit die Cloud ins Spiel. Hierbei sind aber wieder zwei Seiten zu betrachten. Ruf: „Zum einen liegen die bekannten Cloud-Vorteile vor, wie etwa mehr Flexibilität durch eine bedarfsgerechte Speicherplatznutzung, ein höherer Sicherheitsstandard, den sich Firmen aus dem Mittelstand so gar nicht leisten können, und die wegfallenden bzw. geringeren Wartungs- sowie Administrationsaufwände.“ Wenn das komplette Data Warehouse in der Cloud aufbereitet wird, etwa als Database-as-a-Service (DBaaS), werden bestenfalls nur die Deltas aus den operativen Prozessen in die Cloud übertragen, wodurch keine Performance-Probleme auftreten. Allerdings könnten im schlechtesten Fall beide DWHs asynchron auseinanderlaufen.

„Arbeitet die Firma jedoch mit einem lokal aufgebauten Data Warehouse, welches zunächst alle Daten verarbeitet, um dann das gebündelte Gesamtvolumen zur Absicherung in die Cloud zu übertragen, kann sich dies auf die Performance auswirken“, beschreibt Ruf. Übertragungsgeschwindigkeiten von einem Gigabyte pro Sekunde reichen bei einem DWH mit Massendaten-Transfer bis zu mehreren Terabyte pro Nacht nicht mehr aus. Außerhalb der von Providern gut abgedeckten Gebiete sind Gigabyte-Bandbreiten allerdings kaum bis gar nicht verfügbar.

Hochverfügbare DWH-Strategien verlangen genaue Planung

Bereits vor dem Aufbau eines Data Warehouse und einer entsprechenden IT-Infrastruktur sollte deshalb darauf geachtet werden, welche DWH-Strategie das Unternehmen verfolgen möchte. Die grundlegende Frage lautet dabei, wie sich das DWH-Architektur-Konzept so aufsetzen lässt, dass das lokale DWH und die DBaaS-Lösung synchron laufen, ohne durch einen Infrastrukturteil wie eine langsame Cloud-Anbindung ausgebremst zu werden.

Eine hybride Cloud ist beispielsweise dann sinnvoll, wenn ein asynchrones Modell verfolgt wird, bei dem sich mit einem Versatz von ein oder zwei Stunden arbeiten lässt. Damit lassen sich immer so viele Daten verschieben, wie die jeweilige Bandbreite erlaubt, während die User im On-Premise-DWH auf die aktuellen Daten zugreifen können. Wenn nur in der Cloud gearbeitet wird, besteht immer ein Zeitversatz-Problem. Teams, die an verschiedenen Standorten am gleichen Projekt arbeiten, müssen so mit unterschiedlich aktuellen Informationen arbeiten, was zu Fehlern führen kann.

Übergangsphase von On-Premise in die Cloud

Ruf: „Wir bei mip gehen davon aus, dass es künftig für Kunden einfacher wird, mit Echtzeitdaten aus ihren DWHs zu arbeiten. Das Hauptproblem bezüglich Datentransfers ist ja, dass die meisten Unternehmen ihre großen ERP-Systeme heute noch lokal installiert haben und auf dieser Ebene die operativen Daten erzeugen.“ Deshalb müssen sich Firmen beim Thema Data Warehouse überlegen, ob sie die Daten aus der ERP-Lösung in zwei physikalische, parallel laufende und damit hochverfügbare DWHs verschieben oder alternativ VMs bzw. eine zeitversetzt arbeitende hybride Cloud-Architektur nutzen – mitsamt Performance-Einbußen oder asynchronen Datensätzen.

„In Zukunft werden aber verstärkt auch die großen IT-Infrastrukturen über die Cloud betrieben“, führt Ruf weiter aus. „Infrastructure-as-a-Service oder Cloud-Systeme werden gerade von den ERP-Anbietern vorangetrieben.“ Dabei ‚zwingen‘ SAP Hana Cloud Platform, Microsoft Dynamics Nav etc. Unternehmen dazu, mit ihrer gesamten IT in die Cloud umzuziehen, da sie sonst keine Software-Unterstützung mehr erhalten. Dann werden sowohl operative Daten als auch DWHs in der Cloud liegen, also in großen Rechenzentren. Durch die kurzen Wege sowie den schnell erweiterbaren Speicherplatz verschwinden Performance-Probleme. Die jeweiligen finanziellen Möglichkeiten bestimmen dabei die Übertragungsgeschwindigkeit sowie die Ausfallsicherheit.

Diese Entwicklung wird von den Anbindungsmöglichkeiten der Unternehmen an die Cloud bzw. der Netzwerk-Topologie der Provider abhängen. An die Frage nach einem uneingeschränkten Datenzugriff schließt sich auch die Diskussion um den Ausbau des Glasfasernetzes in Deutschland an – andere Länder sind schon viel weiter. „Hier muss sich noch einiges tun, damit auch die Unternehmen aus Randgebieten besser angebunden werden“, so Ruf. „Denn eine Hochverfügbarkeit ist erst dann gegeben, wenn ich über zwei getrennte Internet-Leitungen von zwei unterschiedlichen Providern verfüge. Der berühmt-berüchtigte Bagger, die häufigste Ursache für einen Ausfall, lauert überall!“

Eine Infografik zum Thema unter: https://mip.de/hochverfuegbarkeit-im-data-warehouse/

27.03.2017 16:35

Klick zum Thema:

Das könnte auch Sie interessieren:

Öffentliche Beteiligung an aktueller Studie über EU Datensch...
Im Auftrag des österreichischen Bundesministeriums für Verkehr, Innovation und Technologie (bmvit) untersucht ein Forschungsteam bestehend aus cbased (Community-Innovation Systems), SBA Research, und der Wirtschaftsuniversität Wien (WU), wie sich...

Data Warehouse:

DataVirtuality launcht Pipes - einen kostengünstigen Cloud-S...
Leipzig, Deutschland, 14. Februar 2017 - DataVirtuality, eines der am schnellsten wachsenden deutschen Big Data Unternehmen, stellt heute seine neue Lösung Pipes vor. Innerhalb von 5 Minuten können Entwickler auf Daten aus mehr als 150...

Data Warehouse aus der Cloud - Vor- und Nachteile eines Data...
Die Themen Big Data und Cloud beschäftigen die Unternehmen in allen Branchen. Digitalisierung, Internet of Things, Social Media und cloudbasierte Geschäftsmodelle produzieren massenhaft Daten, die verwertbar und überall zugänglich sein sollen. Doch...

Data Warehouse: Basis für Big Data und neue Technologien
Relevante strukturierte und unstrukturierte Informationen in Echtzeit, kosteneffizient und flexibel über die Cloud erreichbar, jahrelang gespeichert, formatübergreifend und leicht verständlich – am besten in einer Lösung: Software-Entwickler,...

DWH:

Erstmalig in München: der b.telligent BI Kongress - BI, DWH,...
München 10.07.2014 – Erstmalig veranstaltet b.telligent – eine der führenden Unternehmens-beratungen für Business Intelligence (BI), CRM und E-Commerce – einen eigenen BI Kongress in München. Am Donnerstag, den 24.07.2014 treffen sich...

b.telligent erweitert Leistungs- und Produktportfolio um ein...
Mit Oracle-Hyperion-Experten baut b.telligent die Rolle als führende Business-Intelligence-Beratung weiter aus München, 15. Februar 2012 – Um den Kunden weiterhin die bestmöglichen Business-Intelligence-(BI-) Lösungen anzubieten, intensiviert...

Business-Intelligence-Experten teilen ihr Wissen
Besuchen Sie den b.telligent-arcplan-Blog München, 06. Septemer 2011 – Die im Juni geschlossene Partnerschaft von arcplan und b.telligent, einer der führenden Unternehmensberatungen für Business Intelligence (BI), hat das Netzwerk und...

Hochverfügbarkeit:

Happyware und Collax schließen Distributionspartnerschaft
Die Happyware Server Europe GmbH bietet ab sofort das gesamte Produktportfolio des Spezialisten für IT-Infrastruktur-Lösungen, der Collax GmbH, an. Der Distributor wird damit sowohl die Collax C-Server als auch die Collax V-Server vertreiben und...

Virtual Exchange 2013 - inklusive Hochverfügbarkeit
Flexibel und kostengünstig: Gemanagter Exchange Service 2013 von SpaceNet München, 10. März 2014. Als einer der ersten Anbieter in Deutschland stellt der Münchener Internet-Serviceprovider SpaceNet seinen Kunden Microsofts Exchange 2013 als...

Happyware und Infortrend schließen Distributionsvertrag
(Rosengarten 15.03.2013) Der vor den Toren Hamburgs ansässige Distributor Happyware ist ab sofort offizieller Infortrend Partner und wird die Infortrend Produktlinien in ganz Deutschland anbieten. So erweitert der Spezialist für Server und Storage...

NUFAM 2017: Erfolgreicher Messeauftritt
Startschuss zur (R)Evolution der Baubranche Vom 28.09. bis 01.10.2017 präsentierte die A1 Digital Deutschland GmbH ihr umfangreiches Portfolio der Telematik-Lösungen für Flottenbetreiber auf der NUFAM in Karlsruhe. In Halle 2 am Stand B217...

Maschinen vernetzen, Kosten reduzieren, effizienter arbeiten
A1 Digital bietet maßgeschneiderte Telematik-Lösungen für die Bauwirtschaft Die Digitalisierung hat Arbeitsprozesse weltweit verändert. Auch in der Baubranche entwickeln sich digitale Lösungen zu einem immer größer werdenden Wettbewerbsvorteil....

Λ nach oben

Stichwort-Suche:

Pressemitteilung von:


mip GmbH

mip - Management Informationspartner GmbH
Claus Werner

Fürstenrieder Straße 267
D-81377 München

Tel.: +49 89 58 93 94 0
Fax.: +49 89 58 93 94 50
E-Mail:

Die Verbindung aus betriebswirtschaftlicher Kompetenz, Prozess Know-how und IT Expertise. Von der Strategie bis zur Umsetzung oder auch nur für einzelne Projekte: Dabei bringt das Management-Team der mip seine unternehmerische...

mehr »

 

 


Hinweis: Um Ihnen ein optimales Nutzererlebnis zu bieten, verwenden wir Cookies. Durch die Nutzung dieser Webseite erklären Sie sich damit einverstanden.   Nachricht schließen   mehr info