Big Data

Unter dem Schlagwort „Big Data“ verbergen sich die unterschiedlichsten Definitionsvarianten, die jedoch eines gemeinsam haben. Es dreht sich bei Big Data um die Verarbeitung riesiger Datenmengen, für die die herkömmlichen Softwarelösungen und Methoden nicht mehr ausreichend, quasi überfordert sind. Wir sprechen hier von Daten in heterogener Vielfalt – die sowohl in strukturierter als auch unstrukturierter Art verarbeitet werden sollen.

Die neue Dimension in der Datenverarbeitung – wer davon profitiert

Es ist – solange es kein einheitliches Verständnis gibt – der hilfreiche Weg, Big Data anhand von Beispielen zu beschreiben. Es wäre aber falsch zu glauben, dass nur Netzanwender wie Google, Amazon und Co. aus Big Data Nutzen ziehen könnten. Überall wo ungeheure Mengen an Daten unterschiedlicher Struktur gesammelt und ausgewertet werden sollen und das in möglichst kurzer Zeit, ergibt sich ein Big Data Anwendungsgebiet: Das können Messdaten, Bilder, pdfs, Daten aus dem Web, aus ERP- oder CRM-Systemen sein, um nur einige zu nennen.

Auch in der Behandlung von Frühgeborenen helfen Big-Data-Technologien: Am Beispiel der Intensivabteilung des Hospital for Sick Children in Toronto. Carolyn McGregor sammelte im Rahmen des Projekts Artemis, Millionen an Daten von Neugeborenen, um zu ergründen, ob es in der Frage der Sterblichkeit von Frühgeborenen infolge von Infektionen, auffällige Muster gäbe. Sie konnte herausfinden, dass sich die Vitalfunktionen 24 Stunden vor der Infizierung stabilisieren und kurz vor der Infizierung die Herzbasisfrequenz ansteigt. Diese Erkenntnis aus den Millionen von Daten, hilft heute eine umfassende Einschätzung eines Neugeborenen zu bekommen und ermöglicht dem behandelnden Ärzten somit rechtzeitig Maßnahmen einzuleiten. Die Sterblichkeit konnte signifikant reduziert werden. Quelle

Eines von vielen Beispielen von einer erfolgreichen Big-Data-Anwendung.

Hadoop – was der kleine gelbe Elefant kann: Das Zusammenspiel

Der kleine gelbe Elefant steht für Hadoop und ist der hilfreiche Partner. Hadoop ist ein Framework, das es schafft, große Datenmengen zu verteilen, zu speichern und zu berechnen. Der große Vorteil, der sich aus dieser Verteilung ergibt, ist, dass enorme Datenmengen mit verteilten Dateisystemen parallel verarbeitet werden können. Die hohe Geschwindigkeit wird dadurch erreicht, dass Hadoop den Programmcode auf die entsprechenden Server eines Hadoop-Clusters verteilt, und die Daten nicht mehr zur Bearbeitung übertragen werden müssen. Einzig die Ergebnisse werden zusammengeführt und können dann ausgewertet werden. 

Im Verbund mit Cognos – das Potenzial der Superlative

Die gute Nachricht für alle, die sich schon Gedanken über Ihre implementierte Business Intelligence-Lösung gemacht haben: Big Data, respektive Hadoop ist die perfekte Daten-Basis für ein Zusammenspiel mit Cognos. Die Cognos-Plattform unterstützt Big SQL, Apache Hive und Impala, was die Komptabilität mit führenden Hadoop-Lösungen ermöglicht.

Besonders Fachabteilungen wie Finanz, Controlling, Verkauf und Marketing wie auch diverse Arbeitsprozesse innerhalb der unterschiedlichsten Abteilungen profitieren aus der wettbewerbsrelevanten Ergebnisgewinnung durch den Cognos-Hadoop-Verbund.

Zu Guter Letzt – der Kostenfaktor

Auf den Geldbeutel der neuen Big Data Nutzer kommen gute Zeiten zu: Im Vergleich zu klassischen IT-Infrastrukturen ist der monetäre Einsatz bei Big Data mit Hadoop geringer.

Diese Kostenersparnis ergibt sich sowohl software- als auch hardwareseitig: Der Datenhaltungscontainer von Hadoop begnügt sich je nach Anforderung mit einer eklatant billigeren Hardware ohne Bindung an einen bestimmten Hersteller. Hadoop ist als Open-Source-Software frei verfügbar aber auch als Hersteller-Distribution verfügbar  (Quelle: BITKOM, Big-Data-Technologien – Wissen für Entscheider, 2013)

 

Wir beraten Sie gerne über den für Sie optimalen Einsatz von Big Data und den Einsatz der für Sie richtigen Lösungen: Kontakt