Big Data

Aus großen Datenbeständen relevante Informationen extrahieren

Big Data-Technologien sind für die speziellen Anforderungen großer Datenmengen geschaffen worden. Die treibenden Kräfte waren am Beginn dieser Entwicklung vor allem die großen Internetkonzerne Google, Amazon und Facebook, die einen Großteil zur Entwicklung beigetragen haben und ihre Software durch Open-Source-Projekte der Allgemeinheit zur Verfügung gestellt haben.

Welche Technologie ist wann sinnvoll?

Welche der verschiedenen Big Data-Technologien für Ihr Projekt eingesetzt werden sollte, hängt vom jeweiligen Anwendungsgebiet ab. Für den klassischen Data-Warehouse Anwendungsfall (ETL-Prozess) ist beispielsweise Apache Hadoop eine geeignete Lösung. Sollen allerdings Abfragen und Auswertungen online auf aktuellen Datenbeständen durchgeführt werden, sind spalten- und dokumentenorientierte Datenbanksysteme (NoSQL-Datenbanken) die bessere Wahl.

Die Kombination machts

In vielen Projekten hat sich die Kombination aus relationalen Datenbanken und BigData-Technologien als optimal erwiesen. Relationale Datenbanken bilden hervorragend betriebswirtschaftliche Zusammenhänge ab. BigData-Technologien ermöglichen die Filterung, Suche und Auswertungen großer Datenmengen. Somit können beispielsweise Reports oder Dashboard mit aktuellen Daten im Millisekundenbereich angezeigt werden.
Gerne bringen wir unsere Projekterfahrung auch in Ihr Projekt ein. Sprechen Sie uns gerne an.

Referenzprojekte

Explicatis hat zahlreiche Big Data-Projekte realisiert.

Sehen Sie sich diese in unserem Referenzprojekte-Bereich an.