Kudu 09.10.2015, 00:00 Uhr

Neue Komponente für schnelle Analysen unter Apache Hadoop

Das Open-Source-Projekt schließt eine Lücke in der Big-Data-Lösung des Apache-Projekts.
Hadoop hat sich einen Rang und Namen im Bereich der Verarbeitung großer Datenmengen erkämpft. Mit der Komponente HBase etwa lassen sich große Mengen an Daten schnell ablegen oder kleine Abfragen extrem schnell ausführen.
Bislang fehlte allerdings die Möglichkeit, Daten sofort zu analysieren. Wer das benötigte, musste selbst eine Lösung aus den Komponenten von Apache Hadoop basteln - eine sogenannte hybride Architektur.
Kudu von Cloudera soll diese Lücke jetzt füllen. Die Komponente soll schnelles Ablegen bei wahlfreiem Zugriff auf Daten ermöglichen. Kudu will den Prozessor bestmöglich ausnützen. Auch das Update von Daten ohne die Notwendigkeit, große Datenmengen zu verschieben, ist ein Feature.
Kudu bietet dem Anwender Tabellen, wie man sie von relationalen Datenbanken her kennt. Diese sind über ein Schema im Aufbau definiert und verfügen über einen Primärschlüssel, der sich aus mehreren Spalten zusammensetzen kann. Auf diese Weise bietet Kudu schnellen wahlfreien Zugriff und Analysen mit vielen Daten.
Zeitgleich stellte Cloudera den RecordService vor - eine Sicherheitsschicht im Hadoop Ökosystem. Damit lassen sich über die gesamte Hadoop-Plattform rollenbasiert Zugriffsbeschränkungen durchsetzen.



Das könnte Sie auch interessieren