Hortonworks, IBM, Red Hat 10.09.2018, 17:32 Uhr

Big-Data-Workloads für hybride Architekturen beschleunigen

Hortonworks, IBM und Red Hat haben eine Open-Hybrid-Architecture Initiative angekündigt. Die Kooperation hat das Ziel, ein gemeinsames Bereitstellungsmodell zu entwickeln, mit dem Big-Data-Workloads auf hybride Weise über lokale, Multi-Cloud- und Edge-Architekturen hinweg verarbeitet werden können.
In einer ersten Phase planen die Unternehmen die Zusammenarbeit bei der Optimierung von Hortonworks Data Platform, Hortonworks DataFlow, Hortonworks DataPlane und IBM Cloud Private for Data für den Einsatz auf Red Hat OpenShift, einer Enterprise-Container- und Kubernetes-Anwendungsplattform. Auf diese Weise können Anwender Big-Data-Workloads in Containern entwickeln und bereitstellen. Dies soll es Kunden letztlich einfacher machen, Daten-Applikationen über hybride Cloud-Implementierungen hinweg zu verwalten.
Im Zuge der digitalen Transformation verändert sich das Geschäftsmodell vieler Unternehmen. Befeuert durch die gesteigerte Fähigkeit neue Datentypen und bisher ungekannt große Datenmengen zu verarbeiten, vollziehen viele Firmen einen Wechsel hin zu hybriden Cloud-Umgebungen und dem Einsatz von containerbasierten Microservices.
Die Ankündigung erweitert die bereits bestehende Kooperation zwischen Hortonworks und IBM, die sich bisher der Unterstützung von Unternehmen bei datengestützter Entscheidungsfindung widmete. Die nun um Red Hat erweiterte Zusammenarbeit verfolgt das Ziel, große Datenmengen auf eine moderne und containerbasierte Grundlage zu stellen. Dies soll Kunden ermöglichen, Hortonworks- und IBM-Plattformen in einer hybriden Cloud-Umgebung auf Basis von Red Hat OpenShift einzusetzen. Die Initiative umfasst:
  • Hortonworks plant die Zertifizierung von Hortonworks Data Platform, Hortonworks DataFlow und Hortonworks DataPlane auf Red Hat OpenShift und erhält dafür im Anschluss das Siegel "Primed".
  • Darüber hinaus will Hortonworks HDP für eine Cloud-native Architektur innerhalb von On-Premise-Bereitstellungen optimieren, indem es die Berechnung und die Speicherung getrennt verwaltet und alle HDP- und HDF-Workloads containerisiert. Dadurch können Kunden leichter eine hybride Architektur für Big-Data-Applikationen und -Analysen einführen, und zwar mit gemeinsamen Sicherheits-Features, Data Governance und Funktionen.
  • IBM hat Anfang des Jahres angekündigt, die IBM Cloud Private Plattform and Middleware auf die OpenShift-Plattform auszuweiten. Hierzu hat es den Red-Hat-OpenShift-Zertifizierungsprozess für IBM Cloud Private for Data angestoßen und erwartet in der ersten Phase des Prozesses im September ebenfalls das "Primed"-Siegel. Dieser Schritt hilft einer großen Zahl von Entwicklern und Anwendern innerhalb der OpenShift-Community, zu der auch IBM- und Hortonworks-Kunden zählen. Ihnen wird dadurch ein schneller Zugriff auf solide Analyse-, Data-Science-, Machine-Learning-, Datenmanagement- und Governance-Funktionen geboten, der vollständig über hybride Cloudumgebungen hinweg unterstützt wird.
Zusätzlich zu den Herausforderungen des Wettbewerbs und dem schwierigen Umgang mit großen Datenmengen, kämpfen Unternehmen auch darum, Anwendungen, die einmal für die Public Cloud entwickelt wurden, hinter einer Firewall zu nutzen, um mehr Kontrolle, niedrigere Kosten, mehr Sicherheit und ein einfacheres Management zu erreichen. In einem kürzlich durchgeführten Cloud and AI Adoption Survey der Marktforscher von IDC gaben mehr als 80% der Befragten an, dass sie planen, im Laufe des nächsten Jahres Daten und Workloads von öffentlichen Cloud-Umgebungen auszulagern. Sie geben an, dass sie in Zukunft Daten und Workloads lieber hinter einer Firewall auf gehosteten private Clouds oder zu einem lokalen Standort verlagern oder zurückzuholen möchten, da die ursprünglichen Erwartungen an einen einzelnen Public Cloud-Anbieter nicht erfüllt wurden.
„Wenn diese Dynamik anhält, werden sie die Innovation verlangsamen und den Fortschritt der Unternehmen in Richtung Enterprise-KI behindern“, sagt Rob Thomas, General Manager bei IBM Analytics. „Der Weg zur KI erfordert eine solide Datenvorbereitung, -Analyse, Data-Science und -Governance. Diese Elemente müssen alle einfach skaliert und rationalisiert werden können, was durch containerisierte, Kubernetes-orchestrierte Umgebungen ermöglicht wird“
„Die Arbeit von Red Hat, IBM und Hortonworks zur Modernisierung von Big-Data-Workloads in Unternehmen durch Containerisierung zielt darauf ab, Kunden dabei zu unterstützen, die Vorteile der Agilität, Wirtschaftlichkeit und Größe einer hybriden Datenarchitektur zu nutzen“, sagt Rob Bearden, Chief Executive Officer von Hortonworks. „Die aus dieser Zusammenarbeit resultierenden Innovationen ermöglichen das nahtlose und vertrauenswürdige hybride Bereitstellungsmodell, das heute von Unternehmen benötigt wird, die sich mit einem signifikanten Wandel ihres Geschäftsmodells konfrontiert sehen".


Das könnte Sie auch interessieren