Hybrid-Cloud-Computing

Dell EMC virtualisiert Rechenzentren

Anzeige
Als Reaktion auf komplexe Strukturen und aufwendige Verwaltung planen viele Unternehmen, ihre IT in die Cloud zu verlagern. Bei der Evaluierung stehen sie jedoch bald vor der Frage, welche Workloads sie im eigenen Rechenzentrum belassen, welche sie in die Cloud verlagern und wie sie die dynamische Skalierung zwischen beiden optimal nutzen.

Christian Winterfeldt ist Director Sales Modern Datacenter (MDC), Dell EMC Deutschland, Schwalbach/Taunus

Inhaltsverzeichnis

1. Betriebsmodell 1: virtualisieren mit VMware
2. Betriebsmodell 2: Microsoft Azure einsetzen
3. Betriebsmodell 3: agile Softwareentwicklung nutzen
4. Betriebsmodell 4: Container und PaaS-Umgebungen

 

Um flexibel auf neue Anforderungen reagieren zu können, evaluieren Unternehmen aller Größen den Einsatz von Cloud-Technologien und -Architekturen. Auf dem Weg dahin gilt es aber zunächst einmal, die passenden Fundamente zu legen. Dazu müssen Unternehmen die IT-Infrastruktur ihrer Rechenzentren modernisieren und standardisieren: Server-, Storage- und am besten auch die Netzwerkressourcen sollten virtualisiert werden, damit die IT sie den Fachabteilungen als Services im eigenen Rechenzentrum oder aus der Public Cloud bereitstellen kann. Durch die Virtualisierung gehen Unternehmen den ersten Schritt hin zu einem Betriebsmodell wie es auch die Cloud-Provider nutzen.

Betriebsmodell 1: virtualisieren mit VMware

Die erste Variante dieses Betriebsmodells besteht darin, Virtualisierungssoftware von VMware einzusetzen, wie sie in den meisten Unternehmen bereits genutzt wird. Die Server-Umgebung ist mit VMware vSphere, die Storage-Umgebung mit vSAN und das Netzwerk mit NSX virtualisiert; zusammengefasst sind diese Virtualisierungstechnologien in VMware Cloud Foundation. Zur automatisierten Verwaltung der Ressourcen des Software-defined Data Center (SDDC) kommt SDDC Manager zum Einsatz. Damit lassen sich diese essentiellen Komponenten standardisiert ausrollen und vor allem über die Zeit von einem zum nächsten ‚known good state‘ updaten. Diese Standardisierung erlaubt es Unternehmen, virtuelle Maschinen, bestehend aus Server, Storage und Netzwerk, sowohl im eigenen Rechenzentrum als auch in der Cloud bereitzustellen. Ein solches Standard Operating-Model lässt sich mit einer Hybrid-Cloud-Plattform weiter optimieren: Administratoren verwalten damit Netzwerk, Storage und Server, ergänzen oder deaktivieren Ressourcen, verwenden Charge-Back-Funktionen und nutzen Möglichkeiten, um virtuelle Maschinen oder Workload Domains inklusive Compute-, Storage- und Netzwerkressourcen in die Cloud zu verlagern oder auch wieder ins Rechenzentrum zurückzuholen. Dieses Betriebsmodell nutzen vor allem Unternehmen, die bereits VMware verwenden.

Betriebsmodell 2: Microsoft Azure einsetzen

Auch bei Microsoft Azure gibt es die Möglichkeit, IT-Ressourcen sowohl im eigenen Rechenzentrum als auch in der Public Cloud zu betreiben. Im Unterschied zu VMware stammt Azure aus der Cloud und hielt erst später in Form von Azure Stack Einzug in die Rechenzentren von Unternehmen. Eine Reihe von Unternehmen nutzen für bestimmte Anwendungsszenarien Azure und parallel dazu für andere VMware – sofern sie bereits über die entsprechenden Enterprise-Lizenzen verfügen. Der Vorteil für Unternehmen: Sie sind nicht an einen einzelnen Hersteller gebunden und können sehr flexibel Daten und Applikationen dort vorhalten, wo es für sie am günstigsten ist, neue Software zu entwickeln und Anwendungen zu betreiben.

Betriebsmodell 3: agile Softwareentwicklung nutzen

Das dritte Betriebsmodell findet sich dort, wo Entwickler in den Unternehmen nicht mehr auf klassische Drei-Schichten-Architektur aufsetzen müssen. Hier erstellen Entwickler beispielsweise Apps, indem sie mit Schnittstellen für Anwendungsprogrammierung (Application Programming Interface, API) einer Public Cloud wie AWS oder der Google Cloud Platform arbeiten. Oft entstehen dabei in kurzer Zeit 20 bis 30 Geschäftsideen beziehungsweise Apps, von denen aber nur zwei bis drei bis zur Umsetzung weiterentwickelt werden. Diese werden im Laufe der Zeit sehr groß, das heißt viele Benutzer greifen im Web darauf zu und sie produzieren große Datenmengen. Dazu kommt, dass sich die frei verfügbaren Cloud-APIs sehr schnell weiterentwickeln, was im Umkehrschluss bedeutet, dass Entwickler ihre Apps ständig an diese APIs anpassen und optimieren müssen. Mit der Zeit zeigt sich daher oft, dass der Betrieb der unternehmensintern genutzten Apps in der Cloud sehr kostspielig wird; sie beanspruchen viel Prozessorzeit und Speicherplatz und werden zu teuer für den Cloud-Betrieb. So entsteht rasch der Wunsch, die mit herstellerspezifischen Cloud-APIs erstellten Apps ins eigene Rechenzentrum umzuziehen. Das geht nur, wenn diese Apps komplett neu geschrieben werden, da die Cloud-APIs im Unternehmensrechenzentrum nicht zur Verfügung stehen.

Betriebsmodell 4: Container und PaaS-Umgebungen

Eine Alternative dazu sind Platform-as-a-Service (PaaS)-Umgebungen wie Pivotal Cloud Foundry. Damit ist es möglich, Anwendungen mit Cloud-APIs zu entwickeln, als Container zu verpacken und diese dann abhängig von Bedarf, Latenz- und Sicherheitsanforderungen sowie Workloads im eigenen Rechenzentrum oder in einer Public Cloud zu betreiben. Gründe dafür können sein, dass ein Unternehmen bestimmte Microservices sowie Kunden- und Materialstammdaten im eigenen Rechenzentrum behalten will. Die Voraussetzung dafür ist, dass die Container-Umgebung flexibel in die Public Cloud und wieder zurück verlagert werden kann. Mit einer PaaS-Umgebung kann die Entwicklung einer neuen Anwendung in der Cloud sehr schnell umgesetzt werden. Das zeigt exemplarisch das folgende Beispiel: Im Auftrag des CIO soll kurzfristig eine IoT-Applikation entstehen und die Anwendung soll innerhalb von zwei bis drei Tagen fertig sein. Er beauftragt damit ein Team von 25 Entwicklern, die mit Cloud Foundry arbeiten. Während der Entwicklung in der Cloud stellt das Team fest, dass die Anwendung sehr groß wird. Deshalb wird sie ins eigene Rechenzentrum geholt. Der vorhandene Code kann auf der gleichen Plattform on-premise laufen. Um diese Plattform bereitzustellen, gibt es zwei Möglichkeiten: Das Unternehmen setzt die IT-Infrastruktur in Form von Servern, Storage und Netzwerk nach dem Baukastenprinzip zusammen oder nutzt eine Appliance wie Dell EMC VxRail mit VMware Cloud Foundation, die alle benötigen Komponenten einschließlich der Cloud-Plattform enthält. Als Hybrid-Cloud-Plattform kann VMware Cloud Foundation, Microsoft Azure Stack oder Pivotal Cloud Foundry zum Einsatz kommen. Der Vorteil einer Appliance-Lösung: Sie ist mit diesen Hybrid-Cloud-Plattformen getestet und dafür zertifiziert.

Bei VMware können Unternehmen VMware vCenter Server oder gleich die gesamte vCloud Suite zur Verwaltung der virtuellen Infrastruktur nutzen. Im laufenden Betrieb können sie dann ganze Workload Domains oder auch nur einzelne virtuelle Maschinen in eine AWS-Cloud mit den gleichen VMware-Tools verschieben – oder bei Bedarf wieder zurückholen. Bei Microsoft Azure ist das etwas anders. Hier ist das Hin- und Herschieben zwischen Cloud- und On-Premise-Umgebung nicht möglich; die IT muss dazu lokal eine neue Instanz von Microsoft Azure Stack starten. Das Pivotal Operation Model nutzt einen Software Layer, genauer einen PaaS Layer, der hardwareunabhängig entweder in der Cloud oder on-premise laufen kann. Damit lässt sich der Code unverändert, beliebig einsetzen – selbst in einem Multi-Cloud-Modell auf mehreren Public Clouds. Damit ist auch eine hohe Skalierbarkeit sichergestellt. Eine hohe Flexibilität erzielen Unternehmen, wenn sie in der Cloud starten und nicht auf proprietäre APIs von Cloud-Anbietern setzen, sondern mit einem Software Layer arbeiten, der es ermöglicht den gleichen Code in mehreren Public Clouds und im eigenen Rechenzentrum zu betreiben. In der neuen Welt der agilen Entwicklung und der 12-Faktor-Apps nutzen Unternehmen Microservices und Container, um immer mehr Applikationen in eine Hybrid- oder gar eine hochskalierbare Multi-Cloud-Umgebung zu bringen. jg

www.dellemc.com/de-de

Details zum Hybrid-Cloud-Computing von Dell EMC:

hier.pro/moDpo

Hannover Messe 2019: Halle 6, Stand A54

Anzeige

Video aktuell

Basierend auf dem brandneuen Standard Wireless-IO-Link zeigt Timo Mauderer, Leiter Vorentwicklung bei der Zimmer Group den intelligenten Roboterflansch, der kabelgebundene mechatronische Greifer mit wireless-IO-Link verknüpft und somit eine externe Roboterverkabelung in vielen Fällen überflüssig macht.

Aktuelle Ausgabe

Newsletter

Unsere Dosis Wissensvorsprung für Sie. Jetzt kostenlos abonnieren!

Top-Thema Spannvorrichtungen

Spannvorrichtungen

Alles über Spannvorrichtungen und welches Einsparungspotenzial sie bieten

Top-Thema Schaltschränke

Alle Infos über den Schaltschrankbau mit seinen Komponenten, Geräten und deren Verdrahtung

Kalender

Aktuelle Termine für Konstrukteure

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Hier finden Sie aktuelle Whitepaper
Anzeige

Industrie.de Infoservice

Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de