Cloud-Computing und Virtualisierung – Cloud-Computing and Virtualization

Morgen geht’s zur

image

image

bin echt gespannt, was es Neues gibt in diesem Bereich – man kann ja kaum Schritt halten mit dieser Technologie. Ich werde ausführlich drüber berichten am kommenden Wochenende.

So long –  Ihre SSC-IT

Veröffentlicht mit WordPress für Android

Smart-Home

heute bin ich auf einer Messe, wo es unter anderem um das Thema ‚Smart-Home‘ geht. Ich werde berichten.

So long, Ihre SSC-IT

image

Today I will be on a Trade-Fair about Smart-Home and Home-Automation. I will inform you later.

So long, your SSC-IT

Veröffentlicht mit WordPress für Android

Speicher-Herausforderungen in einer virtualisierten Rechnerwelt (Teil 2)

Bevor ich zu dem angekündigten Problem komme, möchte ich erst nochmal den generellen Unterschied, sowie die daraus resultierende generellen Problemstellungen zwischen der traditionellen Server – Client – Architektur sowie der virtualisierten Architektur beleuchten.

Hierzu ein Bild:

image

Bild 1

Die traditionelle Architektur ist ganz einfach ‚gestrickt‘:
die physische Serverhardware ist mit Festplatten bestückt, auf denen Betriebssystem (Operating System) sowie die Programme (Applications) laufen.
Hat man nun eine umfangreichere IT-Landschaft, so hat man häufig mehrere Server, auf denen jeweils eine Applikation läuft (Mailserver, Datenbankserver, usw.); aber immer ist dem jeweiligen Server eine bestimmte Festplattenkapazität und -art zugewiesen ,entsprechend den Erfordernissen der Applikation sowie der Anzahl an zu beliefernde Desktop-Clients.

Hingegen läuft auf virtualisierten Architekturen ein Stück intelligente Software (Hypervisor genannt), welche die Ressourcen des physischen Servers in viele virtuelle Server aufteilt, VM’s genannt – virtuelle Maschinen oder einfach ausgedrückt: Software-Computer. Auf diesen Software-Computern laufen nun sowohl das Betriebssystem als auch die Applikationen.
Somit würden die vielen physischen Einzelserver der traditionellen Welt zu einem physischen Server mit vielen Software-Servern. Allerdings können logischerweise diese Software-Server keine physische Festplattenspeicher haben; ergo teilen sich alle virtuellen Instanzen den Speicher des physischen Mutterservers.  Uns hier beginnt jetzt unser Problem, welches ich stichwortartig beschreiben möchte.

1. Komplexes Management
im Gegensatz zu den virtuellen Maschinen läßt sich Storage nur erschwert managen. Virtuelle Instanzen lassen sich automatisiert dem entsprechenden Bedarf anpassen (z.B. erhöhte Datenmengen in der Vorweihnachtszeit), wogegen traditioneller Storage auch manuell nur bedingt anpassbar ist.

2. Unflexibel in der Ressourcennutzung und -zuteilung

3. Mangel an Möglichkeiten, die Kapazität wie benötigt anzupassen, wenn dann nur mittels zeitverschlingenden manuellen Maßnahmen und auch dann nur sehr begrenzt, selbst nach Aufstockung der Kapazitäten.

4. Mangelhafte Sichtbarkeit der Performance-Eigenschaften.

Daraus resultiert, daß mehr Daten auf den Weg zum Storage geschickt wird als der Storage verkraften kann.

image

Bild 2

Werden zum Beispiel aus einem physischen Server (wie in Bild 1) sechs virtuelle  (Software-)Server, so haben wir es mit der sechsfachen Datenmenge zu tun, darunter bestimmt auch viele Daten mehrfach.  Die Datenleitung zum Storage wird damit zum Mixer (und auch zum Flaschenhals) der gesamten Architektur (Bild 2) und, wie man auf dem Bild gleichfalls erkennen kann, völlig unabhängig wieviel Speicherkapazität nachgeschaltet ist.

Aber es gibt eine Lösung für dieses Problem, nämlich Application-aware-Storage oder auch VM-aware-Storage genannt. Hierüber werde ich im dritten Teil berichten.

By the way: nehmen sie an der Umfrage teil.

So long, Ihre SSC-IT

Seien Sie wachsam – bleiben Sie sicher

Veröffentlicht mit WordPress für Android