Cloud-Computing und Virtualisierung – Cloud-Computing and Virtualization

Morgen geht’s zur

image

image

bin echt gespannt, was es Neues gibt in diesem Bereich – man kann ja kaum Schritt halten mit dieser Technologie. Ich werde ausführlich drüber berichten am kommenden Wochenende.

So long –  Ihre SSC-IT

Veröffentlicht mit WordPress für Android

Smart-Home

heute bin ich auf einer Messe, wo es unter anderem um das Thema ‚Smart-Home‘ geht. Ich werde berichten.

So long, Ihre SSC-IT

image

Today I will be on a Trade-Fair about Smart-Home and Home-Automation. I will inform you later.

So long, your SSC-IT

Veröffentlicht mit WordPress für Android

Speicher-Herausforderungen in einer virtualisierten Rechnerwelt (Teil 2)

Bevor ich zu dem angekündigten Problem komme, möchte ich erst nochmal den generellen Unterschied, sowie die daraus resultierende generellen Problemstellungen zwischen der traditionellen Server – Client – Architektur sowie der virtualisierten Architektur beleuchten.

Hierzu ein Bild:

image

Bild 1

Die traditionelle Architektur ist ganz einfach ‚gestrickt‘:
die physische Serverhardware ist mit Festplatten bestückt, auf denen Betriebssystem (Operating System) sowie die Programme (Applications) laufen.
Hat man nun eine umfangreichere IT-Landschaft, so hat man häufig mehrere Server, auf denen jeweils eine Applikation läuft (Mailserver, Datenbankserver, usw.); aber immer ist dem jeweiligen Server eine bestimmte Festplattenkapazität und -art zugewiesen ,entsprechend den Erfordernissen der Applikation sowie der Anzahl an zu beliefernde Desktop-Clients.

Hingegen läuft auf virtualisierten Architekturen ein Stück intelligente Software (Hypervisor genannt), welche die Ressourcen des physischen Servers in viele virtuelle Server aufteilt, VM’s genannt – virtuelle Maschinen oder einfach ausgedrückt: Software-Computer. Auf diesen Software-Computern laufen nun sowohl das Betriebssystem als auch die Applikationen.
Somit würden die vielen physischen Einzelserver der traditionellen Welt zu einem physischen Server mit vielen Software-Servern. Allerdings können logischerweise diese Software-Server keine physische Festplattenspeicher haben; ergo teilen sich alle virtuellen Instanzen den Speicher des physischen Mutterservers.  Uns hier beginnt jetzt unser Problem, welches ich stichwortartig beschreiben möchte.

1. Komplexes Management
im Gegensatz zu den virtuellen Maschinen läßt sich Storage nur erschwert managen. Virtuelle Instanzen lassen sich automatisiert dem entsprechenden Bedarf anpassen (z.B. erhöhte Datenmengen in der Vorweihnachtszeit), wogegen traditioneller Storage auch manuell nur bedingt anpassbar ist.

2. Unflexibel in der Ressourcennutzung und -zuteilung

3. Mangel an Möglichkeiten, die Kapazität wie benötigt anzupassen, wenn dann nur mittels zeitverschlingenden manuellen Maßnahmen und auch dann nur sehr begrenzt, selbst nach Aufstockung der Kapazitäten.

4. Mangelhafte Sichtbarkeit der Performance-Eigenschaften.

Daraus resultiert, daß mehr Daten auf den Weg zum Storage geschickt wird als der Storage verkraften kann.

image

Bild 2

Werden zum Beispiel aus einem physischen Server (wie in Bild 1) sechs virtuelle  (Software-)Server, so haben wir es mit der sechsfachen Datenmenge zu tun, darunter bestimmt auch viele Daten mehrfach.  Die Datenleitung zum Storage wird damit zum Mixer (und auch zum Flaschenhals) der gesamten Architektur (Bild 2) und, wie man auf dem Bild gleichfalls erkennen kann, völlig unabhängig wieviel Speicherkapazität nachgeschaltet ist.

Aber es gibt eine Lösung für dieses Problem, nämlich Application-aware-Storage oder auch VM-aware-Storage genannt. Hierüber werde ich im dritten Teil berichten.

By the way: nehmen sie an der Umfrage teil.

So long, Ihre SSC-IT

Seien Sie wachsam – bleiben Sie sicher

Veröffentlicht mit WordPress für Android

Speicher-Herausforderungen in einer virtualisierten Rechnerwelt (Teil 1)

Die IT-Welt wird zunehmend virtualisiert. Gemäß neueren Studien und Erhebungen sind bei einem Drittel der bereits mehr als die Hälfte der x86-Server virtualisiert bei stark steigender Tendenz binnen der nächsten Jahre.
(http://www.esg-global.com/research-reports/research-report-2013-it-spending-intentiins-survey/)

Warum ist das so:
Virtualisierung hat den großen Vorteil unvergleichlichen Flexibilität, Schnelligkeit, Skalierbarkeit und Verfügbarkeit, sowie Performance und Managebarkeit auch für geschäftskritische Anwendungen.
Gleichzeitig mit diesen großen Vorteil gibt es aber auch erheblich mehr Arbeit für die Speichersysteme einher; vorallem bei Verwendung von traditionellen Universalspeichersystemen wie drehenden Festplatten.
Das hieraus resultierende Mißverhältnis zwischen der Kapazität des traditionellen Speichers und den Notwendigkeiten von virtuellen IT-Umgebungen gilt es zu lösen.

Schauen wir uns zum besseren Verständnis erst einmal die Gegebenheiten der ‚alten‘ IT-Welt an:
Wir hatten einen oder mehrere Server, sowie eine bestimmte Anzahl an Desktop-PCs. Die Anwendungen (Programme) lagen auf dem Server und dem Desktop, inkl. den dafür notwendigen Festplatten. Da die Anzahl der Programme begrenzt war und der Speicher sehr applikationsnah war, reichte die Geschwindigkeit der Festplatten für die Datenmenge aus.
In der virtualisierten Welt liegen nun auf einem physischen Server mehrere (je nach Unternehmensgröße sehr viele) virtualisierte Server, sogenannte VMs (virtuelle Maschinen). Hieraus erfolgt logischerweise ein erheblich höheres Datenvolumen und zusätzlich, wegen der fehlenden Nähe zum Benutzer-Desktop auch eine mitunter nicht zu vernachlässigbaren ‚Reisezeit‘ der Daten vom Desktop zum Server. Die Problemstellung ist also nicht nur der deutlich erhöhte Datenstrom, sondern auch die, durch die ‚Reisezeit‘ der Daten (Desktop – Server und zurück) hervorgerufene Zeitverzögerung (Latenzzeit), welches sich im langsamen arbeiten der Programme darstellt.
Virtualisierung hat einerseits die Managebarkeit der Systeme deutlich vereinfacht, gleichzeitig aber das Speichermanagement verkompliziert, da der traditionelle Speicher nicht dafür entwickelt wurde. Daher sind die Arbeitsgänge komplex, stark fehlerbehaftet, sowie zeitfressend für die IT-Administratoren. Neuere Studien zeigen, daß die IT-Mannschaft etwa zwei Drittel ihrer Arbeitszeit für ineffektives Management verschwenden und nur noch ein Drittel in wichtige strategische Vorhaben, welche das Unternehmen weiter treibt.

Was können wir also tun, um diese Probleme zu lösen:
Manche Unternehmen rüsten beständig mit Festplatten auf oder verlegen datenintensive Arbeiten in ruhigere Zeiten außerhalb der Business-Rush-Hour, also meistens nachts oder am Wochenende, welches zusätzliche teure Arbeitsentgelte mit sich bringt, man könnte auch sagen: wir treiben den Teufel mit dem Beelzebub aus; unterm Strich ineffektiv, teuer ohne wirklichen Nutzen.
Andere Unternehmen rüsten mit sehr teurem Flash-Speicher auf, wodurch der Arbeitsfluß zwar annehmbar wird, allerdings zu einem signifikant hohen Preis, aber auch unberechenbar in Bezug auf das sich immer schneller drehende Karussell der Virtualisierung.
Wieder andere versuchen mit Adaptierung von Flash-Speicher zum traditionellen Speicher die Kosten zu drücken (Hybridsystem), bzw. im Bereich des budgetierten Rahmens zu halten.

Allen diesen Versuchen ist aber eines gemein:
– teure Überprovisionierung
– nicht notwendige Komplexität
– Notwendigkeit von (zusätzlichen) Administratoren zum manuellen managen.

Je komplexer ein System sich darstellt, umso mehr leidet die Datensicherheit darunter und desto mehr verschlechtern sich die betriebswirtschaftlichen Kernkennzahlen TCO (Total Cost of Ownership) und ROI (Return on Invest).

Aber es gibt eine smarte, einfache und kosteneffiziente Lösung dieses Problems —> VM-aware-storage oder application-aware-storage.
Diese Lösung werde ich euch im nächsten Post näher vorstellen.

Sollten Sie bereits jetzt irgendwelche Fragen haben, benutzen Sie bitte die Kommentarfunktion oder rufen Sie uns an.

Seien Sie vorsichtig – bleiben Sie sicher

So long, Ihre SSC-IT

Veröffentlicht mit WordPress für Android