„IT ist nicht mehr homogen“ – Interview mit Rainer Kaese von Toshiba

Rainer Kaese ist Senior Manager im Business Development für Enterprise Festplatten bei Toshiba Electronics Europe. Im exklusiven Interview mit Data & Storage Xpert (ehemals cloudtech-xpert.com) spricht Kaese über das Ende der individuellen Datenspeicherung und den Siegeszug von Software Defined Architecture. 

„IT ist nicht mehr homogen“ – Interview mit Rainer Kaese von Toshiba

Rainer Kaese ist Senior Manager im Business Development für Enterprise Festplatten bei Toshiba Electronics Europe. Toshiba ist einer der verbliebenen drei Festplattenhersteller und konzentriert sich auf Speichermedien für Laptop, Desktop, Computer und Enterprise. Im exklusiven Interview mit Data & Storage Xpert (ehemals cloudtech-xpert.com) spricht Kaese über das Ende der individuellen Datenspeicherung und den Siegeszug von Software Defined Architecture. 

 

Herr Kaese, überall entstehen Datenzentren, das Hosting in der Cloud wird zur Selbstverständlichkeit, virtuelle Desktops werden immer häufiger eingesetzt. Ist das Zeitalter der individuellen Datenspeicherung am Ende und wir erleben den Abgesang auf die individuelle Festplatte?

KAESE: Die klare Antwort lautet Ja und Nein. Die individuelle Festplatte zum Herumtragen – wie im ersten iPod vor 15 Jahren – wurde abgelöst von Flash-Speichern. Viele mobilen Geräte, insbesondere Business-Laptops, sind heute halbleiterbasiert. Individuelle Festplatten gibt es im Business-Sektor für mobile Geräte nicht mehr – lediglich in günstigen Verbrauchersegmenten gibt es das noch. Hier werden oft noch PCs mit 1 TB-Festplatten ausgeliefert.

Das liegt daran, dass IT generell nicht homogen ist. Gerade heute mit BYOD, Zeitarbeit, Co-working und anderen Organisationsformen wird das Arbeitsumfeld immer uneinheitlicher. Insofern funktioniert der Ansatz eines virtuellen Desktops in Großkonzernen teilweise gut. Doch dazu gibt es saisonale Kräfte, Mitarbeiter, die vom Strand aus arbeiten, und natürlich kleine und mittlere Betriebe. Überall dort würde eine rein virtuelle Desktop-Infrastruktur nicht funktionieren. Diese Inhomogenität fordert also, dass wir extrem flexibel bleiben. Dazu gehören lokale Speicherung, Private und Public Cloud. Diese sind eng miteinander verzahnt. 

 

New Work und mobiles Arbeiten sind sicherlich für viele Unternehmen bereits gelebte Wirklichkeit. Dennoch gibt es nicht wenige, deren Mitarbeiter noch sehr präsenzorientiert im Büro arbeiten. Wie löst man hier die Datenspeicherung am Endpunkt?

KAESE: Idealerweise tatsächlich über einen virtuellen Desktop – ohne individuelle Festplatte. Viele haben trotzdem noch eine eigene, weil das Verständnis noch gar nicht so weit ist. In einem homogenen Unternehmen mit Präsenzarbeitsplätzen sind Virtualisierung und Private Cloud – als großer Trend – die Ideallösung. Wenn überhaupt gibt es nur noch kleine Laufwerke zum Booten in Endgeräten – meist SSDs.

Doch auch mit Virtual Desktops müssen die Daten immer noch gespeichert werden. Hier geht es vor allem um Enterprise Storage Festplatten, auf denen die Daten konsolidiert gespeichert werden. Egal, ob Private Cloud, Public Cloud oder im firmeneigenen Rechenzentrum. Darauf konzentrieren wir uns bei Toshiba. 

 

Wie genau funktioniert die Umstellung auf virtuelle Desktops und die dazugehörige Datenspeicherung, wenn das Unternehmen sich dafür entscheidet, die Speicherung selbst an zentraler Stelle zu übernehmen?

KAESE: Typischerweise wird vorab ein Proof of Concept aufgrund verschiedener Anforderungen benötigt: Wie schnell muss morgens ein Boot Storm abgearbeitet werden? Wie hoch darf die maximale Latenz sein? Welche Kapazitätsanforderungen werden heute, und in Zukunft an den Storage gestellt?

Auf jeden Fall benötigt man einen SSD-Zwischenspeicher und große Storage-Arrays. Letztere stellen den virtuellen Desktops die entsprechenden virtuellen Festplatten zur Verfügung. Das sind dann entweder – in kleinen und mittleren Unternehmen – Raid-Systeme mit 12 bis 36 Platten. Mit jeweils bis zu 14 TB Speicher erreicht man so fast ein halbes Petabyte. Wird die Infrastruktur größer, geht es typischerweise in Scale-Up Architektur, wie z.B. ZFS. Hier hat man kein Hardware-Raid, sondern eine Software Defined  Architecture. Wächst das Unternehmen weiter, kann man Anlagen einfach dazustecken. Die Daten verteilen sich dann von selbst weiter. Das eignet sich für Firmen, die ihren Speicherbedarf heute und in drei Jahren gut abschätzen können. 

Zusätzlich gibt es heute einen großen Anteil an Firmen, die ihren Speicherbedarf noch gar nicht kennen können – wie z.B. Web-basierte Geschäftmodelle vor einigen Jahren. Für solche Modelle braucht man Scale-Out-Architekturen. Hier werden die Festplatten nicht mehr über eine lokale Festplattenverkabelung an einen gemanagten Server gehängt, sondern funktionieren mit einzelnen Servern und Storage-Konsolidierungen im internen Netzwerk. Mit Scale-Out kann man also ortsunabhängig in jede Richtung skalieren. 

 

Sie haben bereits verschiedene Möglichkeiten zur Vermeidung von Überlastung in der Datenspeicherung aufgezeigt. Welche anderen Stolpersteine sehen Sie noch im Festplatten- und Rechenzentrumsmanagement?

KAESE: Da fällt mir spontan insbesondere ein Stolperstein ein: Bisher ging man davon aus, dass Festplatten ausfallen. Die Ausfallwahrscheinlichkeit ist heute jedoch sehr gering, nichtsdestotrotz kann es aber passieren. Fällt in einem Raid-System eine Festplatte aus, gibt es eine Warnung, woraufhin die Platte ersetzt wird.

Schwierig wird es bei einem Raid-Rebuild, denn die Leistung des Arrays sinkt ab. Wenn die zweite Festplatte ausfällt, hat man hoffentlich ein entsprechend stabiles System, das diese Last auffängt. Bei älteren Arrays fällt aber gerade mit der ersten Festplatte oft noch eine weitere aus. Mit etwas Pech fällt noch eine dritte aus – und dann hat man ein echtes Problem. Mit kleinen Festplatten ist das ein Zustand von mehreren Stunden. Bei bis zu 16 TB-Festplatten dauert es während regulärer Business Operations bis hin zu Wochen, bis alle Daten gespiegelt bzw. wieder herstellt worden sind. Das ist nicht mehr tragbar.

Deswegen entwickelt sich der Markt hin zu Software-Defined-Ansätzen. Hier muss keine ganze Festplatte wiederhergestellt werden, sondern nur die tatsächlich vorhandenen Daten. Bei einem Raid-System werden auch Leerstellen auf der Fesplatte mit aufgesetzt. Ist bei einem Software-Defined-Ansatz nur ¼ der Kapazität erreicht, wird allerdings nur dieses Viertel neu geschrieben. Zusätzlich hat man hier mehr Festplatten und mehr Redundanzen. Ein Festplattenausfall ist deswegen bei Software Defined längst nicht mehr so kritisch. Und vermutlich wird es zukünftig so sein, dass ein Festplattenausfall egal ist. Gerade bei Scale-Out-Systemen vergrößert sich der Datenbedarf sowieso ständig, sodass man nur noch weitere Festplatten an das System anschließen wird. Defekte Platten können dann einfach stecken bleiben. 

 

Sie haben gerade die zahlreichen Vorteile von Software Defined Storage aufgezeigt. Da drängt sich eine Frage auf: Wie sieht es mit Nachteilen aus?

KAESE: Das haben wir auf dem CloudFest dieses Jahr veranschaulicht: Wir hatten alle drei Ansätze nebeneinander aufgesetzt. Ein Server mit einem lokalen Raid, einer mit einem ZFS-basierten Scale-Up-System und ein CEPH-basiertes Scale-Out-System. Die Software-Defined-Ansätze kamen von Partnern, die die gleichen Ressourcen wie im Raid-System bekamen. In der Theorie müssten sie damit mindestens genauso schnell sein. Daran sind sie auch fast gekommen – der Rest lag am Management Overhead bei Software Defined im Bereich von 10-30 % der Transferleistung. 

Wenn alle drei Ansätze zur Verfügung stehen, nimmt man natürlich den schnellsten, das lokale Hardware-Raid. Dieses eignet sich jedoch für größere Cloud-Anwendungen und Rechenzentren ab etwa 80 bis 100 TB nicht mehr. Ab dann gibt es Probleme mit Rebuilds und Managebarkeit. Dann muss man entsprechende Leistungseinbußen in Kauf nehmen. Unsere Partner beim CloudFest konnten diese durch verschiedene Optimierungen des Software-Defined-Ansatzes auf 5-10 % reduzieren. 

 

Lassen Sie uns einen weiteren Bereich im Storage anschauen: Nicht selten heißt es, das Problem sitzt vor dem Computer. Wie groß sind die Sicherheitsgefahren, die sich aus individueller Datenspeicherung im Unternehmen ergeben? Welche Maßnahmen kann man dagegen ergreifen?

KAESE: Was und wie auf unseren Festplatten gespeichert wird, ist von der Dateninfrastruktur abhängig. Aus meiner Erfahrung ist das größte Problem der individuellen Datenspeicherung, dass keiner mehr weiß, wo welche Daten liegen. Dazu kommt, dass Leute nicht dazu kommen, ihre Daten aufzuräumen und zu löschen. Zusätzlich werden Backups gerne vergessen. Ein zentral gespeichertes Offsite-Backup kann hier wichtig sein. 

 

Wie würden Sie Backups bei individueller Datenspeicherung ideal lösen? 

Kaese: Mein Top-Tipp wäre, auf Onsite-, Offsite- und Cloud-Backups zu setzen. Das gilt für große Unternehmen, KMU und Individualnutzer gleichermaßen. Für Zuhause heißt das, man hat ein NAS, das nicht direkt neben dem Desktop-PC gelagert ist und nicht direkt gestohlen werden kann. Dazu eine externe Festplatte. KMU können beispielsweise vierteljährlich ein Backup machen und diese Festplatte in der Bank in einem Tresor lagern. Schließlich sollte man ein Cloud-Backup haben. Gerade bei kleineren Anbietern sollte man allerdings darauf achten, dass diese nicht pleite gehen – dann könnten die Daten nämlich auch weg sein. Dass alle drei Absicherungen gleichzeitig wegfallen, ist quasi unmöglich. 

 

Damit sind wir bereits mitten im Thema uneinheitliche Systeme. Vor wenigen Jahren waren Private und Public Cloud vielen noch fremde Begriffe. Heute sind sie Standard, der jedoch zunehmend durch eine hybriden Ansatz abgelöst wird. Welche Vorteile bietet diese Hybrid Cloud den Unternehmen? 

KAESE: Kurz gefasst: Public Cloud ist für umfangreiche Datenspeicherungen recht teuer. Der OPEX (Operational Expense) ist hier durchaus nennenswert. Die Kosten für diese Speicherung werden auch deshalb unterschätzt, weil man im Privatbereich kostenlose und sehr günstige Optionen kennt. Speichern Firmen jedoch hunderte Terabyte oder gar Petabyte, ist das in der Public Cloud sehr teuer. Zusätzlich dauert es deutlich zu lange, diese Datenmengen in und aus der Cloud zu laden.

Der beste Tipp ist daher, große Datenbestände in der Private Cloud zu lagern. Hier kann man mit planbaren CAPEX (Capital Expense) passende Storage-Landschaften aufbauen. Und dazu nutzt man die Public Cloud als Hybrid-Lösung für Konnektivität, sodass Mitarbeiter überall arbeiten können. Die Public Cloud wird damit zum Netzwerk und kann punktuell genutzt werden. Zusätzlich lohnt sich die Public Cloud natürlich für Firmen, die kurzfristig hochskalieren müssen. 

 

SSD oder HDD? Diese Frage stellen sich aus Kostengründen viele Unternehmen, wenn sie ihre Festplattenstruktur aktualisieren. Doch Energieverbrauch, Lebensdauer und Ausfallsicherheit spielen in diese Kalkulation ebenfalls hinein. Wie optimieren Unternehmen diese vielfältigen Anforderungen ohne die Business Continuity zu vernachlässigen?

KAESE: Alles, was aktive Daten betrifft – Datenbanken, Boot-SSDs, portable Daten, die sich häufiger ändern und immer wenn die Kapazität nicht allzu groß ist und es auf die Performance ankommt –, sollte auf SSDs gespeichert werden. Idealerweise sogar auf NVMe SSDs, denn bei der SSD ist der Anschluss über SATA/SAS ein Anachronismus, als sie noch kompatibel mit Festplatten sein sollten. Heute mit neuen Greenfield-Systemen braucht man das nicht mehr, damit kann man die SSD quasi direkt an die CPU anschliessen. 

Dann ist es aber so, dass 1 TB Enterprise Flash-Speicher im besten Fall zwischen 150 und 400 Euro kostet. 1 TB Festplatte kostet gerade mal ein paar Dutzend Euro. Der Faktor im Preisunterschied liegt also beim 6- bis 10-Fachen pro Kapazität. Sobald es um Kapazität geht und Geschwindigkeit nicht mehr die primäre Metrik ist, muss sie zu Kosten pro Kapazität werden. Da ist die Festplatte heute bei weitem führend.

Schaut man sich die Preiskurve der Vergangenheit an und projiziert die heute entwickelte Technologie in die Zukunft, sieht man, dass die Preise für beide Speicherlösungen gerade und parallel zueinander abfallen. Es könnte sein, dass der Faktor für den Preisunterschied irgendwann einmal auf das 2- bis 4-Fache fällt. Doch dann kosten SSDs immer noch mehr als das Doppelte pro Kapazität. Überwiegen andere Metriken wie Stromverbrauch, Zugriffsgeschwindigkeit, Ausfallsicherheit, gibt es Trade-Offs. 

Selbst wenn SSDs plötzlich das Gleiche kosten würden wie Festplatten, dann würde es erst einmal einige Jahre dauern, bis die Kapazität an SSDs aufgebaut ist, um Festplatten zu ersetzen. Um das in Relation zu setzen: 2018 sind 600 Exabyte an Festplattenkapazität produziert, installiert und gefüllt worden. Das sind 600 Millionen Terabyte. In der gleichen Zeit sind 60 Exabyte an SSDs – also 10 % – hergestellt worden. Es ist also unmöglich, dass SSDs und Festplatten auf denselben Preis fallen. Festplatten werden folglich weiterhin benötigt – genauso wie Tapes.

Wir produzieren so viele Daten, dass wir alle drei Träger, Tapes, Festplatten und SSDs, brauchen. Natürlich steigt der Anteil der SSD-gespeicherten Daten im Moment exponentiell an. Daten auf Festplatten steigen hingegen linear an. Zukünftig werden aber auch hier deutlich mehr benötigt: Heute entstehen Daten dann, wenn ein Mensch eine Taste drückt. Ich schaffe vielleicht einen Anschlag pro Sekunde im Durchschnitt, mein Sohn beim Zocken vielleicht vier. In Zukunft kommen jedoch Maschinen über das IoT dazu und produzieren Daten. Diese können viele Tausend Datenpakete pro Sekunde erstellen. Bedenkt man das, wird man alle Speichertechnologien bis in die weite Zukunft benötigen.

 

Wie unterstützen Sie bei Toshiba Unternehmen dabei, die richtige Speichermethode zu finden und zu nutzen? 

KAESE: Wir unterstützen Unternehmen durch Schulungen und durch Proof of Concept-Aktivitäten. Sind wir auf Messen wie etwa dem CloudFest vertreten, stellen wir Proof of Concept-Versuche aus dem Labor erneut nach. Sind wir der Ansicht, dass ein solcher Versuch allgemeingültigen Anspruch hat, machen wir daraus ein Whitepaper. Tiefergehende Informationen zu HDD- und SSD-basierten Speichern haben wir z.B. in diesem Whitepaper gesammelt. 

 

Vielen Dank für das erkenntnisreiche Gespräch, Herr Kaese!

 

Mehr Informationen zur richtigen Auswahl von HDD- und Flashspeicher lesen Sie in diesem englischsprachigen Asset von Toshiba

Datum: 1 July 2019, 13:07 pm   |   Autor: MSK
Das könnte Sie ebenfalls interessieren: