hagel IT-Services
17 Min.

Storage Spaces Direct (S2D): Der Praxis-Leitfaden für Windows-Hyperconverged-Infrastruktur

Jens Hagel
Jens Hagel in IT-Dienstleistungen

Inhalt in Kürze

  • Storage Spaces Direct (S2D) ist Microsofts Antwort auf Hyperconverged Infrastructure — zwei bis 16 Windows-Server werden per Software-Defined Storage zu einem Cluster mit gemeinsamem Speicherpool verbunden, ganz ohne teures SAN.
  • Seit Windows Server 2022 und Azure Stack HCI 23H2 (General Availability im Dezember 2023) ist S2D produktionsreif für nahezu jedes Mittelstands-Setup — wir setzen es bei norddeutschen Kunden ab 15 produktiven VMs aufwärts ein.
  • Hardware-Hürde: S2D braucht zertifizierte Server mit NVMe-/SSD-Cache und 10/25-GbE-RDMA-Netzwerk. Eigenbauten ohne Azure-Stack-HCI-Zertifizierung sind aus dem Microsoft-Support ausgeschlossen — das wird bei vielen Projekten unterschätzt.
  • Kostenvergleich: Ein produktives 2-Node-HCI-Cluster startet im Mittelstand bei etwa 45.000 € Gesamtinvestition (Lizenzen + Hardware + Implementierung). Ein vergleichbares SAN-Setup lag bei uns im Projekt 2025 knapp 40 % darüber.
  • Wichtig ab 2024: Für Neuanschaffungen empfiehlt Microsoft klar Azure Stack HCI statt Windows Server Datacenter — Pay-per-Core pro Monat, schnellere Updates, Azure-Integration inklusive. Wer heute noch auf 2019/2022 Datacenter setzt, sollte die Roadmap prüfen.

Sie denken über einen neuen Storage-Unterbau für Ihre Hyper-V-Umgebung nach. Auf dem Tisch: ein klassisches SAN mit 80.000 € Einstiegspreis — oder zwei bis drei Windows-Server mit internen SSDs, verbunden per Storage Spaces Direct. Klingt technisch ähnlich, ist aber in der Anschaffung, im Betrieb und bei Ausfallszenarien fundamental unterschiedlich.

Dieser Artikel zeigt, wie S2D funktioniert, wann sich der Umstieg lohnt und welche Stolpersteine wir in Norddeutschland bei Mittelstands-Projekten regelmäßig sehen — inklusive Hardware-Vorgaben, Lizenzkosten und Blick auf Azure Stack HCI als Nachfolger.

Was ist Storage Spaces Direct (S2D)?

Storage Spaces Direct (S2D) ist eine Software-Defined-Storage-Funktion in Windows Server Datacenter und Azure Stack HCI, die den lokalen Speicher mehrerer Server zu einem hochverfügbaren Speicherpool zusammenfasst. Die Daten werden über zwei bis 16 Knoten gespiegelt oder paritätsgesichert verteilt. Fällt ein Knoten aus, bleiben alle Volumes erreichbar — die virtuellen Maschinen laufen auf den verbleibenden Knoten weiter.

Damit ist S2D die technische Grundlage für Hyperconverged Infrastructure (HCI) unter Windows. Compute (Hyper-V), Storage (S2D) und Netzwerk laufen auf denselben Servern — kein separates Storage Array, keine Fibre-Channel-Fabric, keine dedizierten Storage-Admins. Alles zusammen in einem Cluster, verwaltet über Windows Admin Center oder PowerShell.

Eingeführt hat Microsoft die Technologie mit Windows Server 2016. Mit Windows Server 2019 und 2022 kamen wichtige Verbesserungen: verschachtelte Resilienz für 2-Node-Cluster, schnellere Rebuild-Zeiten und stabilere RDMA-Stacks. Seit Azure Stack HCI 23H2 (GA: Dezember 2023) ist die Konfiguration über die Azure-Cloud möglich und die Updates kommen schneller als im klassischen Windows-Server-Rhythmus.

Wie funktioniert S2D? Software-Defined Storage unter der Haube

S2D fasst drei Konzepte zusammen, die bei klassischen Storage-Systemen auf verschiedene Hardware verteilt sind:

1. Shared-Nothing-Clustering. Im Gegensatz zu traditionellen Windows-Failover-Clustern braucht S2D kein gemeinsames SAN-Volume. Jeder Knoten hat seine eigenen internen Disks. Der Cluster sieht die Disks erst, wenn S2D aktiviert wird — dann entsteht ein logischer Speicherpool über alle Knoten hinweg.

2. Resiliency über Spiegelung oder Parität. Volumes lassen sich entweder spiegeln (Zwei-Wege ab 2 Knoten, Drei-Wege ab 3 Knoten) oder mit Parität absichern (ähnlich RAID 5/6, ab 4 Knoten sinnvoll). Spiegel kosten mehr Kapazität, liefern aber die höchste Performance. Parität ist effizienter bei großen Datenmengen mit mäßigen IOPS-Anforderungen. Ab Windows Server 2019 gibt es zusätzlich verschachtelte Resilienz — ein Hybrid-Modus speziell für 2-Node-Cluster, der zwei Disk-Ausfälle überlebt.

3. Automatisches Caching. NVMe- oder SSD-Laufwerke werden automatisch als Cache genutzt, HDDs oder größere SSDs als Kapazitätsschicht. Schreibvorgänge landen zuerst im schnellen Cache, werden dann im Hintergrund auf die Kapazitätsebene verlagert. Dadurch erreicht S2D ähnliche Performance wie ein All-Flash-Array — zu einem Bruchteil der Kosten.

Für die Cluster-Volumes nutzt S2D ausschließlich das Cluster Shared Volume File System (CSVFS) — entweder auf NTFS- oder ReFS-Basis. Microsoft empfiehlt CSVFS_ReFS wegen der effizienten Block-Cloning-Funktion, die Hyper-V-Checkpoints und Backups deutlich beschleunigt.

Technische Details und die aktuelle PowerShell-Syntax dokumentiert Microsoft im Storage Spaces Direct Overview.

S2D vs. klassisches SAN vs. NAS — der Praxis-Vergleich

Die drei Ansätze lösen dasselbe Problem (zentraler Speicher für mehrere Hosts), aber auf sehr unterschiedlichen Wegen. Diese Tabelle fasst zusammen, was wir in Mittelstands-Projekten regelmäßig gegeneinander stellen:

AspektStorage Spaces Direct (HCI)Klassisches SAN (Fibre Channel)NAS / SMB-Storage
ArchitekturServer + interne Disks = StorageDedicated Storage Array + FC-FabricDedicated NAS-Box über Ethernet
Einstiegskosten (2 Hosts)ab ~45.000 €ab ~75.000 €ab ~15.000 € (kleine Installationen)
Skalierung2 → 16 Knoten, linearmodular, teure Erweiterungenbegrenzt durch NAS-Hardware
Latenz0,5–2 ms (mit NVMe-Cache)0,2–1 ms (FC)2–5 ms (Ethernet)
ManagementaufwandEin Team (IT-Generalist reicht)Storage-Admin + Server-AdminIT-Generalist
Typische Hosts2–16 Hyper-V4–64 ESXi/Hyper-V1–5 Applikationsserver
Hersteller-Lock-inmittel (Microsoft + HW-Partner)hoch (FC-Switch + Array + HBAs)gering
Geeignet fürMittelstand 15–200 VMsGroßunternehmen, Extremperformancekleine Umgebungen, Backup, Archiv

Der Punkt Managementaufwand wird oft unterschätzt. Ein klassisches SAN-Setup bedeutet im Betrieb: Fibre-Channel-Switche patchen, Zoning pflegen, SAN-Volumes anlegen, Multipathing konfigurieren. Bei S2D läuft alles über einen Admin, der Hyper-V und Failover-Clustering versteht — das ist im Mittelstand häufig derselbe, der die Server sowieso betreut.

Eine gute Ergänzung zur Orientierung: Wenn Sie die klassischen Speicherkonzepte noch einmal nachlesen wollen, erklären wir die Unterschiede ausführlich im Artikel Was ist ein Storage Area Network (SAN) und wie profitieren Technikinteressierte IT-Entscheider davon?.

Bei S2D reden wir nicht mehr über „Storage" als eigene Welt — Storage ist Teil der Server-Infrastruktur. Das senkt die Einstiegshürde für den Mittelstand deutlich. Viele unserer Hamburger Kunden haben das erste Mal ein wirklich hochverfügbares Setup, ohne sich gleich einen Enterprise-Storage-Admin ins Haus holen zu müssen.

Jens Hagel Jens HagelGeschäftsführer, hagel IT-Services GmbH
Systemadministrator plant Storage Spaces Direct Cluster am Arbeitsplatz — Hardware-Auswahl und Dokumentation
S2D steht und fällt mit der richtigen Hardware — Cache-NVMe, RDMA-NIC und ein zertifizierter Server-Build.

Voraussetzungen und Lizenzen

Bei Storage Spaces Direct ist die Hardware-Liste keine Empfehlung — sie ist Voraussetzung für den Microsoft-Support. Abweichungen bezahlen Sie im Notfall mit der Antwort „not supported, reproduce on certified hardware”.

Lizenz-seitig brauchen Sie:

  • Windows Server 2019/2022/2025 Datacenter (nicht Standard!) — S2D ist exklusiv in der Datacenter-Edition enthalten. Aktueller Listenpreis in Deutschland: rund 6.000 € pro 16-Core-Lizenz.
  • oder Azure Stack HCI — eigenes Betriebssystem, monatlich pro Core abgerechnet (~ 10 US-$ / Core / Monat, Stand 2025). Für Neuprojekte klar die Microsoft-Empfehlung (Quelle: Azure Stack HCI Pricing).
  • Software Assurance oder ein aktives Subscription-Agreement, wenn Sie Azure-Dienste wie Site Recovery oder Azure Backup integrieren.

Hardware-seitig fordert Microsoft:

  • 2 CPUs pro Knoten (Intel Xeon oder AMD EPYC), minimal 8 Cores, empfohlen 16+ Cores
  • 64 GB RAM pro Knoten (empfohlen 128–256 GB je nach VM-Dichte)
  • 2 NVMe- oder SSD-Cache-Laufwerke pro Knoten (identische Größe und Typ!)
  • 4+ Kapazitätslaufwerke pro Knoten (SSD oder HDD, bei HCI fast immer All-Flash)
  • 10, 25 oder 100 GbE-Netzwerk mit RDMA-Unterstützung (RoCE v2 oder iWARP) — dedizierter Storage-Switch empfohlen
  • Zertifizierte Server aus dem Azure Stack HCI Katalog — etwa Dell PowerEdge R760, HPE ProLiant DL380 oder Lenovo ThinkSystem SR650

Der Katalog ist nicht dekorativ. Wir hatten Projekte mit „fast passender” Hardware aus einer früheren Lieferung — beim ersten Microsoft-Ticket wegen instabilem Cluster kam die Ansage: Support nur auf zertifizierten Konfigurationen. Sparen Sie an der falschen Stelle, zahlen Sie doppelt.

Zu den Netzwerk-Anforderungen gibt es einen ausführlichen Leitfaden bei den Server-Herstellern, etwa im HPE HCI Network Design Guide und im Dell Technologies Validated Design for Azure Stack HCI.

Einsatzszenarien: Hyper-V-Cluster, SQL Server, VDI

S2D ist nicht für jede Workload gleich gut geeignet. In der Praxis sehen wir vier Szenarien, in denen HCI mit Storage Spaces Direct wirklich glänzt — und zwei, die besser auf anderer Infrastruktur laufen.

Szenario 1 — Hyper-V-Cluster für Standard-Server-Workloads. Das ist der Klassiker und unsere häufigste Implementierung. 2 bis 4 Knoten, 20–60 produktive VMs (Domain Controller, File Server, Applikationen, Exchange). Spiegelung auf CSVFS_ReFS, Backup über Veeam. Das ist heute der Sweet Spot für Mittelstand.

Szenario 2 — SQL-Server-Failover-Cluster. S2D kann Shared-Storage für SQL Server bereitstellen. Für OLTP-Workloads mit bis zu einigen Tausend IOPS pro VM ist das völlig ausreichend. Bei extremen Datenbank-Anforderungen (50.000+ IOPS) greifen wir manchmal trotzdem noch zu dediziertem Storage — aber das ist im Mittelstand die Ausnahme.

Szenario 3 — Virtual Desktop Infrastructure (VDI). 50–300 virtuelle Arbeitsplätze auf einem 4-Knoten-S2D-Cluster — das funktioniert in Kombination mit Hyper-V oder Azure Virtual Desktop sehr gut. Die Boot-Stürme am Montagmorgen federt der NVMe-Cache ab.

Szenario 4 — Scale-Out File Server (SOFS) für Backup-Targets. Wer seine Backup-Daten zentral ablegen möchte und trotzdem Ausfallsicherheit braucht, baut darauf gern einen S2D-Cluster als SOFS. Tiefgehende Infos dazu haben wir im Glossar-Beitrag Was ist eine Virtual Machine (VM) und wie kann sie IT-Entscheidern helfen? mit aufbereitet.

Weniger geeignet ist S2D für:

  • Sehr hohe transaktionale OLTP-Lasten (> 50.000 IOPS pro Volume) — hier ist ein dediziertes All-Flash-Array noch vorn
  • ESXi-Umgebungen — S2D ist Windows-only; für VMware braucht es vSAN oder ein klassisches SAN
  • Extreme Latenz-Anforderungen unter 0,5 ms — das leisten nur FC-SANs mit NVMe-Backend
Server-Rack im Rechenzentrum mit blauen LEDs — Storage-Cluster und Hardware-Knoten für Windows Storage Spaces Direct
Typische S2D-Knoten im Rack — zwischen 2 und 16 Server bilden einen hochverfügbaren Cluster.

Unser altes SAN war 2024 raus aus der Wartung. Wir haben dann mit hagel IT auf ein 3-Knoten-S2D-Setup umgestellt — Hardware, Migration, alle VMs live rüber. Seitdem: kein einziger Ausfall, deutlich schnellere Storage-Performance, und wir können intern selbst administrieren, ohne SAN-Spezialwissen. War die beste Entscheidung der letzten Jahre.

Tobias M.Technischer Leiter · Mittelstand · 80 Mitarbeiter

Azure Stack HCI — die Cloud-Erweiterung

Seit Juli 2020 gibt es Azure Stack HCI als eigenständiges Produkt. Technisch steckt darin derselbe S2D-Kern wie in Windows Server Datacenter, aber das Lizenzmodell, die Update-Kadenz und die Azure-Integration sind fundamental anders.

Was Azure Stack HCI gegenüber Windows Server Datacenter mitbringt:

  • Pay-per-Core-Monatsmodell statt einmaliger Kauf-Lizenz — interessant, wenn Sie keine OPEX-versus-CAPEX-Diskussion führen wollen
  • Halbjährliche Feature-Updates statt großer 3-Jahres-Releases — neue Funktionen wie GPU-P, Storage-Replica-Verbesserungen oder Switchless-Konfigurationen kommen deutlich schneller
  • Native Azure-Integration — Azure Monitor für Cluster-Metriken, Azure Site Recovery für Disaster Recovery in die Cloud, Azure Backup für VM-Backups, Azure Arc für zentrales Management
  • Kürzere Zertifizierungs-Pipeline für Hardware — neue Server-Modelle schaffen es schneller in den Katalog

Für Neuanschaffungen ab 2024 empfiehlt Microsoft Azure Stack HCI als Standard. Windows Server 2025 Datacenter bleibt weiterhin verfügbar und erhält S2D-Funktionen, aber der Innovations-Fokus liegt klar auf Azure Stack HCI. Details dokumentiert Microsoft im Vergleich Azure Stack HCI vs. Windows Server.

Wir beraten dazu herstellerunabhängig im Rahmen unseres Managed-Server-Services — je nach Einsatzzweck macht mal das eine, mal das andere Modell Sinn. Ein typisches KMU mit stabiler VM-Umgebung und 5-Jahres-Investitionshorizont fährt mit Windows Server Datacenter oft günstiger. Ein wachsendes Unternehmen mit Cloud-Affinität profitiert von Azure Stack HCI.

Performance & Skalierung — 2-Node bis 16-Node

Die Skalierung ist einer der großen Vorteile von S2D gegenüber klassischem SAN. Sie starten klein und wachsen modular, ohne teure Fabric-Erweiterungen oder SAN-Migrationen.

2-Node-Cluster — das Minimum für produktiven Einsatz, eignet sich für bis zu 20–30 VMs im Mittelstand. Zwei-Wege-Spiegelung, ein Witness als Quorum (File-Share auf separatem Server oder Cloud-Witness in Azure). Ein Knoten darf ausfallen, dann wird es eng — deshalb ist das Setup meist für kleinere Abteilungen oder als Remote-Office-Lösung die richtige Wahl.

3-Node-Cluster — der Sweet Spot für viele Mittelständler. Drei-Wege-Spiegelung schafft echte Hochverfügbarkeit, zwei Knoten dürfen gleichzeitig ausfallen (aber nicht jede Kombination). 30–80 VMs laufen komfortabel, Kapazität zwischen 20 und 80 TB netto.

4-Node-Cluster — ab hier ist Parität wirtschaftlich sinnvoll, ähnlich RAID 5. Sie sparen gegenüber Drei-Wege-Spiegelung rund 50 % Kapazität — bei leichtem Performance-Abschlag. Für Fileserver, Archive und große VDI-Pools sehr attraktiv.

8- bis 16-Node-Cluster — Enterprise-Territorium. Ab dieser Größe verwalten wir die Cluster mit PowerShell-DSC und ziehen Azure Monitor für zentrales Monitoring mit ein. Das ist etwa die Größe, die ein Hamburger Mittelständler mit 500+ Mitarbeitern benötigt.

Performance-seitig sehen wir in produktiven Kundensystemen typischerweise:

  • Random Read 4K: 80.000 – 200.000 IOPS pro Knoten (abhängig von NVMe-Konfiguration)
  • Sequential Throughput: 5 – 12 GB/s pro Cluster bei 4 Knoten
  • Latenz: 0,5 – 1,5 ms für 95-%-Quantil

Das sind solide Werte, die in 95 % der Mittelstands-Workloads völlig ausreichen. Wer mehr braucht, landet ohnehin in der Enterprise-Liga.

Passende Architektur-Überlegungen stehen in unserem Leitfaden Was ist Redundanz in der IT und warum ist sie für technikinteressierte IT-Entscheider wichtig?.

S2D in der Praxis: typische Probleme und Lösungen

Wenn ein S2D-Cluster Zicken macht, liegt es fast immer an einer von fünf Ursachen. Das sind die Muster, die wir bei Kunden — oft als zweite Meinung nach gescheiterten Eigenbauten — regelmäßig sehen:

Problem 1 — RDMA-Netzwerk nicht korrekt konfiguriert. RDMA (Remote Direct Memory Access) ist Pflicht für stabile S2D-Performance. Wenn DCB/PFC auf den Switches nicht stimmt, bekommen Sie sporadische Paketverluste, Cluster-Rebuilds ohne erkennbaren Grund und Latenz-Spitzen. Lösung: Switch-Konfiguration gegen Hersteller-Reference-Design prüfen (Dell, HPE, Mellanox veröffentlichen detaillierte Guides), PFC-Klassen sauber definieren, mit Test-NetStack von Microsoft validieren.

Problem 2 — Mismatched Drives im Pool. S2D erwartet identische Cache-Laufwerke pro Knoten. Wenn jemand nachträglich eine 1,92-TB-NVMe statt der ursprünglichen 1,6-TB-NVMe einbaut, wird der Pool unbalanced — und die Performance leidet. Lösung: Ersatzteile immer identisch bestellen. Wo das nicht geht, ganze Knoten homogen erneuern.

Problem 3 — Storage Jobs bleiben hängen. Nach einem Knoten-Ausfall oder einem Disk-Replace läuft manchmal ein Rebuild-Job hart bei 99 %. Die Ursache liegt fast immer an inkonsistenten Metadaten in einer der CSVs. Lösung: Get-StorageJob zeigt den stuck job, Stop-StorageJob und ein Neustart des Cluster-Dienstes auf dem betroffenen Knoten bringt es in der Regel wieder in Gang.

Problem 4 — Cluster Shared Volumes kommen nach Update nicht mehr online. Meist eine Kombination aus Treiber-Versionen, die nach einem Windows-Update nicht mehr zur Firmware passen. Lösung: Firmware und Treiber parallel mit Windows-Updates pflegen, nicht isoliert. Dell Open Manage Enterprise, HPE OneView oder Lenovo XClarity helfen, das zentral zu orchestrieren.

Problem 5 — Backup-Performance bricht nach CSVFS_ReFS-Update ein. Mit ReFS-Block-Cloning kommen Backup-Produkte wie Veeam sehr gut zurecht — wenn die Version passt. Ältere Veeam-Releases bremsen den Cluster manchmal aus. Lösung: Veeam ab Version 12 in Kombination mit Windows Server 2022 nutzen, ReFS Integrity Streams für hochfrequente VMs gezielt aktivieren.

Geplanter Umstieg auf HCI? Wir kennen die Fallen.

15 Minuten Erstgespräch. Kostenlos. Ohne Vertriebsdruck.

Erstgespräch buchen →

Häufige Fehler bei S2D-Implementierung

Diese Fehler tauchen in etwa acht von zehn Audits bei Eigenbauten auf:

  1. Nicht-zertifizierte Hardware gekauft. „War doch fast identisch mit dem R750" — ist es aber nicht, wenn der Server nicht im Azure-Stack-HCI-Katalog steht. Microsoft-Support wird teuer und langsam.
  2. Zu wenig RAM pro Knoten. 64 GB sind das Minimum, nicht die Empfehlung. Bei 30 VMs pro Knoten sollten es eher 192 oder 256 GB sein — sonst swappt das System und die VMs werden träge.
  3. Ein Switch für alles. Management, VM-Traffic und Storage-Traffic auf demselben Switch spart Geld — aber wenn der Switch ausfällt, ist der Cluster komplett offline. Zwei redundante 25-GbE-Switche sind Pflicht für produktive Setups.
  4. Cache-Laufwerke zu klein dimensioniert. Microsoft empfiehlt mindestens 10 % der Kapazität als Cache. Wer 80 TB Kapazität baut und 1,6 TB Cache einplant, bekommt unter Last Performance-Einbrüche.
  5. Keine Drei-Wege-Spiegelung bei kritischen Workloads. Im 2-Node-Setup darf nur ein Knoten ausfallen. Bei unternehmenskritischen Workloads lieber direkt 3 Knoten planen.
  6. Backups auf demselben Cluster abgelegt. Der beste HCI-Stack schützt nicht vor Ransomware, die ins Backup-Volume greift. Backups müssen immer getrennt liegen — idealerweise offline oder unveränderbar (Immutable).
  7. Updates ohne Staging. Windows Server Updates auf HCI-Clustern direkt produktiv einspielen ist Glücksspiel. Wir nutzen Cluster-Aware Updating (CAU) mit Vorab-Test auf einem separaten 2-Node-Staging-Cluster.

Checkliste: Ist S2D das Richtige für uns?

Prüfen Sie Ihr Umfeld anhand dieser acht Fragen. Wenn Sie mindestens fünfmal „Ja” sagen können, ist S2D/HCI mit hoher Wahrscheinlichkeit die wirtschaftlichere Wahl als ein klassisches SAN.

  • Hyper-V ist Ihre Virtualisierungs-Plattform. S2D ist Windows-only — für VMware brauchen Sie vSAN oder klassisches SAN.
  • Sie betreiben 2–50 produktive VMs. Das ist der Sweet Spot für 2- bis 4-Node-Cluster.
  • Ihr Storage-Budget liegt unter 100.000 €. Klassische SANs in dieser Klasse sind selten konkurrenzfähig zu HCI.
  • Sie haben keine dedizierte Storage-Abteilung. HCI braucht keinen Storage-Admin — ein guter Windows-Admin reicht.
  • Sie möchten modular skalieren. Mehr Knoten statt größerer Arrays — das ist günstiger und flexibler.
  • Ihre Workloads liegen unter 50.000 IOPS pro VM. Das deckt 95 % aller Mittelstands-Anforderungen ab.
  • Sie sind Microsoft-Shop. Lizenzen, Management-Tools und Support-Wege passen zusammen.
  • Sie denken mittelfristig über Azure-Anbindung nach. Azure Stack HCI integriert sich direkt in die Cloud — ein klassisches SAN nicht.
Häufiger Einwand:

„Aber ein klassisches SAN ist doch bewährt." — Das stimmt. Aber „bewährt" heißt auch: teurer Wartungsvertrag, schwierige Skalierung, spezialisiertes Admin-Wissen notwendig. Für 80 % des Mittelstands ist HCI 2026 nicht nur günstiger, sondern auch einfacher zu betreiben. Wer heute noch ein reines SAN plant, sollte das bewusst begründen können.

Was Sie heute tun können

Wenn Ihre aktuelle Storage-Infrastruktur in den nächsten 12–24 Monaten an ein Ende kommt (Wartungsende, Performance-Limits, SAN-EOL), sind das die nächsten drei Schritte:

  1. Workloads inventarisieren. Wie viele VMs laufen heute? Wie hoch ist der Storage-Bedarf inklusive 3-Jahres-Wachstum? Welche Spitzen-IOPS haben Ihre kritischen Systeme?
  2. Hardware-Szenario grob rechnen lassen. Ein 2-Node-Setup mit Dell R760 oder HPE DL380 inkl. Windows Server 2025 Datacenter oder Azure Stack HCI — was kostet das konkret bei Ihrem Volumen? Wir erstellen diese Kalkulation im Rahmen unseres Managed-IT-Services ohne Berechnung als Vorab-Analyse.
  3. Proof of Concept laufen lassen. Zwei Demo-Knoten, eine repräsentative Workload, zwei Wochen Testbetrieb — damit sehen Sie vor dem Kauf, wie sich HCI im eigenen Umfeld anfühlt. Hersteller wie Dell und HPE bieten dafür zertifizierte Leihgestellungen an.

Fazit

Storage Spaces Direct hat sich in den letzten fünf Jahren vom Nischen-Feature zum Standard-Fundament für Windows-HCI entwickelt. Wer heute eine neue Virtualisierungs-Infrastruktur plant, sollte den klassischen SAN-Weg bewusst gegen ein S2D-Setup rechnen — in den meisten Mittelstands-Szenarien führt HCI zu niedrigeren Gesamtkosten bei gleicher oder besserer Ausfallsicherheit.

Der Schlüssel zum Erfolg liegt aber nicht in der Technologie an sich, sondern in der richtigen Umsetzung: zertifizierte Hardware, dimensioniertes Netzwerk mit RDMA, ordentliches Backup-Konzept — und ein Team (intern oder extern), das Hyper-V-Clustering wirklich beherrscht.

Das Wichtigste: Storage Spaces Direct ist Microsofts Antwort auf Hyperconverged Infrastructure und für Mittelständler mit Hyper-V heute wirtschaftlicher als jedes klassische SAN in der 50–200-VM-Klasse. Voraussetzung ist zertifizierte Hardware, 10/25-GbE-RDMA-Netzwerk und Windows Server Datacenter oder — besser für Neuanschaffungen — Azure Stack HCI. Für ein produktives 2-Node-Setup liegt die Gesamtinvestition im Mittelstand bei rund 45.000–75.000 € inkl. Implementierung.

Ihr nächster Schritt

Sie überlegen, ob Storage Spaces Direct für Ihr Unternehmen die richtige Wahl ist — oder ob ein klassisches SAN trotzdem besser passt? Das klären wir gemeinsam in 15 Minuten. Sie bekommen eine ehrliche Einschätzung, welches Setup technisch und wirtschaftlich zu Ihren Workloads passt, welche Hardware wir für Ihre Größe empfehlen und wo die typischen Fallstricke in Ihrer Branche liegen.

Als IT-Dienstleister für Hamburg, Bremen, Kiel und Lübeck haben wir in den letzten Jahren über ein Dutzend HCI-Migrationen erfolgreich begleitet — von 2-Node-Setups für 25-Mann-Firmen bis zu 6-Node-Clustern für Industrieunternehmen mit 300+ Mitarbeitern. Wir kennen die Fallen und wissen, welche Hardware-Kombinationen sich im Betrieb bewähren.

15 Minuten Klartext zu Ihrer Storage-Strategie.

Kostenlos. Ohne Vertriebsdruck. Ehrliche Einschätzung von Geschäftsführer zu Geschäftsführer.

Erstgespräch buchen →

Weiterführende Quellen:

Jens Hagel
Gründer & Geschäftsführer, hagel IT-Services GmbH

Seit 2004 begleite ich Hamburger Unternehmen bei der IT-Modernisierung. Microsoft Solutions Partner, WatchGuard Gold Partner, ausgezeichnet als Deutschlands bester IT-Dienstleister 2026 (Brand eins/Statista). Wenn Sie IT-Fragen haben, bin ich direkt erreichbar.

Thorsten Eckel

«Mit Hagel IT haben wir einen erfahrenen Partner, auf den wir uns jederzeit zu 100 % verlassen können.»

Thorsten Eckel
Geschäftsführer · Hanse Service
Deutschlands beste IT-Dienstleister 2026 — brand eins / Statista
Bester IT-Dienstleister
2026 — brand eins / Statista
Fallstudie · Logistik
Wie eine Spedition in Hamburg mit dem Modern Cloud Workplace Ausfallzeiten eliminierte und das Onboarding von Tagen auf Minuten reduzierte
Ausgezeichnete Bewertung
Basierend auf 46 Bewertungen

„Wir arbeiten seit einiger Zeit mit hagel IT zusammen und sind absolut zufrieden. Das Team ist kompetent, freundlich und immer schnell zur Stelle, wenn Hilfe gebraucht wird. Besonders schätzen wir die individuelle Beratung, den zuverlässigen Support und die modernen IT-Lösungen, die perfekt auf unsere Bedürfnisse abgestimmt sind. Ein rundum professioneller Partner, den wir uneingeschränkt weiterempfehlen können!"

Robin Koppelmann
Kostenlos & unverbindlich

IT-Herausforderungen? Wir helfen.

Sprechen Sie mit unseren Experten — 15 Minuten, kostenlos, kein Vertriebsdruck.

Häufig gestellte Fragen

Storage Spaces Direct (S2D) ist Microsofts Software-Defined-Storage-Technologie, die den lokalen Speicher mehrerer Windows-Server zu einem einzigen hochverfügbaren Speicherpool zusammenfasst. Zwei bis 16 Knoten bilden einen Failover-Cluster, in dem die Daten gespiegelt oder paritätsgesichert abgelegt werden. S2D ist die Grundlage für Hyperconverged Infrastructure (HCI) unter Windows Server Datacenter und Azure Stack HCI — und ersetzt damit das klassische SAN in vielen Mittelstands-Umgebungen.

Jeder Knoten braucht mindestens 2 CPUs, 64 GB RAM (empfohlen 128+ GB), zwei identische NVMe- oder SSD-Cache-Laufwerke sowie Kapazitätslaufwerke (SSD oder HDD). Das Netzwerk zwischen den Knoten muss 10 GbE mit RDMA (RoCE oder iWARP) leisten, besser 25 oder 100 GbE. Microsoft zertifiziert nur bestimmte Hardware-Kombinationen im Azure Stack HCI Katalog — Eigenbauten außerhalb dieser Matrix liefert der Support nicht.

S2D selbst ist Teil der Windows Server Datacenter Edition, die in Deutschland bei rund 6.000 € pro 16-Core-Lizenz startet. Hinzu kommen zertifizierte Server (ab etwa 12.000 € pro Knoten für ein 2-Node-Setup mit SSDs) und 10-GbE-Switches. Für ein produktives 2-Node-HCI im KMU landen Sie inkl. Implementierung meist bei 45.000–75.000 € — günstiger als ein klassisches SAN derselben Klasse, aber kein Schnäppchen. Azure Stack HCI wird im Unterschied dazu monatlich pro Core abgerechnet.

Storage Spaces Direct ist die Speichertechnologie. Azure Stack HCI ist das komplette Produkt, das S2D, Hyper-V, Failover-Clustering und Azure-Integration bündelt. Technisch steckt in Azure Stack HCI derselbe S2D-Kern wie in Windows Server Datacenter — aber das Lizenzmodell ist Pay-per-Core pro Monat, Updates kommen schneller und eine Azure-Anbindung (Monitoring, Backup, Site Recovery) ist fest integriert. Für Neuanschaffungen ab 2024 empfiehlt Microsoft Azure Stack HCI als Standard.

Hyperconverged Infrastructure mit S2D lohnt sich, wenn Sie 2–8 Hyper-V-Hosts betreiben, keine teure Fibre-Channel-Fabric brauchen und eine einfache Skalierung möchten. Ein klassisches SAN bleibt stark, wenn Sie sehr viele Hosts (20+), extreme IOPS oder Multi-Protokoll-Anbindungen (NFS, iSCSI, FC parallel) brauchen. Für 80 % des Mittelstands ist HCI heute die wirtschaftlichere Wahl — weniger Komponenten, weniger Wartungsaufwand.

Minimum sind zwei Knoten plus ein Witness (File-Share oder Cloud-Witness in Azure). Zwei Knoten bieten Zwei-Wege-Spiegelung — ein Knoten darf ausfallen, dann ist aber kein weiterer Fehler mehr tolerierbar. Drei bis vier Knoten erlauben Drei-Wege-Spiegelung oder verschachtelte Resilienz. Ab vier Knoten ist Parität (ähnlich RAID 5/6) möglich, was Kapazität spart. Wir empfehlen im Mittelstand 3 oder 4 Knoten als Sweet Spot — weniger Komplexität als ein großes SAN, aber genug Redundanz für echte Hochverfügbarkeit.

Primär: Hyper-V-VMs für Standard-Server-Workloads (Fileserver, Exchange, Active Directory, Applikationsserver), SQL-Server-Failover-Cluster mit mirrored Volumes, Virtual Desktop Infrastructure (VDI) und Scale-Out-File-Server (SOFS). Weniger gut: sehr hohe OLTP-Datenbanken mit extremem Schreib-Anteil, Workloads mit festen Latenz-Anforderungen unter 1 ms oder Spezial-Anforderungen wie NFS-Storage für ESXi-Hosts (S2D ist Windows-only).

Bei einem Knoten-Ausfall übernehmen die verbleibenden Knoten alle Workloads automatisch — virtuelle Maschinen starten auf anderen Knoten neu (Live Migration war vorher synchron). Der Cluster läuft im 'degraded'-Zustand weiter, die Daten bleiben durch die gespiegelten Kopien erreichbar. Kommt der Knoten zurück, synchronisiert S2D nur die Deltas. Fällt ein zweiter Knoten im Zwei-Node-Cluster aus, geht das Volume offline — deshalb ist für unternehmenskritische Workloads immer ein Drei- oder Vier-Knoten-Setup die klügere Wahl.