TCP Offload Engine (TOE) & iSCSI

Bei der Verwendung von Clustering über iSCSI kommen völlig neue Anforderungen an eine NIC (Netzwerkarte). Es läuft nun nicht nur der Netzwerktraffic eines Servers über eine (separate) NIC, um Clientanfragen abzuarbeiten, sondern auch der Backendverkehr vom Server zu einer Storage Box.

Um die CPU zu entlasten und einen höheren Durchsatz zu erreichen, gibt es die Möglichkeit den TCP/IP Overhead, den i.d.R. der TCP/IP Stack des OS verarbeitet, auf die NIC (sog. TOE NIC) zu verlagern. Dieses Verfahren nennt sich TCP Offload Engine (TOE) und schafft neben einer Entlastung der CPU eine effizientere Verarbeitung der Nutzdaten, sei es LAN Traffic oder iSCSI Payload.

Damit das TCP Offloading auf Windows Servern funktioniert, benötigt man neben einer TOE NIC auf 2K3 Servern <SP2 das Scalable Networking Pack (KB 912222), welches im SP2 enthalten ist. Microsoft spricht in dem Zusammenhang aus OS Sicht von TCP Chimney Offload, das weitere Aspekte beinhaltet (NetDMA/RDMA, RSS etc.).

In Zeiten von Gigabit Ethernet (1GbE/10GbE) ist TOE eine wünschenswerte Entwicklung, um den Flaschenhals NIC/CPU zu entlasten, allerdings bedeutet dies eine signifikante Veränderung der NDIS Architektur.
In Verbindung mit NIC Teaming bringt einem TOE echtes Potenzial für Performancesteigerungen.

Im iSCSI Anwendungsfall auf Windows Cluster empfehle ich aus technischer Sicht anstatt von TOE NICs den Einsatz von iSCSI HBAs (Full iSCSI Offload HBA), die nochmals eine Steigerung des Durchsatzes/der IOPS schaffen, da diese rein für iSCSI Traffic optimiert sind. Zudem verwenden iSCSI HBAs wie auch FC HBAs den Storport Treiber und nicht den Windows Netzwerk Stack.
iSCSI HBAs sind nicht unbedingt billiger als FC HBAs, aber man spart sich immer noch die FC Switche 😉

Stay tuned,
N.Own

Von DPEs, SPEs und LCCs…

Die nächsten zwei Wochen dreht sich bei mir alles um Navisphere, Flare OE, Switched Fabric und Fibre Optics etc.
Ich bin momentan in Bracknell (UK) im Hause Dell zur EMC SAN Schulung.
Design, Einrichtung, Konfiguration und Troubleshooting der Clariion CX-Serie (300-700) sowie der neuen CX3 Serie stehen im Mittelpunkt.

Normalerweise hat man selbst als Cluster Guy recht wenig mit der Storage jenseits des Windows Storport Treibers zu tun, für einen Windows Cluster ist die Storage Einheit sowieso eine Black Box.

Umso interessanter ist es mal den SAN Storage Unterbau in seiner Tiefe kennenzulernen. Gerade das SAN Zoning und LUN Masking sind wichtige Aspekte, die beim Clustering bedacht werden sollten.
Mehr zu diesen Themen zu einem späteren Zeitpunkt.

Cheers,
N.Own

Interview mit Jim Teague

Clustering MVP Rodney R. Fournier hat ein Abschrift eines Interviews mit Jim Teague, Program Manager in der Microsoft High Availability Group zum Thema „Cluster Validation mit Longhorn/Windows Server 2008“ in seinem Blog veröffentlicht:

Interview mit Jim Teague:
» Cluster Validation in Windows Server „Longhorn“

Der Technet Webcast dazu ist ebenfalls online:
» TechNet Webcast: Cluster Validation in „Longhorn“

Stay tuned,
N.Own