Problem mit Serverprojekt !

m1key_SAN

Lt. Commander Pro
Registriert
Mai 2010
Beiträge
1.671
Hallo Liebe Community !

Ich habe ein großes Problem, und brauch euren Rat !

An alle Berufstätigen IT - Netzwerkadministratoren und Leute die sich auskennen.

Ich habe folgendes Serverprojekt mit einer EXT. Firma aus Österreich gemacht.

2x Dell R510 Server mit jeweils 32GB (VM Ware Sphere 5.0)
2x HP Procurve Switche 2510-48G
1x Dell PowerVault SAN (4TB gesamt SATA 7200 Platten , und 3TB gesamt SAS 12000 Platten) die über ISCSI angesteuert werden.
1x Cisco 5005 ASA Firewall
1x APC 3000 Watt

So wir haben einen Alten Server (Dell Poweredge 2900) der durch das Projekt eher zu einem Backup Server degradiert wird früher lief SQL als VM drauf. Und die VM VClient der die VM Steuern soll.


So nachdem das erste mal die Ext.FA den Server konfiguriert hat, haben wir begonnen vorhandene VM zu Konvertieren SQL haben wir neu gemacht (SQL Server 2008) der auf die SAS Platten lief (Datenbanken).

Mein Kollege und ich haben bemerkt das unsere Clients immer Rausfliegen.
Wir haben dann alles gecheckt , und sind draufgekommen das die Festplatten geschwindigkeiten ziemlich langsam sind (1,2 MB Leserate & Schreibrate).

Darauf haben wir die Ext.FA angeschrieben Da das schon konfiguriert werden musste.
Wir haben ein Wochenende umsonst die Daten auf den neuen Server raufgetan wir haben alles wieder runtergeschmissen und SQL auf den Alten Server wieder installiert.
Dann lief alles wieder ca. 200-300 MB Schreib & Leserate auf den ALTEN SERVER !!!!.

So fünf Monate hat die Ext.FA das Problem gesucht, zuerst dachten wir es ist der Storage das der Controller was hat.
Bis wir den Übeltäter gefunden haben Die Switche !!

Vor einer Woche wurde uns Kurzeitig ein 1810G - 24 umgetauscht und siehe da 90 - 100MB hatten wir.
Jetzt haben sie unseren alten 2510 angehängt und ein Paar Dienste abgeschalten die der neue Bringt.
Und wir haben wieder 90 - 100MB.

Das gleiche haben Sie beim 2 auch gemacht , und schreiben mir als Email Folgendes.

" Sehr geehrter Herr XXX.

Nachdem die überflüssigen Protokolle abgedreht wurden, wird mit dem 2510er Switch eine bessere Performance erziehlt.
Die Datenraten liegen etwas höher als mit dem 1810er Switch.
Jedoch hat sich die Rate bei kleinen Datenblöcken (4k) von knapp 2MB auf 8-16MB/s verbessert.

Mit den 100MB bei großen zusammenhängenden Files ist lt. unseren SAN-Technikern der maximale Datendurchsatz erreicht.
100MB entsprechen der Obergrenze für Gigabit. Deutlich mehr Dadendurchsatz ist nur mit deutlich teureren Switches möglich.
Multipathing ändert in dem Bezug nichts, da dies nur eine Ausfallsicherheit darfstellt und keinen Performancezuwachs bringt.
Mir wurde erklärt, dass Multipathing nur anspringt wenn ein Port ausfällt.

Die Leistung kann je nachdem welche HDD-Gattung sie ansprechen etwas höher oder auch geringer ausfallen.

Sie können somit mit den Tests des Systems für Ihre Bedürfnisse anfangen."


100MB ??? Das kann man doch nicht akzeptieren mein 5 Jahre alter Server ist schneller als dieses 40.000€ Projekt.
Das kanns nicht sein , Da mein Chef sowieso schon Sauer ist kann ich mein Kopf nicht für 100MB halten.
Sind die 2510 so schlecht in einer SAN Umgebung ???
Also ich hatte mind. 300 - 400MB gerechnet.
Und den SQL Installiert ich bei 100MB sicher nicht , wäre ein Rückschritt.

Achja die SAN ist auf RAID 6 Konfiguriert.
Angeblich soll das ziemlich exotisch laut einen Techniker sein.

Übersehe ich was , Verarscht mich die Firma ?
Was meint Ihr habt ihr eine Idee wo der Fehler liegen kann.

Danke im Vorraus.
Sry falls ein paar Fehler sind , aber ich bin zurzeit in der Firma und hab leicht Stress mit der Anlage.
 
Gbit sind nunmal 125 Mb/s. Ziehst den Overhead ab und du bist bei 100. Wenn du schneller willst brauchst du 4Gbit FC...

Was die Firma sagt, stimmt schon! (Solange es sich auf Netzwerkstrecken bezieht)
 
also 100 Mb/s hört sich für mich ganz gut an in einem Gigabit Netz. Wenn mich nich alles täuscht teislte mal 1000 (1Gbit) / 8 (1 Byte) und es kommt 125 Mb/s raus. Bist doch mit 100 gut bedient oder? Wenn du da schneller sien wilslt brauchst ne schnellere Anbindung.

edit: zu langsam :D
 
Hallo,

1 Gbit/s sind umgerechnet (Faktoren 1024 und 8 Bit pro Byte) 128,00 MB/s (abzüglich Overhead) .... egal ob SAN oder alter Server.

Wenn du mehr brauchst haben die schon recht, es gibt 10GBit/s Kupfer Switche ... frag nicht nach den Preisen.

Gruß,
d2boxSteve
 
100MB/s sind schon realistisch für Gbit LAN.
Wir haben bei uns im Fileserver 4 Gbit Ports "getrunked" zum Switch, was den Durchsatz natürlich drastisch erhöht hat.
 
Nur das Sie die SAN und die Server Ports trunken müssten.
Allein mit einem besseren Switch is das nicht getan, da die Netzwerkkarte im Server ja auch nur 1GBit is nimm ich mal an.
Trunken scheint mir auf Anhieb die "billigste" Lösung. Auch wenn ich nich so der Fan von bin :P
 
In der Regel werden SANs auch mit 10Gbit/s ISCSI an die Hosts angebunden, bzw. erhält man mit 1Gbit/s einfach zu wenig Performance wie du ja auch bemerkt hast.
Allerdings sind 10Gbe Switche mit genug Performance für eine solche Umgebung auch nicht billig, da wirds eng mit 40k€ für das ganze Projekt.

Falls du jemand suchst der den Kopf hinhalten soll, dann die Person die in das Projekt die 1Gbe Anbindung an das SAN geplant hat. Warst du das, dann liegt der Fehler bei dir, das kann man nicht schön reden ;)

Edit:
Achja Multipathing gibts auch mit Performance gewinn, allerdings bezweifle ich das so eine kleine Dell Kiste das unterstützt.
In der Regel ist das von VMware Standard eingesetzte nur für Ausfallsicherheit da, also es laufen immer nur über ein Pfad aktiv I/Os.
 
Zuletzt bearbeitet:
Was genau ist das Problem? 100 MB/s ist, übern Daumen, die Obergrenze für Gbit Ethernet. Soweit völlig richtig.
Natürlich könnte man jetzt mehrere 1G Verbindungen trunken, man bleibt dann aber bei 100 MB/s pro Prozess.

Entweder wurde das bei dem alten Server gemacht und auch entsprechend mit mehreren Prozessen genutzt, oder der hat noch eine schnellere Anbindung als 1G.
 
Zuletzt bearbeitet:
Und wenn man schon am trunken ist, sollte man aber nochmal dieselbe Zahl an Netzwerkanschlüssen für HA bereitstellen und anschließen.

Generell sollte man das immer tun!

Das Thema wäre gehört eigentlich hier hin: Unterforum Windows Server und professionelle Netzwerke

Wieso habt ihr nicht gleich per FC angeschlossen? Werden nochmal eigene SAN switches verwendet?
 
Wie hast du denn überhaupt auf dem alten Server 200-300MB/s erreicht bzw. mit was waren die dann an das Netzwerk angebunden?
 
fandre schrieb:
Wie hast du denn überhaupt auf dem alten Server 200-300MB/s erreicht bzw. mit was waren die dann an das Netzwerk angebunden?

Ich vermute mal das die Daten Lokal abgelegt wurden, weil das SAN erst für das neue Projekt angeschafft wurde.
Da sind 200-300MB ja ohne Probleme machbar weil die Daten alle über den SAS/SATA Bus laufen.
 
1GB vom VM Host zum SAN ist natürlich murks....

Normalerweise hat man für das SAN ein eigenes Glasfasernetzwerk um das ordentlich auf touren zu bringen.

Achja die SAN ist auf RAID 6 Konfiguriert.
Angeblich soll das ziemlich exotisch laut einen Techniker sein.
Wie groß ist das ARRAY? Bzw. wieviele HDD's umfasst ein RAID?
RAID6 ist bei SATA HDD's die einzige Wahl... bei SAS ist RAID6 normalerweise nicht nötig, RAID5 die Regel.

Vermutlich habt ihr aber genau das - SAS in RAID5, SATA in RAID6.
 
Zuletzt bearbeitet:
100 MB/s ist vollkommen OK bei iSCSI über GB Ethernet. Trunken bringt Euch beim Backup z.B. nichts (Beim ESX ist jede Verbindung auf 1 GB begrenzt).

Ansonsten 10 GB Ethernet oder FC.

Lokale Platten sind natürlich schneller als GB Ethernet und wenn man nur EINEN ESX betreibt sicherlich die bessere/günstigere Lösung. Das SAN hat andere Vorteile....
Ergänzung ()

RAID 6 ist sicherlich nicht exotisch :-). Aber wenn da Sata platten in dem SAN laufen ist das wahrscheinlich auf eher ein großes NAS das als SAN missbraucht wird => Raid 6 ist sicherlich auch nicht die performanteste variante. Was aber bei der GB anbindung egal sein sollte.
 
Ne... ich hab auch SATA / SAS Mischbetrieb. Eine ganz normale Lösung wenn Daten zwar nicht schnell, aber doch hochverfügbar sein sollen. (z.B. Fileserver)
RAID6 ist einfach nötig bei SATA, da das Wiederherstellen einer SATA HDD im RAID ca. 10-15 Std. dauert. Fällt in der Zeit eine weitere aus, ist das RAID beim RAID5 weg, beim RAID6 gehts weiter.
 
Naja Das früher die Daten Lokal am Server sind ist mir klar.

Jedoch wurde von der Firma so getan als wäre das Hyperspeed , ich hab dennen gesagt ich halte FC für sinnvoller.
Das Problem ich war beteiligt am Projekt hab aber gesagt was ich will , nämlich Geschwidigkeiten.

Die Hardware habe ich dann bekommen ! Und das nenn ich nicht schnell.
Nur schein mir Trotzdem die Leistung für 40K Miserable.

Da wäre es gescheiter gewesen ich kauf ein Server mit Internen Platten.
Also von den HDD Ich glaub alle also SAS wie auch SATA sind in Raid 6 konfiguriert , und ich kenne auch nur Raid 5 als Standart.

Natürlich könnt ich sagen wir machen Raid 1 was einen Performanceschub gibt da verlier ich dafür die Hälfte der Platten und ich hab sie damals zu sehr Teuren Preisen gekauft.

Die 2 HP sind doch eh getrunkt , trotzdem nur 100MB ???
 
Die Switche sind ggf. mit einem Trunk verbunden, aber das hilft dir ja nicht.

Im Endeffekt ist also alles in Ordnung. Der Fehler lag, wie fast immer, in nicht eindeutigen Kundenanforderungen.
Wenn du konkret FC mit z.B. 8 Gbit hättest haben wollen, dann hättest du das spezifizieren müssen. Wenn du exakte Vorstellungen über die Bandbreite gehabt hättest, dann hättest du die ebenso genau angeben sollen.

Wenn das passiert ist und die es einfach anders gebaut haben, dann würd ich denen auf den Tisch kacken. Ansonsten wars euer Fehler.
 
Ich würdes nicht unbedingt auf den Kunden schieben... Kunden haben nicht immer Ahnung was sie wollen... verkauft man nem Kunden dann ein SAN mit SAS und bindet das bewusst über 1Gbit LAN an, finde ich das schon frech.

Genau dafür geht man ja zum Systemhaus... sonst könnte man das ja auch selber machen.
Man kauf KnowHow, Dienstleistung, Software & Hardware als Paket.
 
Zurück
Oben