10Gbit Client/Server SQL?

MPPS = Mega Packet Per Second (= Millionen pro Sekunde).

Je höher, desto besser. Je mehr Ports ein Switch hat (bzw. je schneller die einzelnen Ports) desto höher sollte seine MPPS Zahl also auch liegen.
 
bei dem einen Dingen steht irgendwie nur Mp/s.. beides Ciscos mit 48Ports, liegen nur 10 Jahre Entwicklung dazwischen :-).
 
MP/S ist das selbe wie MPPS.

Ob ich z.B. schreibe ich habe 10Gbit/s oder ich habe 10Gbit per Second ist das gleiche ;).

Man könnte z.B. auch sagen dein Auto schafft 200km/h oder dein Auto schafft 200km in der Stunde, ich denke du weißt worauf ich hinaus will :D.
 
alles klar :-).
der alte war etwas teurer.. hat sich schon irgendwie was getan..
dachte das teil kann noch 20 Jahre darum hängen :-)
 
wern001 schrieb:
natürlich wird das Byte schneller übertragen. Aus diesem Grund ist der Ping von 10 mbit, 100 mbit und 10 gbit unterschiedlich.
Ähm nein.
Der Ping wird besser, weil die ganze Kontrollogik schneller wird und nicht weil mehr Bandbreite da ist, bzw das geht völlig unter.

Nur mal so bei 1GBit brauchst du für 1Byte 8ns um Sie los zu schicken und mit 10G halt 0.8ns. Klar Faktor 10 aber an der Gesamtzeit völlig egal.

Ok jetzt kommst du und sagst Ethernet schickt aber mindestens 64 Byte. Klar, aber dann sind es halt 512ns vs 51,2ns. Du siehst selbst die Leitungslänge ist da in nem ähnlichen Bereich 1ns pro Meter wenn ich es richtig im Kopf habe. Wobei Wandlung in optischen Modulen nochmals was drauf haut. Daher auch lieber DAC nehmen statt optischen wenn möglich und man niedrige Latenzen will. Aber da geht es um ns max us. Wenn du bei Ethernet bleibst, dann kannst du das alles aber auch einfach unter den Tisch fallen lassen, weil du eh schon schlechte Latenzen. Würde das relevant sein wüsstest du es und hättest IB. Es sei denn du hast natürlich Verbindungen über Dutzende Kilometer+

Was nen guter Anhaltspunkt ist ist die Packagerate. Da fehlt dann nur noch Kabel etc. Man bekommt aber die untere Grenze, wobei man halt wisse. Muss wann man aufs zweite Packet muss.

Aber an sich ja egal, weil Latenz wird ja mit 0 Byte payload gemessen. Also z.b. Ping.

Wichtig ist das der switch schnell ist und damit meine ich nicht die datenrate sondern die pakete/sek. Ist halt schon ein unterschied ob ein switch 10.000 oder 100.000 Pakete/sek schafft
Jaein. Er wird besser sein in der realen Welt, aber apriori klar sein muss das nicht. Siehe IB vs Ethernet.

Und klar mit unterschiedlichen Techniken können unterschiedliche Latenzen erreicht werden. Man kommt aber nicht unter die Leitungslatenz + Latenz ein Flit/Packet zu übertragen.
 
was bedeutet eigentlich IB?
 
Er meint sicherlich InfiniBand. Das sind spezielle Anwendungsformen und Protokolle und sollten nur als Beispiel dienen. BTW: Ich nutze bei uns RoCE v2 für SAN ;).

Das sind aber Dinge die Kosten ne menge Geld und beziehen sich in diesem Beispiel auf Storage über Ethernet oder Infiband, da sind Latenzen immens wichtiger als bei klassischem Ethernet Netzwerken bzw. Datenverkehr wie du ihn benötigst. Das ist quasi eine Ebene darunter.
 
ja gut, wenn der storage außerhalb liegt, macht das auch sinn?
bei uns ist er direkt angebunden. ohne das hätte man doppelt latenzen?..
 
Worum geht es denn nun - sind tatsächlich 1GbE über SFP+ gemeint oder doch irgendwie mehr? :confused_alt:

1GbE über Kupfer ist völlig egal ob das SFP+ ist oder RJ45, nur daß ersteres die einiges teurere Option ist. Wenn schon SFP+, dann möglichst auch mehr. 😁

Natürlich schicken DBMS nicht besonders viel übers Netz. Die Anfragen sind minimal, die Antworten in Relation zum Aufwand auch. DBMS arbeiten eher lokal.

Wenn es jetzt Replikation und sowas gibt: Extra Interface, gerne mit >1GbE.

Wenn nicht, auf RJ45 zurück und das gesparte Geld für performantere Hardware ausgeben (reicht sicher hust).

In jedem Fall ist bei DBMS zu fragen, exakt wer denn der Client ist. Anwender-PCs sind es in den allermeisten Fällen nicht und wenn doch, ggfs. überdenken, ob das wirklich notwendig war.

Und im Hinblick darauf, daß der DBMS-Client üblicherweise der Application Server war, mag insgesamt die 10GbE Option doch noch die bessere sein. Allerdings nicht "wegen DBMS".
 
Sebbl2k schrieb:
ja gut, wenn der storage außerhalb liegt, macht das auch sinn?
bei uns ist er direkt angebunden. ohne das hätte man doppelt latenzen?..
So siehts aus, das ist für SAN gedacht. Wenn der Storage außerhalb des Servers liegt und sich mehrere Server den gleichen Storage teilen. Das geht aber hier viel zu weit und darüber brauchen wir hier auch nicht sprechen, dein Speicher ist im Server verbaut und dort ist er auch gut aufgehoben :).
 
Interessanter, wieso schlägt hier eigentlich Niemand vor, den Server, dessen Netzwerkverbindung und den SQL-Server einfach mal gescheit zu Monitoren und herauszufinden, ob es kritische Stellen gibt, bei denen es lohnt Hardware oder Softwareoptimierung anzuwenden?
Gerade beim Netzwerk ist das doch simpelst. Ist der Netzwerkport immer mal wieder für >1s über 60% Ausgelastet wäre es ne Option den Server mit einem dickeren Uplink auszustattet bzw. einfach 1Gbe Ports zu bündeln.

Aber anstatt Diskussionen zur Bestandsausnahme geht es um Signalgeschwindigkeiten auf dem Leiter -.-
 
  • Gefällt mir
Reaktionen: foo_1337
Dann hast du Seite 1 scheinbar nicht komplett gelesen, das wurde bereits mehrfach vorgeschlagen ;). Siehe Post 6, 10 und 15.
 
Stimmt, SNR war nach den ersten Beiträgen so hoch, dass ich nur überflogen habe. Den "mal messen" Nebensatz übersehen :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: holdes
ausser das mir die sicherung zu lange dauert (und das ist schlicht ein bandbreitenproblem), bin ich soweit sehr zufrieden.
natürlich wäre eln Arbeiten, wo jede Anwendung in einer Sekunde aufgeht, angehnemer. Aber das wird wohl nicht möglich sein.
ich hab neulich eine 8 jahre alte pcie ssd gegen elne neue samsung pro ausgetauscht und merke fast nichts.. bench natürlich viel besser.
prozessor ist ein 12700k.
 
Hast du mal nachgesehen ob beim sichern des SQL Servers wirklich dessen Netzwerkbandbreite begrenzt? Falls das wirklich so sein sollte und auch deine Platten im Backup Server genug Geschwindigkeit/Kompression handlen können spricht eigentlich nichts dagegen hier auf 10G zu gehen sofern es dich nicht arm macht. Ein schnelleres Backup (und im Zweifel auch Desaster Restore) kann nicht schaden.

Mit welcher Software wird der denn eigentlich gesichert? Deine Eingangsfrage bezog sich ja eher auf den Nutzen gegenüber der Clients vom Server.

Das mit deiner SSD ist wieder son Datenträgerthema. Natürlich merkst du das beim "normalen" Usecase nicht, sofern der nicht aus dem häufigen kopieren großer Dateien besteht. Die einfache OS Nutzung profitiert eher von der Latenz und die ist sowohl bei deiner alten als auch neuen SSD wahrscheinlich recht ähnlich.
 
Hi, also wenn ich es umrechne, begrenzt die Leitung.
Auch wäre es für die Softwareverteilung vorteilhaft, da hier regelmäßig am Limit geschlagen wird (das beobachte ich auch). Die Kosten halten sich in Grenzen und ich habe das Zeug auch schon gekauft.

Insbesondere die Aussage hatte mich auch etwas irritiert:
"Ordentliche 10GB/s - Karten von Broadcom oder Intel, idealerweise als Direktverbindung zwischen Terminalserver und File/DB, sorgen auf getrennter Hardware für eine ordentliche Beschleunigung."

Aber das ich inzwischen halbwegs verstanden.

Ist Latenz in etwa gleichzusetzen mit I/Os? Da hätte die Pro auch wesentlich mehr zu bieten.. aber es kommt halt nicht richtig an.

Multicore und SSD war vor über einem Jahrzehnt der letzte wirkliche "boost".
10gbit habe ich vor 15 Jahren über ein etwas exotisches "Billig"-Raid5 geschoben.. das war sehr träge, aber immerhin dicke "Bandbreite".
 
Moment mal, eines irritiert mich doch sehr. Was meinst du mit Softwareverteilung? Ist der SQL Server etwa auch gleichzeitig noch für andere Dienste zuständig? Ist der virtualisiert? Softwareverteilung auf Clients oder den SQL Server?

IOPS sind was anderes als Latenz, das eine hängt aber immer irgendwo auch vom anderen ab.

Irgendwie schweifst du von deinen eigentlichen Fragen etwas ab und stellst dann neue in den Raum :D.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Skysnake
Piktogramm schrieb:
Stimmt, SNR war nach den ersten Beiträgen so hoch, dass ich nur überflogen habe. Den "mal messen" Nebensatz übersehen :)
Es wurde zich mal gesagt, das er messen soll/muss. Es ist ja aber bis jetzt nicht klar, was er denn wirklich macht, Hardware wurde aber schon beschafft.

Das klingt für mich nach dem klassischen Fall wo einfach mal auf Verdacht gekauft wurde bei nem Problem und jetzt stellt sich nicht das gewünschte Ergebnis ein, man muss aber die Ausgabe rechtfertigen. Zumal der nächste Schritt auf Verdacht dann doch zu schmerzhaft ist
 
bei softwareverteilung und backup wird es in jedem fall was bringen.. ich muss auch generell nichts rechtfertigen... wollte eigentlich nur wissen, ob die clients (1gbit) bei sql-abfragen vom server (10gbit) anbindung profitieren. u.a. deswegen:
"Ordentliche 10GB/s - Karten von Broadcom oder Intel, idealerweise als Direktverbindung zwischen Terminalserver und File/DB, sorgen auf getrennter Hardware für eine ordentliche Beschleunigung."

ich arbeite selbst in der umgebung als mehr oder weniger hardcorenutzer.

ich warte noch auf ein stück hardware. dann schau ich nächste woche mal.

wie soll ich vernünftig messen? soll ich von 30 verschiedenen stellen ständig pakete zum server schicken und die ergebnisse dann loggen? ich dachte da könnte man schon so etwas zu sagen.. aus der praxis.
 
Zuletzt bearbeitet:
Natürlich musst du nichts rechtfertigen, das hat auch niemand irgendwo verlangt. Wenn du aber Fragen stellst die Rückfragen aufwerfen wäre es ja durchaus nett diese zu beantworten sonst kann man dir nicht helfen so sehr man es auch gerne würde.

Wir haben schon ausgeführt, dass diese Aussage die du da zitierst einfach pauschal nicht korrekt ist. Da du uns aber zu deiner Umgebung gar nichts erzählst kann man auch in keinster Weise irgendwie sagen ob und was da Sinn macht.

Du hast jetzt wieder die nächsten Fragezeichen in den Raum geworfen... Was ist denn jetzt Hardcorenutzer? Ich dachte du administrierst den Server in irgendeiner Form. Als reiner User kannst du natürlich gar nichts unternehmen. Abgesehen davon weiß niemand ob diese Umgebung nun produktiver Natur ist oder einfach nur ein Experiment auf einer Kiste die bei dir zuhause steht.

Wie du messen sollst? Ja wie soll dir das jemand beantworten? Wir wissen nach wie vor rein gar nichts über deine Umgebung und was du dort überhaupt tun kannst/darfst. Messmethoden gibts reichlich um Performance auf Servern/PCs/Netzwerk zu analysieren. Wenn ich dir jetzt erklären wollen würde wo bei unseren Produktivumgebungen ein Flaschenhals existiert, nützt dir das für deine Umgebung einfach nichts. Ein Tipp aus der Praxis ist dahingehend also unmögliche Kaffesatzleserei.

Mit jeder Frage die hier neu aufkommt habe ich das Gefühl du bist Fachfremd bzw. kennst du einige Basics überhaupt nicht. Wir können hier schlecht eine Art Schulung über jedes Thema was parallel aufkommt vornehmen.

Das ist nicht böse gemeint und ich hab versucht dir irgendwie deine ganzen Fragen nebenher zu beantworten, aber leider hast du auf keine Rückfrage weder von mir noch anderen in irgendeiner Form geantwortet. Ich habe jedenfalls keine Geduld mehr und vielleicht findest du jemanden der dir bei dem dem was auch immer du eigentlich suchst behilflich sein kann, ich bin jetzt hier raus.
 
  • Gefällt mir
Reaktionen: Piktogramm
Zurück
Oben