Netzwerkgeschwindigkeit erhöhen

PC FREAKY

Commander
Registriert
März 2010
Beiträge
2.250
Hallo zusammen,

ich suche aktuell eine Lösung bei uns in der Firma (kleine Firma mit 3 Mitarbeitern) die Netzwerkgeschwindigkeit zu erhöhen.
Es geht hierbei um die Verbindung vom Server zu den beiden Hauptarbeitsplätzen.
Aktuell ist hier eine Standard Gigabit Verbindung über einen Switch.
Für unsere Wawi (Orgamax) ist mir die Verbindung jedoch zu langsam, da die Wartezeiten zu hoch sind.

Daher habe ich hier überlegt, auf 10 Gigabit aufzurüsten.

Was wird hier Hardware-Mäßig benötigt?
Ist der Unterschied bemerkbar?

Viele Grüße,
PC FREAKY
 
Server als Ursache konnte ausgeschlossen werden?
Selbst wenn nicht, kann ich mir nicht vorstellen, dass die Software so viele Daten auf einmal an einen Client schickt, dass die Leitung auch nur ansatzweise ausgereizt wird.
 
Oftmals hat man einen Markenserver mit Schrott inside. Zb nicht optimierte raids, die mit multiplen anfragen zu lahm sind. Oder Sicherheitssoftware, die jedes Bit in die Hand nimmt und alles ausbremst.
Für die wawi kommt man sicherlich nicht auf 120MB/s um gb-lan auszureizen.
 
Nicht dass es die Platten im Server sind .... Du hast mal auf die Auslastung der Netzwerk-Verbindung geschaut?


Aber ansonsten ist es nix anderes an Hardware als Du jetzt hast.

10GB Netzwerkkarte für den Server und die Clients, einen passenden Switch und Transceiver für das für Dich passende Medium.

Oder falls Du es erst mal direkt versuchen möchtest, 10GB Netzwerkkarten für Client und Server (Server halt dann eine Dual-Karte, damit Du beide Haupt-Clienten drann bekommst), passende Transceiver für das von Dir verwendete Medium und das Medium zwischen den Karten.

Nur zum testen muss das auch gar nicht teuer sein.
Gebrauchte 10GB-Karten (die aus Servern ausgebaut wurden, weil sie z.b. nicht zu Infrastruktur gepasst haben) gibts für 30 Euro
https://www.servershop24.de/kompone...mBLwgndO-ZO0EoUG-aYr7dEBLl_la8zuhIaAppU8P8HAQ
Passende Transcceiver dazu für noch mal die gleiche Kohle. LWL dazwischen uns los gehts.
 
Zuletzt bearbeitet:
Server-SSDs sind nicht gerade billig und Consumer-SSDs bekommt man je nach Controller, OS und Nutzung sehr schnell durch... Oft reichen schon 10k oder 15k rpm Platten und/oder mal die Settings des Controllers korrigieren/optimieren oder ob nicht ggf. CPU oder RAM der Flaschenhals ist oder vielleicht ist auch einfach die Software nicht der Hit und ist das Limit.
 
Da kann vieles limitieren, aber mit an Sicherheit grenzender Wahrscheinlichkeit ist es nicht das Gigabit-Netzwerk. Der Unterschied wird also nicht bemerkbar sein, nein.
 
Hallo,

es läuft schon alles auf dem Server wie auch auf den Clients auf SSD's (Samsung 830 bzw. 830)

Der Rechner selbst ist eigentlich nie ausgelastet und alle Vorgänge gehen bei Nutzung der Software am Server deutlich schneller wie auf den Clients.

Gibt es eine vernünftige Software um die Netzwerkauslastung zu messen?

Lt. Usern im Forum von Orgamax, schiebt das Programm wohl ständig riesige Teile der Datenbank durchs Netz bei Erstellung von Vorgängen.

Viele Grüße,
 
GBit sind und bleiben immer noch 100 MegaByte / sec. Das ist in solchen Szenarien ganz selten der Flaschenhals. Das gilt auch für Orgamax, denke ich. Wo es da hakt, das gilt es jetzt heraus zu finden.

Wie viel Traffic ein NIC verursacht hat, das kannst Du über die Eigenschaften der Netzwerkkarte sehen. Das sollte schon fast reichen um einschätzen zu können, liegts am GBit.

Eine Aufrüstung auf 10 GBit, auch für nur 3 Rechner, die kostet einige Hundert €. Nur an Hardware. Und dann kommt noch idR die neue Verkabelung dazu.
 
Zuletzt bearbeitet:
Problem nicht analysiert aber Geld drauf werfen wollen :D

Mit ProcessExplorer oder ähnlichen Programmen kann man halbwegs den Traffic loggen. Der Taskmanager ist da aber auch nicht ganz schlecht. Wenn eine Abfrage da Sekunden dauert und die Netzwerkschnittstelle saturiert, ist es deutlich was limitiert. Wäre auch ein Test Abfragen über Netzwerk und lokal auszuführen. Wenn es da große Unterschiede gibt, ist das ein Indiez.

Ansonsten sollten Datenbanken wenn immer möglich Abfragen immer aus dem Ram bedienen können. Alles was auf SSD oder HDD geht ist einfach schon ein Nachteil. Wenn bei Abfragen die keine Bilder / Medien* enthalten der Festspeicher großartig belastet wird sollte man dafür sorgen, dass die Datenbank im Ram liegt. Also mehr Ram oder aber die Config der DB anpassen.


Ansonsten gibt es immer die Möglichkeit, dass die Anwendung einfach nicht gescheit optimiert ist und man Hardware draufwerfen kann wie man will und der Kram trotzdem nicht schneller wird.

*Bilder und Medien wirft man normalerweise nicht in die Datenbank.
 
Wenn ich mir den Thread so durchlese könnten mir 1000 Fragen kommen - zum Glück ist es aber nicht mein Problem.

Der Threadstarter weiß, dass die Netzwerkverbindung vom Server zum Client zu langsam ist. Weiß er aber auch, ob 1000Base-T überhaupt tatsächlich läuft oder nur 100Base-T2, weil die Verkabelung zum Beispiel fehlerhaft ist.

Weiß der Threadstarter, dass man unter Windows Server 2012 R2 vielleicht 2 oder mehr Gigabit-Netzwerkkarten im Server per NIC-Team https://technet.microsoft.com/de-de/library/hh831648(v=ws.11).aspx mit dem Switch verbinden kann?

Läuft im Server vielleicht eine i3-CPU oder Intel Pentium 2-Kerner?

Welches Betriebssystem läuft auf dem Server?

Also nur SSDs im Server (nicht, das Betriebssystem mit Daten eine HDD teilen muss?)

Es läuft auch keine Backupsystem, dass das System ausbremst.

Für ein Unternehmen mit 3 Mitarbeitern kann ich mir auch nicht vorstellen, dass das Netzwerk ausbremst - eher, dass schlecht konfiguriert wurde (Server und Software). Wenn man Datenbanken mit 100.000 bis 1 Mio. Datensätzen hat, muss die Datenbank ordentlich aufgebaut sein, sonst ist Performance auch bei teuerster Hardware ausgeschlossen.

Vielleicht werden auch Daten aus dem Internet abgerufen und die Verbindung ist zu langsam.

Aber: Der Threadstarter weiß, dass die Netzwerkverbindung vom Server zum Client zu langsam ist.

Mit Wireshark sollte man die Pakete die durch das Internet gehen sehen könnten - also die Datenmenge messen können. Ein 100 MBit-Internet ist immer noch fast 10 mal langsamer als das lokale Gigabitnetz.

Vielleicht ist die 200 Euro-Software ungeeignet. (Für 200 Euro kann man wohl keine hohen Ansprüche stellen.)

Für Wireshark muss der Switch und die Netzwerkkarte so eingestellt werden, dass man auch das sieht, was man will (Stichworte Portspiegelung und Promicuous Mode).
 
Zuletzt bearbeitet:
Also ne Datenbank mit 1Mio Datensätzen hat hat im Rahmen von normalen ERP-Systemen und typischen Anwendungsfällen solcher Software normalerweise überhaupt keinen Grund langsam zu sein. Genauso wie 3 Menschen mit manuellen Vorgängen keine Chance haben sollten irgend ein modernes Datenbanksystem überhaupt aus der Reserve zu locken.
 
Ich würde mal mit iperf/jperf bzw. netio das Netzwerk vom PC zum Server ausmessen. Wenn dabei 800-950 Mbit/s rauskommen, ist das Netzwerk als solches zumindest in Ordnung. Dauert dagegen ein Kopiervorgang von Daten von/zum Server länger, dann liegt das Problem woanders. iperf/jperf misst nämlich von RAM zu RAM, also ohne HDDs/SSDs.
 
Piktogramm schrieb:
Also ne Datenbank mit 1Mio Datensätzen hat hat im Rahmen von normalen ERP-Systemen und typischen Anwendungsfällen solcher Software normalerweise überhaupt keinen Grund langsam zu sein....

Also ich kenne eine (mysql?)-Datenbank mit 1 Mio. Datensätzen die ein gelernter Maurer eingerichtet hat - und - glaube mir - die ist langsam. Ich glaube aber nicht, dass der weiß was ERP ist. Von daher habe ich darauf geschlossen, dass die Datenbank bei 1 Mio. Datensätzen gut aufgebaut sein muss - wohl ein Fehlschluss von mir. Darin, dass man die Fehlerursache kennen sollte, bevor man investiert, sind wir uns aber alle einig.
 
Zuletzt bearbeitet:
Bei Datenbanken ist die Spanne von "funktioniert" zu "ist hoch optimiert" sehr breit. Bei Software für Unternehmensanwendungen aus professioneller Hand* sollte man aber davon ausgehen, dass die wichtigsten Regeln angewendet werden. Allein ein ordentlicher Index auf den wichtigsten Tabellen sorgt ja schon dafür, dass die Komplexität für einzelne Suchen von O(n) auf O(log n) runter geht. Bei 1Mio Datensätze würde das bedeueten, dass O(n) alle 1.000.000 Datensätze anpacken muss, während es bei O (log n) eben nur log 1.000.000 = 6 sind (etwas komplizierter ist es real schon, aber Voodoo ist es nicht und das ist nur eine (!) Möglichkeit um Performance zu schinden).

*Egal ob kommerziell oder openSource
 
Schon beim Design der Tabellen, Indizes, redudante Daten, etc. kann man soviele Fehler machen, dass eine Datenbank schon bei weniger Datensätzen a*chlahm wird. Als Laie - und ein Maurer IST ein Laie, wenn es um Datenbanken geht - tendiert man dazu, eine riiiiiiiesige Tabelle mit allen Daten zu erstellen. Von redundanten Daten, die eine Datenbank teilweise eindrucksvoll aufblähen können, weiß der nix..
 
Zurück
Oben