High End Gaming + Machine Learning PC

stephan902

Lt. Commander
Registriert
Okt. 2011
Beiträge
1.132
1. Möchtest du mit dem PC spielen?
  • Welche Spiele genau? …
  • Welche Auflösung? Genügen Full HD (1920x1080) oder WQHD (2560x1440) oder soll es 4K Ultra HD (3840x2160) sein? …
  • Ultra/hohe/mittlere/niedrige Grafikeinstellungen? …
  • Genügen dir 30 FPS oder sollen es 60 oder gar 144 FPS sein? …
Alles mögliche, 4k 160hz, ultra-high Settings.

2. Möchtest du den PC für Bild-/Musik-/Videobearbeitung oder CAD nutzen? Als Hobby oder bist du Profi? Welche Software wirst du nutzen?

Ja, Machine Learning (24h+ Dauerbelastung auf GPU) und Bildbearbeitung.

3. Hast du besondere Anforderungen oder Wünsche (Overclocking, ein besonders leiser PC, RGB-Beleuchtung, …)?

Kein RGB notwendig, so leise wie möglich. Kein Overclocking. Möglichst viele aktuelle Schnittstellen (10 GBit Ethernet und USB 4 Pflicht).

4. Wieviele und welche Monitore möchtest du nutzen? Anzahl, Modell, Auflösung, Bildwiederholfrequenz (Hertz)? Wird FreeSync (AMD) oder G-Sync (Nvidia) unterstützt? (Bitte mit Link zum Hersteller oder Preisvergleich!)

3 x 4k 120hz+.

5. Hast du noch einen alten PC, dessen Komponenten teilweise weitergenutzt werden könnten? (Bitte mit Links zu den Spezifikationen beim Hersteller oder Preisvergleich!)

Nein.

6. Wie viel Geld bist du bereit auszugeben?

Soviel wie nötig.

7. Wann möchtest du den PC kaufen? Möglichst sofort oder kannst du noch ein paar Wochen/Monate warten?

Ab sofort.

8. Möchtest du den PC selbst zusammenbauen oder zusammenbauen lassen (vom Shop oder von freiwilligen Helfern)?

Selbst zusammenbauen.

So sähe meine Konfiguration aus:
https://geizhals.de/?cat=WL-2713828

Ich bitte um Verbesserungsvorschläge, wo sinnvoll.
 
In Anbetracht dessen dass die Kosten für Grafikkarte und 990pro noch drauf kommen sicher eine Menge Geld erstmal.

Ich würde die 990pro nicht kaufen da es nur eine 4.0 ssd ist. Da würde ich auch auf das letzte bisschen gehen und warten bis der Markt 5.0 pcie ssd bedient wird .

Dauerbelastung auf graka klingt erstmal nie gut, und da würde ich definitiv auf eine fertige Version mit Wasserkühlung setzen wenn sie so beansprucht wird. Inkl sehr sehr guter Gehäuse durchlüftung.
 
Chesterfield schrieb:
In Anbetracht dessen dass die Kosten für Grafikkarte und 990pro noch drauf kommen sicher eine Menge Geld erstmal.

Ich würde die 990pro nicht kaufen da es nur eine 4.0 ssd ist. Da würde ich auch auf das letzte bisschen gehen und warten bis der Markt 5.0 pcie ssd bedient wird .
Aber irgendeine SSD muss ja rein und mit Samsung SSDs habe ich sehr gute Erfahrungen gemacht (noch keine ausgefallen).
 
Die auswahl sieht sehr gut aus ich würde nur zur Seagate Firecuda 530 tendieren anstatt der Samsung oder eben die 980 pro

Und da es eh alles PCI 4.0 NVME sind wirst du keine unterschiede merken und du sagst er Soll leise sein da würde ich dann anstatt Noctua lüfter eben Artic F14 nehmen und spart nochmal etwas geld
 
  • Gefällt mir
Reaktionen: BatCatDog
Die 990 Pro ist mei machine learning schwachsinn.
Ist egal ob du eine mx500 oder sonst was verbaust.

Wenn du ernsthaftes Machine learning machst, wirst du mit der 4090 auch nicht weit kommen.
https://www.galaxus.de/de/s1/product/pny-nvidia-a16-module-64gb-64-gb-grafikkarte-21168952
ist bei sowas deutlich sinnvoller..

stephan902 schrieb:
Aber irgendeine SSD muss ja rein und mit Samsung SSDs habe ich sehr gute Erfahrungen gemacht (noch keine ausgefallen).
aber dann doch bitte nicht eine die doppelt so teuer wie der rest, effektiv aber nicht schneller ist.
 
Benni1990 schrieb:
JOOOOOOO 4k so eine karte leck mich am arsch 🤣🙈
finde ich tbh ziemlich billig. Glaube kaum, dass die GH100 unter 15.000 Euro Lieste liegen wir. Mit etwas geschick bekommt man sie sicher auf 5000-6000 Euro gehandelt.. Aber joa. Gescheite karten fuur machine learning kosten halt geld
alternativ halt:
https://www.galaxus.de/de/s1/produc...-bandbreite-2-hbm2-4096-bi-32-gb-gr-20425182?

was sinnvoll ist und was nicht kommt halt auf den workload an
 
madmax2010 schrieb:
finde ich tbh ziemlich billig. Glaube kaum, dass die GH100 unter 15.000 Euro Lieste liegen wir. Mit etwas geschick bekommt man sie sicher auf 5000-6000 Euro gehandelt.. Aber joa. Gescheite karten fuur machine learning kosten halt geld
Die 4090 ist der beste Kompromiss aus ML- und Gaming-Tauglichkeit, denke ich.
 
Wow echt heftig aber gut diese karten werden vermutlich nur für den einen zweck gut sein und haben mit spielen etc nicht mehr zutun?
 
stephan902 schrieb:
Aber irgendeine SSD muss ja rein und mit Samsung SSDs habe ich sehr gute Erfahrungen gemacht (noch keine ausgefallen).
die frage ist ob es eine andere wie die 970 evo plus auch nicht tut, wenn es eine Samsung sein soll? behaupte mit PCI 4.0 wirst du keine unterschiede zw den platten merken auch wenn die IOPS bei der 990pro echt gut sind laut datenblatt.

wenn du das Geld "übrig" hast klar kann man auch die 990pro kaufen aber kaufbar ist auch die nicht aktuell. und wenn sie kaufbar sein wird, könnten auch die ersten 5.0 nvme ssd´s erhältlich sein
 
Chesterfield schrieb:
die frage ist ob es eine andere wie die 970 evo plus auch nicht tut, wenn es eine Samsung sein soll? behaupte mit PCI 4.0 wirst du keine unterschiede zw den platten merken auch wenn die IOPS bei der 990pro echt gut sind laut datenblatt.

wenn du das Geld "übrig" hast klar kann man auch die 990pro kaufen aber kaufbar ist auch die nicht aktuell. und wenn sie kaufbar sein wird, könnten auch die ersten 5.0 nvme ssd´s erhältlich sein
Wenn PCIe 5.0 SSDs bis zur Verfügbarkeit der 4090 verfügbar sein sollten, wird es entsprechend so eine.
 
madmax2010 schrieb:
Wenn du ernsthaftes Machine learning machst, wirst du mit der 4090 auch nicht weit kommen.
https://www.galaxus.de/de/s1/product/pny-nvidia-a16-module-64gb-64-gb-grafikkarte-21168952
ist bei sowas deutlich sinnvoller..

Wow, du hast dir die wahrscheinlichst dümmste GPU im kompletten Ampere Lineup rausgesucht, gucke dir nochmal den Usecase zu der an, AI ist da nämlich nicht dabei. Ist für die Virtualisierung von vielen GPUs in Servern gedacht und besteht aus 4 GPUs mit je einem mickrigen 128bit Speicherinterface 16Gb.

Da macht ne 3090/4090, oder wenn man aufs Professionelle gehen will A5000/5500/6000 deutlich mehr Sinn.

Edit: komplett abgesehen davon die in ner Workstation zu kühlen
 
Deathangel008 schrieb:
die sind doch beide was die kühlung angeht nicht für "normale" rechner geeignet.
Sind die 4090 zur Zeit auch nicht wirklich. Aber Du hast recht, die Kühlung bei den Dingern ist massiv, deswegen findet man die auch meist in Workstations oder Servern, da spielt die Lautstärke keine Rolle.

Wahrscheinlich dürfte eine 4090 die für ML mißbraucht wird permanent die volle Wattzahl nehmen und wenn nicht eine exorbitant gute Kühlung vorhanden ist dauerhaft das Geräusche einer Flugzeugturbine von sich geben.

Haben ja grad was dazu auf der Startseite: https://www.computerbase.de/2022-05/next-gen-grafikkarten-gehaeuse-kuehlung/ und einmal was zu neuen Netzteilen für neue Grafikkarten.

MfG
 
Zuletzt bearbeitet:
Chesterfield schrieb:
die frage ist ob es eine andere wie die 970 evo plus auch nicht tut, wenn es eine Samsung sein soll? behaupte mit PCI 4.0 wirst du keine unterschiede zw den platten merken auch wenn die IOPS bei der 990pro echt gut sind laut datenblatt.

wenn du das Geld "übrig" hast klar kann man auch die 990pro kaufen aber kaufbar ist auch die nicht aktuell. und wenn sie kaufbar sein wird, könnten auch die ersten 5.0 nvme ssd´s erhältlich sein
ML braucht massiv IOPS, da würde ich nicht zu einer 970 EVO greifen.
Ich würde da eher eine Samsung PM1735 oder ähnliches nehmen.
 
  • Gefällt mir
Reaktionen: stephan902
BatCatDog schrieb:
Wow, du hast dir die wahrscheinlichst dümmste GPU im kompletten Ampere Lineup rausgesucht, gucke dir nochmal den Usecase zu der an, AI ist da nämlich nicht dabei. Ist für die Virtualisierung von vielen GPUs in Servern gedacht und besteht aus 4 GPUs mit je einem mickrigen 128bit Speicherinterface 16Gb.

Da macht ne 3090/4090, oder wenn man aufs Professionelle gehen will A5000/5500/6000 deutlich mehr Sinn.

Edit: komplett abgesehen davon die in ner Workstation zu kühlen
Die 4090 wird es für mein ML tun, da bin ich sicher. Wenn ich die Trainingszeit ggü. meiner aktuellen 1070 auf 20%-25% ggü. vorher reduzieren kann, wird das vollkommen reichen.
Die RTX 4090 hat so viele schnelle Tensorcores (mehr als eine A100), da mache ich mir wenig Sorgen. Vermutlich wird sie ähnlich schnell wie eine A100 im ML sein (wo der RAM reicht). Das einzige, was etwas schade ist, ist dass die neue Generation eben nicht mehr RAM bekommen hat.
Also nehmen wir die 4090 mal als gesetzt an, bevor die Diskussion hier ausartet.

Ich habe das Define XL + 9 Lüfter gewählt, damit das System im Idle und bei niedriger Last durch die Dämmung an der Front garantiert leise ist, aber unter voll Auslastung genügend Kühlung hat. Ich weiß nicht, ob ich hier mit dem Torrent besser fahren würde.
 
Zuletzt bearbeitet:
stephan902 schrieb:
Die 4090 wird es für mein ML tun, da bin ich sicher. Wenn ich die Trainingszeit ggü. meiner aktuellen 1070 auf 20%-25% ggü. vorher reduzieren kann, wird das vollkommen reichen.
Solange du mit dem VRAM klar kommst und dein Modell in den Speicher passt sollte sie schneller sein als alles bis auf die H100, aber deine Anforderungen wirst du da am besten kennen.
 
Zuletzt bearbeitet: (Zitat gekürzt)
stephan902 schrieb:
Ich weiß nicht, ob ich hier mit dem Torrent besser fahren würde.
Darf ich Dir nochmals https://www.computerbase.de/2022-05/next-gen-grafikkarten-gehaeuse-kuehlung/ ans Herz legen, da gibt es auch mittlerweile eine Kaufempfehlung glaube ich und das Torrent ist ebenfalls getestet.

Und nicht vergessen ein anderes Netzteil zu wählen. ATX3.0 sollte es für eine 4090 sein sofern die schon zu kriegen sind. Auch hier was zum lesen : https://www.computerbase.de/2022-09...er-steckverbinder-auch-ohne-adapter-moeglich/.

MfG
 
Zurück
Oben