Grafikkarte für ITX Build (Non Gaming)

computerfreak89

Cadet 1st Year
Registriert
März 2024
Beiträge
9
Hallo zusammen,

Ich möchte mir für mein Büro einen neuen PC zusammenbauen, der primär für Software-Entwicklung (hauptsächlich Web-Anwendung, aber eventuell auch Spieleentwicklung mit Unity) genutzt wird. Dazu möchte ich mich in das Thema AI bzw. LLMs einarbeiten und suche dafür noch eine geeignete Grafikkarte; diese sollte mindestens 16GB VRAM haben. Von meiner Frau könnte ich folgende Komponenten übernehmen:

  • Intel i5-13400
  • ASRock Z790M-ITC/Wifi
  • Samsung 980 Pro 1 TB SSD


1. Wie viel Geld bist du bereit auszugeben?
Ich möchte bewusst kein Budget angeben, da ich mir selbst noch nicht sicher bin, welche Investition sich lohnt. Idealerweise sollte die Karte aber deutlich unter 1.000,- € kosten.

2. Möchtest du mit der Grafikkarte spielen?
  • Keine Spiele
3. Möchtest du die Grafikkarte für spezielle Programme & Anwendungen (z.b. CAD) nutzen? Als Hobby oder bist du Profi? Welche Software wirst du nutzen?
  • AI Entwicklung mit Python (Pytorch, TensorFlow, etc.), llama.cpp
  • Eventuell Spieleentwicklung mit Unity
  • Gelegentlich Foto- und Videobearbeitung mit Capture One, Photoshop und Davinci Resolve
4. Hast du besondere Wünsche bezüglich der Grafikkarte? (Lautstärke, Anschlüsse, Farbe, Hersteller, Beleuchtung etc.)
Die Karte bzw. das ganze System sollte möglichst leise sein.

5. Wann möchtest du die Karte kaufen? Möglichst sofort oder kannst du noch ein paar Wochen/Monate warten?
Sobald wie möglich.

Als Gehäuse kommen in Frage:
  • Lian Li Q58
  • Hyte Revolt 3
  • Phanteks Evolv Shift XT

Als Grafikkarte kommen folgende in die engere Auswahl:
  • Nvidia 4070 Ti Super 16GB
  • AMD 7800 XT 16GB
  • Intel Arc 770 16 GB

Fragen:
  • Macht es Sinn, ein System auf Basis der oben genannten Komponenten aufzubauen oder sollte ich mir für meine Anwendungszwecke lieber etwas leistungstärkeres suchen?
  • Für AI scheint ja wohl NVIDIA das Non-Plus-Ultra zu sein. Mit welchen Einschränkungen müsste ich leben, wenn ich mich für eine AMD oder Intel-Karte entscheide?
  • Welche Grafikkarte würdet ihr für mein Anwenungsgebiet nehmen?

Über Tipps und Ratschläge freue ich mich sehr.

Danke schon mal im Voraus ;-)

Liebe Grüße
Robin
 
Willkommen

computerfreak89 schrieb:
Von meiner Frau könnte ich folgende Komponenten übernehmen:

  • Intel i5-13400
  • ASRock Z790M-ITC/Wifi
  • Samsung 980 Pro 1 TB SSD
Wie kommt es denn dazu, dass solch aktuelle Hardware übrig ist?

Was NVidia anbelangt, so ist die 4070 Ti Super mit Abstand die stärkste Karte mit 16GB. Die 4060 Ti 16GB ist weit entfernt davon, für ihre Leistung günstig zu sein, jedoch kostet sie erheblich weniger als die 4070 Ti Super.

computerfreak89 schrieb:
Für AI scheint ja wohl NVIDIA das Non-Plus-Ultra zu sein.
Das denke ich ebenfalls.
 
Ich glaube hier würde ich die 4060 Ti 16 GB zur Hälfte des Preises einer 4070 Ti Super dann doch eher vorziehen...
 
Bei beruflicher Anwendung würde ich nicht sparen, da man die eigene Wartezeit (auf Ergebnisse) ja auch monetär bewerten muss.
 
Danke erstmal für eure Antworten ;-)

Zwirbelkatz schrieb:
Wie kommt es denn dazu, dass solch aktuelle Hardware übrig ist?
Ganz einfach: Wir hatten letztes Jahr für meine Frau einen PC zusammengebaut und sie hat nun festgestellt, dass ein Laptop eher etwas für sie ist...

Zwirbelkatz schrieb:
Was NVidia anbelangt, so ist die 4070 Ti Super mit Abstand die stärkste Karte mit 16GB. Die 4060 Ti 16GB ist weit entfernt davon, für ihre Leistung günstig zu sein, jedoch kostet sie erheblich weniger als die 4070 Ti Super.
Hm. Die 4070 Ti Super wäre sicherlich optimal, allerdings mit > 800,- € schon deutlich über dem, was ich eigentlich ausgeben wollte. Die 4070 Ti Supoer hat laut Datenblatt 703 Tensor Cores, die 4060 Ti 353 Tensor Cores. Kann man also sagen, dass die 4070 Ti Super grob doppelt so schnell ist oder habe ich da einen Denkfehler? Leider beziehen sich die meisten Reviews nur auf Gaming und nicht auf KI-Anwendungen ;-(
Iarn schrieb:
Bei beruflicher Anwendung würde ich nicht sparen, da man die eigene Wartezeit (auf Ergebnisse) ja auch monetär bewerten muss.
Sehe ich prinzipiell genauso. Allerdings mache ich momentan weder mit Spieleentwicklung noch mit KI-Entwicklung Geld; derzeit verdiene ich mein Geld mit .NET Anwendungen und dafür brauche ich genau genommen nicht einmal eine dezidierte Grafikkarte.
 
computerfreak89 schrieb:
Allerdings mache ich momentan weder mit Spieleentwicklung noch mit KI-Entwicklung Geld;
computerfreak89 schrieb:
Eventuell Spieleentwicklung mit Unity

Hier liegt mMn doch das Grundproblem: Du scheinst dir noch nicht einmal sicher zu sein, OB du Spiele entwickeln willst.
Wenn ja, dann wäre für mich eine potente GPU Pflicht, denn du willst das Spiel ja nicht nur programmieren, sondern auch testen. Wenn die GPU für den Test nicht reicht, dann wird noch ein zusätzlicher Gaming-PC benötigt.

Werde dir klar, welchen Weg du gehen willst und entscheide danach.
 
Hm. Das Thema Spieleentwicklung wird höchstens in 2-3 Jahren relevant; es ist eher ein Thema, wo ich mich gerade noch einarbeiten muss/will. Ich denke aber nicht, dass ich damit Geld verdienen werde. Im Gegensatz mit ML/KI Entwicklungen. Leider gibt es diesbezüglich kaum Reviews der Grafikkarten.

Kann jemand eigentlich was zur Arc 770? Wie performt die bzgl. ML?
 
Wenn einiges davon Zukunftsmusik ist, probiere erst mal eine RTX 4060 Ti 16GB aus.


Ich hoffe, diese Links helfen dir weiter:
www.pugetsystems.com

Bester PC Bildbearbeitung & Videoschnitt - PC Kaufberatung 2023


computerfreak89 schrieb:
Wir hatten letztes Jahr für meine Frau einen PC zusammengebaut und sie hat nun festgestellt, dass ein Laptop eher etwas für sie ist...
Ok, alles klar. Diese Hardware solltest du dann einfach verwenden.
Es wäre ein naheliegender Schluss.
 
Danke für deinen Link. Den werde ich mir mal in Ruhe durchlesen und dann eine Entscheidung treffen.

Wenn ich mal ein größeres ML-Projekt habe und damit Geld verdiene, dann werde ich eh Ressourcen bei AWS anmieten, um das Modell zu trainieren etc. D.h. der lokale Rechner wäre halt "nur" zum Entwickeln und Experimentieren da.
 
Hm. Preislich fände ich eine 7800 XT oder auch eine 7900 XT deutlich attraktiver, zumal letztere auch nochmal 4GB mehr VRAM hat. Eigentlich wollte ich keine > 900,- € für eine Grafikkarte ausgeben. Zu Hause habe ich aktuell eine 3060 TI mit 8 GB VRAM, die reize ich momentan auch nicht wirklich aus.

Mit welchen Einschränkungen müsste ich denn leben, wenn ich mich für eine der beiden AMD-Karten entscheiden würde?

Kann jemand noch was zur Intel ARC 770 sagen? Wie verhält sich die in Punkto KI-Anwendungen im Vergleich zu den anderen genannten Karten?
 
computerfreak89 schrieb:
Mit welchen Einschränkungen müsste ich denn leben, wenn ich mich für eine der beiden AMD-Karten entscheiden würde?
Mit sehr eingeschränkten KI-fähigkeiten und wenig auswahl an entwicklungstools dafür.
Wenn Du ernsthaft mit ml/dl etc arbeiten willst, kommst du an NVIDIA nicht vorbei, weil der Support dafür einfach besser ist. Hier ist NVIDIA einfach der Platzhirsch.
Selbiges gilt auch für Adobe oder Blackmagic. Unity geht auch mit AMD ganz gut.

Intel Arc würde ich auch nicht nehmen, Weil die immer noch mit treiberproblemen zu kämpfen haben, was für die Spieleentwicklung problematisch werden könnte. Und besonders effizient sind die auch (noch) nicht
Für Anwendungssoftware und Video ja, kannste machen. Für Spieleentwicklung: nein

Da es ein ITX system sein soll, bist du aber in der Auswahl ziemlich eingeschränkt.
Ideal für Dich wäre eine RTX 4000 SFF, oder zumindest RTX A4000, die sind allerdings auch etwas über deinem Budget.

Da 16 GB eigentlich das minimum sind, um einigermaßen vernünftig mit KI arbeiten zu können, kommen eigentlich nur noch eine 4070 TI super oder eine 4060 TI 16Gb in frage.
Evtl noch eine 3090, wenn du eine günstige findest, die auch in ein ITX Gehäuse passt.

Ich würde aber in jedem Fall von 2-Lüfter-Modellen abstand nehmen, weil die in der Leistungsklasse ziemlich laut werden können.

Als 3-Lüfter-Modelle, die auch in ein ITX-Gehäuse passen, fallen mir gerade nur die ASUS TUF gaming 4070 TI Super, die ASUS ProArt 4070 TI super und die Asus Proart 4060 TI 16GB ein.
ProArt sind Workplace-Karten und darauf ausgelegt, sehr leise zu sein, und zumindest bei der 4060 TI 16Gb kann ich das auch bestätigen, da ich sie selbst habe.

Derzeit gibt es sie für 500,- € inkl 3 Monate Adobe CC, also effektiv für ~300,- €. Würde ich an Deiner Stelle in erwägung ziehen, zumal sie auch nicht soviel Abwärme erzeugt, wie eine 4070.
 
@Maviba Danke für deine Erläuterung. Ich denke dann sollte ich auf jeden Fall bei NVIDIA bleiben. Aber ist es denn nicht so, dass man wenn man ernsthaft ML/DL betreibt, lokal nur einen Prototyp implementiert und das Modell dann in der Cloud trainiert? Reicht da dann nicht 12 GB VRAM aus?

Was haltet ihr von der MSI GeForce RTX 4070 Ti SUPER Gaming X Slim?
 
computerfreak89 schrieb:
Reicht da dann nicht 12 GB VRAM aus?

Das hängt von der Größe der Datensätze ab, und davon wie komplex das Modell werden soll.
Was genau hast du denn vor? Wofür soll es denn benutzt werden?

Soll es in Richtung NLP gehen, um z.B. einen Chatbot/Assistent für Webanwendungen zu trainieren? Dann dürften 12 GB theoretisch reichen, sofern der nicht 150.000 Sprachen und Themengebiete abdecken soll.
Soll das Modell später aber z.B. Dinge wie Bilderkennung oder generative Bildverarbeitung können, sollten es schon 16 GB oder mehr werden.

Ich muss dazu aber auch sagen, das ich selbst erst angefangen habe, mich in die Thematik einzudenken, deswegen bin ich mir bei manchen Sachen noch nicht so sicher. Aber soweit ich es bisher verstanden habe, sind 12 Gb in Sachen ML/DL schon ziemlich auf Kante genäht.


computerfreak89 schrieb:
Was haltet ihr von der MSI GeForce RTX 4070 Ti SUPER Gaming X Slim?

in einem ITX? Könnte etwas warm werden. zieht die nicht um die 300W? Wenn dann später noch Unity dazu kommt, wird Dein Intel auch noch ordentlich Schwitzen.
Ich bin auch kein besonders großer Freund von hochgezüchteten Gaming-GPUs in Workstations.

Sind für mich potentielle Fehlerquellen, die bei der Fehlersuche zu berücksichtigen sind, oder ein System instabil machen können.
Ich würde da eher die Expert nehmen, zumal sie einen Teil der Wärme direkt aus dem Gehäuse absaugt, und nicht sehr viel mehr kostet.
 
Zuletzt bearbeitet:
Maviba schrieb:
Das hängt von der Größe der Datensätze ab, und davon wie komplex das Modell werden soll.
Was genau hast du denn vor? Wofür soll es denn benutzt werden?

Soll es in Richtung NLP gehen, um z.B. einen Chatbot/Assistent für Webanwendungen zu trainieren? Dann dürften 12 GB theoretisch reichen, sofern der nicht 150.000 Sprachen und Themengebiete abdecken soll.
Soll das Modell später aber z.B. Dinge wie Bilderkennung oder generative Bildverarbeitung können, sollten es schon 16 GB oder mehr werden.

Ich muss dazu aber auch sagen, das ich selbst erst angefangen habe, mich in die Thematik einzudenken, deswegen bin ich mir bei manchen Sachen noch nicht so sicher. Aber soweit ich es bisher verstanden habe, sind 12 Gb in Sachen ML/DL schon ziemlich auf Kante genäht.
Gute Frage. Da ich mich erst noch in die Thematik einarbeiten muss, weiß ich jetzt noch nicht was alles möglich bzw. sinnvoll ist. Ich will halt vermeiden, dass ich mir jetzt eine Karte für 500,- € kaufe und morgen in ein Bottleneck renne, weil die Karte zu wenig VRAM hat. Andersrum will ich auch keine 2000,- € für Experimente ausgeben.
Maviba schrieb:
in einem ITX? Könnte etwas warm werden. zieht die nicht um die 300W? Wenn dann später noch Unity dazu kommt, wird Dein Intel auch noch ordentlich Schwitzen.
Ich bin auch kein besonders großer Freund von hochgezüchteten Gaming-GPUs in Workstations.

Sind für mich potentielle Fehlerquellen, die bei der Fehlersuche zu berücksichtigen sind, oder ein System instabil machen können.
Ich würde da eher die Expert nehmen, zumal sie einen Teil der Wärme direkt aus dem Gehäuse absaugt, und nicht sehr viel mehr kostet.
Die Expert zieht doch auch um die 300 Watt oder nicht? Meinst du der 13400 ist für mein Anwendungsgebiet nicht leistungsfähig genug?
 
computerfreak89 schrieb:
ch will halt vermeiden, dass ich mir jetzt eine Karte für 500,- € kaufe und morgen in ein Bottleneck renne, weil die Karte zu wenig VRAM hat.
Verstehe ich. Ich würde es auch nicht überstürzen wollen, solange ich noch nicht genau weiß, wofür genau ich die GPU letztendlich brauchen werde - auch mit Hinblick auf ein case, das bei leistungsstarker Hardware gerne Hitzeprobleme bekommt.
Ich würde mich dann nicht spezialisieren, sondern einen Allrounder holen.

Muss es denn unbedingt jetzt eine 4070 TIS sein? Brauchst Du die jetzt schon?

Für 500 Euro bekommst Du derzeit eine 4060ti 16gb, die sicher nicht so schnell in ein VRAM bottleneck rennen wird, und mit 165 W auch nicht so viel Abwärme produziert.
Dafür ist sie allerdings auch um ca 30% langsamer, als die 4070 tis. (Aber auch nur halb so teuer)
Die Leistung würde aber allemal solange reichen, bis Du in Unity oder KI so fit bist, das Du wirklich eine stärkere Karte brauchst.

Oder wie wäre es mit einem Kompromiss?
Statt der 4060ti oder 4070 TIS, eine normale 4070 (TI) mit 12 GB VRAM.
Ordentlich Leistung, noch ausreichend VRAM für ki und (game) development, und immer noch gut unter Deinem Budget.


computerfreak89 schrieb:
Die Expert zieht doch auch um die 300 Watt oder nicht?
Ja, aber die hat ein anderes Kühlsystem, und bei einem ITX würde ich mir eine GPU holen, die mithilft, die Wärme nach außen zu transportieren. Die Expert macht das, bei der ventus bin ich mir nicht so sicher.
 
Maviba schrieb:
Oder wie wäre es mit einem Kompromiss?
Statt der 4060ti oder 4070 TIS, eine normale 4070 (TI) mit 12 GB VRAM.
Ordentlich Leistung, noch ausreichend VRAM für ki und (game) development, und immer noch gut unter Deinem Budget.
Hm. Zwischen der 4070 Ti und der 4070 Ti Super liegen auch nur 100,- bis 150,- € Unterschied, je nach Custom Modell. Das macht den Kohl jetzt auch nicht fett. Außerdem muss man bei der 4070 Ti Kompromisse hinsichtlich der Speicherbandbreite machen (192 vs 256 Bit).
Maviba schrieb:
Verstehe ich. Ich würde es auch nicht überstürzen wollen, solange ich noch nicht genau weiß, wofür genau ich die GPU letztendlich brauchen werde - auch mit Hinblick auf ein case, das bei leistungsstarker Hardware gerne Hitzeprobleme bekommt.
Es muss nicht zwingend ITX sein. Aber ich denke es macht Sinn, das vorhandene Zeugs zu nutzen, sofern es nicht komplett unbrauchbar ist für meine Anwendungszwecke. Aber ein Case müsste ich auf jeden Fall noch kaufen.

Noch eine Frage: Ich möchte in 1-2 Monaten auch noch einen neuen Bildschirm, vermutlich den neuen Dell 4025QW kaufen. Sind alle genannten Grafikkarten damit ohne Einschränkungen kompatibel oder muss ich dabei auf etwas achten?

Das ganze soll dann einen iMac Pro mit 10 Kernen ablösen.
 
So, kurzes Update: Nach langem Hin und Her habe ich mich schlussendlich doch für die Asus ProArt 4070 Ti Super mit 16 GB entschieden, in der Hoffnung, dass die Investition die nächsten 3-5 Jahre hält.

Noch eine Frage: Reicht eurer Meinung nach ein 750 Watt Netzteil aus oder sollte ich mich für mehr entscheiden?
 
Zurück
Oben