Mehr als 4 Grafikkarten gleichzeitig betreiben

Prokiller

Banned
Registriert
Nov. 2011
Beiträge
1.980
Hi CB'ler

Habe jetzt schön einige male verschiedene Computer gesehen mit ca. 7/8 Grafikkarten von Nvidia die gleichzeitig betrieben wurden und die Leistung ohne SLI erbracht wurde...


schlichte Frage: Wie ist das möglich?
 
Das wird dann in der Regel genutzt und irgendwas zu berechnen, z.B. Bitcoins.

Wie das genau läuft weiß ich jetzt auch nicht, aber Windows z.B. kann "nur" 4 Grafikkarten gleichzeitig ansteuern.
 
Prokiller schrieb:
verschiedene Computer gesehen mit ca. 7/8 Grafikkarten von Nvidia die gleichzeitig betrieben wurden
wo?
Prokiller schrieb:
die Leistung ohne SLI erbracht wurde...
welche Leistung? Aussage ist vollkommen zusammenhangslos.
 
Hi,

ich glaub, hier geht es schlicht um ein Missverständnis. Solche GPU-basierten "Supercomputer" nutzen die Grafikkarte nicht für Grafikberechnungen im konventionellen Sinn. Sprich: damit wird kein Spiel dargestellt. Vielmehr werden stark parallelisierbare Aufgaben auf die (vielen kleinen "dummen") Kerne der Grafikkarte verteilt.

Man kann im Prinzip auch mehrere virtuelle Maschinen auf einem solchen System betreiben und jeder VM eine (oder mehrere) dedizierte Grafikkarten zur Spieleberechnung zuweisen (siehe Linus TechTips). Wird aber eher selten gemacht.

VG,
Mad
 
ich kenn nur sowas wie "7 Gamers, 1 CPU" von Linus TechTips

Ohne SLI/CrossFire bringts doch eh nichts für nur 1 User ;)
 
Und wenn es z.B. 8 sind, dürfen es nur Karten mit Wasserkühlung oder wenig TDP sein. Alles andere klappt nicht. Da es keine Boards gibt welche 16 Slots lang sind.

Wenn man das allerdings richtig versucht, braucht man das nicht.

Dann genügt ein E-'ATX Board mit 2x Sockel 2011-3 und Xeon CPUs so wie eine kleine Grafik und 3x Tesla im SLI. Die haben dann ordentlich Power vor allem bei doppelter Genauigkeit die Grafikkarten oft nicht gut können.
 
Mir ging es nicht um den nutzen im "gaming" bereich sondern nur ums allgemeine wie das möglich ist
also muss nur das Board diese entsprechend unterstützen und gut ist?
 
Genau, gerade in den "Supercomputern" sind das speziell angepasste Mainboards mit ganz anderem Layout und auch ganz anderer Stromversorgung der einzelnen PCIe-Slots.

Es ist da im Grunde nicht viel anders wie beim Mainboards mit 4 oder mehr Sockeln für CPUs. Man benötigt spezielle Mainboards und natürlich auch die passende Software, welche das auch nutzen kann.
 
Nur nutzen ohne Grafikleistung ist einfach. Prinzipiell ist eine Grafikkarte nur ein PCle-Gerät. Davon kannst du in deinen Rechner so viele stecken wie du Slots hast. Wie die dann genutzt werden ist von der Software abhängig. Kein riesiges Problem.
 
Prokiller schrieb:
Mir ging es nicht um den nutzen im "gaming" bereich sondern nur ums allgemeine wie das möglich ist
also muss nur das Board diese entsprechend unterstützen und gut ist?
Es gibt von NVIDA Tesla Karten
Das sind nix anders als Grafikkarten Ohne Monitoranschluss (vereinfacht)

davon kannst in deinem Rechner so viele stecken wie du Steckplätze hast bzw. was die Stromversorgung hergibt.
Wird verwendet vor allem für stark parallelisierbare aufgaben z.b. Bitcoin mining (wobei da AMD die Nase vor hat) bzw. FE/CFD Simulationen oder sonstige berechnungen.
 
Genau. Letztlich brauchst du nur ein Board, wo alles drauf passt. Die Software-Unterstützung kommt natürlich auch noch dazu, aber wie bereits angedeutet wurde: die x Grafikkarten laufen nicht wirklich zusammen. Jede von Ihnen wurde einer virtuellen Maschine zugewiesen, und jede Maschine rechnet ihr eigenes Ding. Somit ist pro "nutzbarem" System nur eine GPU beteiligt - kein Triple/Quad- und nicht mal normales SLI von Nöten!

Anders sieht es dann wieder bei Serverfarmen aus, die es z.B. zum Mining verwenden. Die könnten auch alle Karten aus einem einzigen System heraus ansprechen, berechnen dann aber wieder jeweils unterschiedliche Dinge darauf. Auch hier: kein SLI im Einsatz.

SLI brauchst du ausschließlich dann, wenn mehrere Grafikkarten an genau dem selben Problem rechnen sollen - das wird in den Videos, wo X Karten im Rechner stecken, aber nicht getan.
 
wobei man zum thema bitcoin mining auf grafikkarten sagen muss dass das bei mitteleuropäischen Strompreisen schon lange kein Thema mehr ist...
 
AndrewPoison schrieb:
SLI brauchst du ausschließlich dann, wenn mehrere Grafikkarten an genau dem selben Problem rechnen sollen - das wird in den Videos, wo X Karten im Rechner stecken, aber nicht getan.

Die Formuierung ist nicht so top.
Auch an genau dem selben Problem können GPUs ohne SLI arbeiten. Aber es muss sich die Software explizit darum kümmern, wie die Berechnungen aufgeteilt werden. SLI bedeutet nichts weiter als "so zu tun als sei es eine GPU", damit Anwendungen mehrere Karten implizit statt explizit nutzen können. Unterstützen muss die Software aber SLI trotzdem, um es zu nutzen. Das ist auch ein gewisser Aufwand. Deshalb wird es für Berechnungen auch kaum genutzt, weil man sich eher explizit darum kümmert.
 
Genau, daher ist neben der Verringerung des CPU-Overheads bei DX12 und Vulkan auch die MultiGPU-Unterstützung eines der meiner Meinung nach wichtigstes Neuerung dieser APIs. Hier kann die Software direkt mehrere GPUs ansprechen, anstatt nur Berechnungen an eine GPU zu geben, welche SLI und CF dann hintendran mehr oder weniger gut aufspalten.
 
Nach meinem Kenntnisstand kann man seit Win95 so viele Karten ins Board stopfen, wie das Board Plätze hat.
Hast Du ein Board mit 7xPCIe, dann stopft man 7 Grafikkarten rein (mit extendern wenn es keine Singleslot Grakas sind, die es übrigens auch gibt) und gut ist.
 
@Nai:
Das musst du mir etwas genauer erklären. Ich dachte immer, dass die Software unter DirectX11 bzw. OpenGL nur eine GPU ansprechen können. Und der Treiber verteilt das ganze dann auf mehrere GPUs. Im Gaming-Fall dann eben die Frames, die von der Grafikkarte berechnet werden sollen. Da weist der der Treiber dann eben immer abwechseln nacheinander ein Frame einer anderen GPU zu.

Im Fall von SFR wird ja das Bild aufgeteilt in mehrere Teile, und jede GPU erhält dann einen dieser Frame-Teile. Zumindest unter DX12 direkt von der Anwendung.
Meines Wissens nach war SFR auch unter DX11 möglich, allerdings hat dort nicht die Software den Frame aufgeteilt und den GPUs zugewiesen, sondern der Treiber. Was dann zwar zu Vermeidung von Microrucklern geführt hat, allerdings auch zu deutlich weniger Performance, meist kaum mehr als SingleGPU-Leistung. Ich vermute mal, das liegt daran, dass der Treiber das Bild nicht wirklich sinnvoll aufteilen kann, da er es, salopp gesagt, einfach "in der Mitte teilt", obwohl "links" deutlich mehr berechnet werden muss als "rechts", während die Anwendung selbst das Bild so aufteilen kann, dass jede GPU auch die Hälfte an Rechenaufwand erhält.

Das ist allerdings schon eine Weile her, seit ich ein SLI-Gespann hatte und das ganze durchgetestet habe. Den SFR-Modus musste man damals auch noch erzwingen, der wurde nicht nativ angeboten (wenn ich mich richtig erinnere).

Ich lasse mich da aber gerne eines besseren belehren! Nur her mit :)
 
Zuletzt bearbeitet:
Zurück
Oben