Test 3x GTX 680 & 3x HD 7970 mit i7-3970X: 3-Way-GPU sorgt für höchste Leistung

ich mag CB schrieb:
wie wäre ein test ohne sli oder cf nur mit den neuesten treibern und games? sowas ist für mich und die meisten anderen sinnlos:rolleyes:
Wie wäre es wenn du man die Sufu nutzt?

Zum Test, Klasse gemacht wobei nix neues dabei ruasgekommen ist
 
Wir selbst setzten auf ein 1.600-Watt-Netzteil, nachdem das System in Extremsituationen mit einem 1.000-Watt-Netzteil nicht stabil zu betreiben war.
Immer wieder lustig die TRI/Quad CF/SLI Theads in denen dann die 1k NT vorgeschlagen werden. 1500Watt sollten es schon sein, das NT am Limit zu betreiben ist ja auch nicht Sinn der Sache.

Aber Extremsituationen ist gut, genau darum misst man ja auch die Leistungsaufnahme der GPUs mit Furmark, damit man dann sein NT entsprechend wählen kann. Mit Furmark geht euch dann das TRI CF über 1K, aber wie oft muss man das noch sagen. Furmark ist ein NT Test, der eigentlich schon seit Ewigkeiten Standard sein sollte. Vergesst auch nicht GPGPU, dann hat man auch schnell 100% Last.

Wenn ihr Furmark nicht wollt, ich glaube Catzilla hat auch einen drin der auf 100% geht?

Far Cry III hätte bestimmt auch schön Vram gefressen, schade das der nicht dabei ist. Oder Shogun II als PC only Titel, da wär dann Schluss mit lustig gewesen.
 
Zuletzt bearbeitet:
Microruckler sind mit Radeon Pro sogut wie nicht mehr wahrnehmbar, dabei reicht die Limitierung der FPS eben nicht wie hier getestet wurde.

Trotzdem bin ich jetzt auf eine Nvidia Karte umgestiegen, Leistung Pro Watt war einfach besser und bei 88€ abschlag für den Stromanbieter bei 2 Grafikkarten ist das einfach zu viel für eine Person.
 
Hm....... zum schluß schein ati denn doch vor Nvidia zuliegen, für ein otto normal zocker, dürfte so eine Konfig wol unerreibar sein.

Aber doch interessant zu sehn, wass man aus frei verfügbaren Komponeten so machen kann.

Aber ein "kleiner" fehler ist da aber dabei, wenn ich mich micht irre war nvidia doch schon bei grafikkarten mit der Bezeichnung GTX 690 , oder nicht ?

Mfg ;-)
 
Floletni schrieb:
Dieser Test spiegelt ganz gut meine Meinung zu Netzteilen wieder. Selbst 3 Monstergrafikkarten reißen nicht mal die 1000 W Marke. Klar braucht man Reserve, aber wer hat schon 3 Grafikkarten und welche die sowas haben kommen gut mit einem 1200 W NT klar. Es braucht also nichts was drüber geht. Bei 2 GTX 680 würde man mit einem 750-800 W NT auch gut bedient sein.

1. Drei Grafikkarten müssen nicht das Ende sein, vier oder sogar vier doppel GPU Karten sind z.b. in wissenschaftlich genutzten Workstations keine Seltenheit.
2. Es gibt Grafikkarten die mehr Strom bedürfen als die hier getesteten, bei einer GTX580 angefangen, über doppel GPU Karten bis hin zur "Spezialhardware" einer Tesla Karte.
3. Und da wären auch noch Multi CPU Systeme.

Also man kann beim besten Willen nicht sagen das es nicht doch noch etwas mehr sein kann, als bei den hier getesteten Systemen. Aber das ist natürlich nichts was Ottonormalbürger im Alltag zu Gesicht bekommt.

Zumal das Stromverbrauchswerte von SPIELEN sind, eine gute CUDA oder Open CL Anwendung würde aus den Karten vermutlich noch einige Watt mehr an Stromverbrauch rauspressen.
 
Zuletzt bearbeitet:
Was mich tatsächlich erstaunt, ist dass ein System aus einem i7-3970X @ 4,2GHz und drei HD 7970 GHz gerade mal 869W unter Spielelast verbraucht, hätte gedacht dass das über 1000W sekundär geht.


MfG
 
@ ich mag CB. Ich wäre auch für einen Test mit den neusten Treibern.

Und ich Hätte gerne nen Test 7950 max OC vs 7970 max OC! :D
Bin mir nicht sicher was ich kaufen soll. 7950 oder 7970.
 
hmm, sind doch ein paar Ungereimtheiten in diesem Test, die das Ergebnis schon beeinflusst hätten.

CPU übertaktet, GTX werksseitig übertaktet, Radeon mit Standardtakt - wieso?
Multi-GPU ohne Vsync - wieso?
RadeonPro nicht bekannt?
1x PCIe 16x, 2x PCIe 8x ? Wieso?

da es sich eh um den neuesten PCIe-Standard handelt, wärs vorteilhafter den ersten Slot auch auf 8x zu begrenzen. Eventuelle Bandbreitenlimits (jaja ich kenne die PCIe-Tests hier auf CB, die nur marginale Geschwindigkeitsvorteile bescheinigen) wirken sich nämlich extrem auf die Mikroruckler-Erscheinung aus!

Der FPS-Limiter ist aber kein Allheilmittel, sondern eher ein kleines Pflaster auf einer großen Wunde. Durch ihn entstehen nämlich auch Nachteile. Zuerst ist es natürlich gegen den Sinn von Multi-GPU-Systemen, den FPS-Wert absichtlich zu begrenzen, da man sich ein solches System schlussendlich für hohe FPS-Zahlen kauft.

Nö, man kauft sich Multi-GPU Systeme, um maximal mögliche Bildqualität bei flüssigem Spielverlauf zu erhalten. Hohe FPS-Zahlen bekomm ich auch wenn ich Auflösung und Bildquali reduziere. Die Aussage "Multi-GPU für hohe Frameraten" ist nur für Bencher, Poser und Journalisten für Belang...
 
3Way AFR ist imo schon zuviel des Guten.
Naja sehr bald wird BigK kommen und mit den AMD Gpus den Boden aufwischen ^^ Somit sind 3x680er eh überflüssig. Und ja 2 Gig Vram sind zu wenig gerade bei 1440p. Durch das 384bit SI von BigK werden es zumindest 3 GIG sein.

Bei den Frame-Limiter kann man eben etwas herumprobieren.
Also Farcry 3 läuft mit meiner 690er bei 3840*2160 + 2xMSAA und ULtra Settings auf 38 FPS gelockt ziemlich flüssig.
 
Zuletzt bearbeitet:
klar gehts schneller. 4 x GTX690 @ watercooled. oder 4 x 7990 watercooled. aber wer das bezahlen kann, hat eh keine probs mehr :D
 
Gehen 3x GTX 690 nicht ? Oder warum wird im Artikel "Damit haben wir uns die schnellsten (und zugleich teuersten) Komponenten, die der Markt aktuell für den Endkunden hergibt, geschnappt..." geschrieben ?
 
Das beste/schnellste SLI Setup ist 4x GTX 680 4GB OC Wassergekühlt. Also Quad SLI.

Geht auch mit 2x GTX 690, allerdings nur mit 2GB nutzbar und daher sinnlos. Außer man hat zufällig die GTX 690 Mars III zur Hand, die hat 2x 4GB. (wieder max 4 GPUs)

Hier wurde 3x GTX 680 2GB verwendet. Also recht weit weg vom maximal machbaren.

Bei GPGPU gibts dann gar keine Limits mehr, hier kann jede GPU voll ausgefahren werden durch CUDA, das ganze hat 0 mit SLI zu tun:
https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110
https://www.computerbase.de/2009-12/13-gpus-in-einem-desktop-supercomputer/
Zb. 13 GPUs in einem normalen Tower.
 
Zuletzt bearbeitet:
Compo schrieb:
Gehen 3x GTX 690 nicht ? Oder warum wird im Artikel "Damit haben wir uns die schnellsten (und zugleich teuersten) Komponenten, die der Markt aktuell für den Endkunden hergibt, geschnappt..." geschrieben ?

Weil die damit mit die Single Karten meinen. Die GTX690 und Radeon 7990 sind bereits Multi GPU Grafikkarten.
 
tjoa, zeigt wie ich selber festgestellt habe, dass crossfire fast absolut nichts bringt.
die bonus FPS sind sinnlos da man bereits ab 40-50 FPS mikroruckler hat.
da bringt eine verdopplung der FPS von 20 auf 40 auch recht wenig ~~
so gings mir mit mit zwei 6950ern.
bei einer gtx 690 hab ich selbst mit 25 fps NULL mikroruckler.
crossfire wird solange rotz bleiben wie AMD nix dagegen unternimmt.

die ganzen tricks a la "FPS-Limiter an und man hat GAR KEINE Mikroruckler mehr!!111" oder ähnliches
halte ich für quatsch.
ich hab damals vieles ausprobiert und entweder verschwanden die mikroruckler nicht oder ich hatte nur geringfügig mehr FPS als mit einer 6950.

aber schöner test wie ich finde!


:edit: hat auch schön die leute als unwissend dargestellt die immer sagen dass wenn man nur eine dritte karte ins CF system einbaut sich dann die mikroruckler annulieren, so ein blödsinn...

:edit2: mehr als 4x GPU geht nicht, die gtx 690 hat nur einen SLI anschluss, für mehr als 4 GPU's würde es nur mit den gtx 680ern gehen, wobei da wieder platzmangel ensteht.
ich bezweifle ausserdem dass ein penta / hexa GPU system korrekt funktioniert, falls es überhaupt startet.
 
Zuletzt bearbeitet:
ElectricStream schrieb:
Naja sehr bald wird BigK kommen und mit den AMD Gpus den Boden aufwischen

1. AMD schläft nicht.
2. Mit was fürn Stromverbrauch? BigK ist im Vergleich zu GTX680 ENORM RIESIG! Ich rede nicht unbedingt von einem zweiten GTX 480. Mehr so auf 580 Niveau. Oder dazwischen.

Und du sprichst hier was von Jünger (jaja ich weiss du hast editiert...)
Selber Jünger!
 
Guter Test, thx CB!

Zu erwähnen ist, dass solche Systeme nicht nur für fps Wahnsinnige ihre Berechtigung haben.
Schade dass nie erwähnt wird das 3D Vision Nutzer, speziell @3D Vision Sorround Jünger, ernsthaft über solche Systeme nachdenken (müssen).

Eure Ausführungen über den fps Limiter kann ich aus eigner Erfahrung (damals GTX 480 SLI) zwar verstehen, aber möchte anmerken dass der Multi GPU User nicht immer auf der Jagd nach high fps ist. Viel wichtiger ist diesem oftmals ein stabiler low fps Wert, welcher auch gehalten werden sollte. Und da hat eben Multi GPU mit extrem settings oder 3D Vision durchaus seine Berechtigung bzw. wird eben dann unerlässlich.

Wenn ich an mein geplantes 3D Vision Sorround Setup denke hoffe ich auf dicken Leistungszuwachs der GTX 7XX Serie, damit ich dann mit zwei von den Dingern mein Auslangen finden werde. Ein jetziger Test @3D Vision Sorround @GTX690 (=2*GTX 680) bewegte sich an der Grenze des Machbaren :-(
 
Intel_Forever schrieb:
Joa 800W Reicht dick für Jede SLI CF System betreibe hier mit 800W 2xGTX 480 und die schlucken wohl mehr als alle anderen Grakas an Strom :D

MFG

Habe 3 x EVGA GTX680 Classiefied im Gaming sind das um die 600 Watt..
Verbaut habe ich ein Seasonic 1000W Platin NT.
 
Zuletzt bearbeitet:
Nvidia hat bei der GTX 680 einen Speicherbus von 256 Bit
AMD hat bei der HD 7970 einen Speicherbus von 384 Bit

Klar das sich dies bei großen Datenmengen und auch bei der Geschwindigkeit der Datenübertragung,
es dann zu Engpäßen kommen kann, entweder bei höschten Qualitätseinstellung, aber dies noch in Verbindung mit höchsten Auflösungseinstellungen wird dies dann schnell sichtbar.

Da hat Nvidia bei der Speicherübertragung, bei der Speicheranbindung dann zuviel gespart.

Ist doch klar das die schwächste Stelle limitiert, dies ist bei Nvidia leider der Speicherbus.

Durch nen Nadelöhr paßt halt in gleicher Zeit weniger durch (Datenaufkommen/Verkehrsaufkommen) als durch den Elbtunnel (wenn da nicht mal wieder ne Baustelle ist).

PS
Speicherbestückung bei Nvidia GTX 680: 2047 MB ist eh nen bissel dürftig, für 3D und zünftige Anwendungen (Spiele)
vs
die Speicherbestückung AMD HD: 3072 MB

Hab deshalb seit ca. 2 Wochen meine AMD HD 6970
gegen ne ne Palit Geforce GTX 680 JetStream mit 4096 MB getauscht (wegen 3D mit Shuttertechnik, Nvidia 3D Vision2), da ich dies an meinem 3D Shutter-Plasmafernsehr von Samsung nutzen kann.

Auch wollt ich ne Nvidia ohne Blackplatte, für die rückseitig angebrachten zusätzlich 8 RAM-Bausteine und 4 Spannungswandler, da habe ich kleine Kühlblöcke (passive RAM-Speicherkühler mit Wärmeleitkleber) von Alpenföhn passive DRAM / VRAM-Chip Kühler verbaut (da ist der Wärmeleitkleber gleich dabei). 17420_0__zura_202_1g.jpg

Durch den 200mm Seitenlüfter + 230mm Bodenlüfter, zusätzlich zur Frontbelüftung mit 2x 140 mm Front in Reihe unterhalb der Graka + 2x 120 mm in Höhe der CPU kann ich so die Graka sehr hoch takten (GPU- + RAM-Takt), so das jetzt der GPU-Takt bedeutend über dem Turboboost der GPU liegt (da müßt ich wohl sonst erst was im BIOS der Graka umschreiben?).
 
Zuletzt bearbeitet:
also ich hatte 2 x HD 5870 als CF und mit den richtigen Treibern hatte ich z.B. bei BF3 keine MR oder ich habe sie nicht wahrgenommen. Dabei bin ich einer der schon damals bei CS sofort gemerkt hat wenn keine 100FPS anstehen.
 
Zurück
Oben