Test 3x GTX 680 & 3x HD 7970 mit i7-3970X: 3-Way-GPU sorgt für höchste Leistung

Nein, meine 480 er @ Sli haben auch völlig unabhängig voneinander getaktet. Die Amp. Stock @ 756 und die Referenz mit den 700 MHz.
Das war bei meinen 570ern anders. (waren zwar beide das selbe Modell aber wenn man OC drinnen hatte sah man es)

Und Blutschlump, garnicht weit hergeholt, vergleichen wir doch einfach Heroin mit SLI.

Framelimitter, das funzt doch bestens mit MSI Afterbrunner bei AMD oder Nvidia,
weiß gar nicht was hier für'n Hermann drum gemacht wird?
Framelimiter selbst bringt leider (meistens) nicht viel.
 
Ich dachte wirklich das CB seriös ist. Warum wurde der Test mit alte AMD Treiber gemacht und nicht mit der 12.12 Beta? Warum erwähnt CB nicht von RadeonPro???? War bei den NV Karten beim Benchen Boost an oder nicht?????

Microruckler hat man mit Radeonpro fast gar nicht mehr, Sieg gegen Mikroruckler mit Crossfire?
http://www.tomshardware.de/Crossfire-SLI-Mikroruckler-Radeon-Pro,news-248333.html

Warum möchte keine Mod mit diesen Thema sich witmen, man habe das Gefühl das AMD immer wieder benachteiligt wird. NV darf Fehler machen da wird weggeschaut und bei AMD wird Fehler gesucht.

Bis vor der GTX580 haben die meisten NV User der Stromverbrauch nicht gestört, es hieß Hauptsache Leistung ist da und jetzt punktet einmal NV mit Stromverbrauch, und jetzt sind die NV User alle Green IT´ler geworden ÖKo halt ;)

Ich finde es wirklich sehr schade das manche Moderator NV Freaks sind und genau diese Mods werden niemals was gutes über AMD GPU schreiben.

Ich selber habe SLi gehabt und auch CF und ich bevorzuge keine Hersteller für mich ist P/L wichtig da Punktet halt AMD.
Bis vor vier Monaten haben die meisten NV User noch zweck Downsampling NV Karten bevorzugt. AMD Karten können auch Downsampling warum wird über diesen Thema nicht im Forum geschrieben von ein Mod.

Ist jetzt DS nicht mehr so wichtig weil AMD das auch kann??????




 
Zuletzt bearbeitet:
ich fände es endlich mal toll wenn min fps bei den einzelnen balken vermerkt werden würden (ja ich weis das frameverläufe gibt, nur ist das hin und her schalten einfach zwischen den test und den verläufigen lästig).
ebenso wäre es wünschenswert wenn ihr den vram auslastung mit notieren würdet, damit man mal nen überblick hat wieviel ram bei euren test sequencen (benches) verbraucht werden.

edit: eure tabellen solltet ihr nochmal chekcne es sind bei 3 monitoren mit jeweils fullhd nämlich keine 5760*1600 sondern nur 5760 * 1080 ;)

unter mir .. .das man mit reichlich mods in skyrim fast jeden vram (6gb wäre ausreichend) sprengen kann ist kein geheimnis. trotzdem würde mich bei den jeweilgen tests die speicher auslastung interessieren.
 
Zuletzt bearbeitet:
2 GB sind bei diese setting voll vor allem Skyrim mit Textur Mod und HD Mode Crysis genau so ;)
Zwei Freunde von mir sind von GTX690 auf zwei AMD 7970 umgestiegen.

Bei 1000€ Karte erwarte ich SSAA + DS + mehr Ram damit man nicht ins V limit kommt.
Ich selber Spiele mit meine Karten 2720 x 1530 Auflösung BF3 + SSAA und komme nicht unter 70 FPS.

Die FPS läufe sind meisten über 85 und nein bei mir ruckelt es nicht. Diese Diagramme werden extra so groß gemacht das man denkt OGott wie kann man so Spielen. Wenn einer noch nie SLI oder CF System hatte soll erst einmal Dual GPU System bauen dann würden die nie mehr wieder mit eine Krüppel Auflösung Spielen und mit eine GPU.
 
Zuletzt bearbeitet:
Beta-Treiber zum testen?
Na hö, höchstens zum Vergleich mit dem aktuellem, wie immer bei News.
Weiß gar nicht was du hast, AMD HD 7970 ist doch top von der Leistung und Bildqualität und überhaupt.
Ich fand die Bildqualität meiner HD 6970 sogar besser (klarer/schärfer/detaillierter)
als die meiner neuen GTX 680, 4GB RAM (seit ca. 2Wochen), entweder wird man älter oder sie ist noch nicht "eingefahrn" :D , hab sie eh nur geholt weg. dem 3D für Shuttersystem, weil Polfilter ist fürn A... sonst wär ich bei dem Preis/Lstg.verh. bei AMD geblieben. Trifft aber nur auf die Grakas zu!
 
Zuletzt bearbeitet:
Ich weiss es jetzt nicht, aber ich gehe davon aus dass der Beta12.8 einfach stabiler war.

Ausserdem hat sich bei den letzten AMD Treibern in Sachen CF nichts getan.
 
Gerade CF hat sich einiges getan, das ist ja auch der Grund warum ich Enttäuscht bin.


Resolved issue highlights of AMD Catalyst™ 12.11 Beta


Medal of Honor: Warfighter; AMD Catalyst 12.11 Beta4 resolves an application crash found when running in AMD CrossFire mode with Anti-Aliasing enabled (This issue was observed in the AMD Catalyst 12.11 Beta3; The AMD Catalyst 12.11 Beta4 has replaced the AMD Catalyst 12.11 Beta3 driver that was posted Oct 22 2012).

3DMark Vantage – Up to 15%
3DMark 11 – Up to 12%
AvP – Up to 11%
Battlefield 3 – Up to 25%
Crysis 2: Up to 45%
DiRT Showdown – Up to 62%
ETQW – Up to 8%
Hard Reset – Up to 8%
Just Cause 2 – Up to 90%
The Chronicles of Riddick – Up to 4%
Shogun 2 – Up to 56%
Sniper Elite V2 – Up to 60%
Tom Clancy’s HAWX – Up to 56%
Unigine Heaven – Up to 33%
Wolfenstein – Up to 9%

White_Eagle du hättest auch so Spielen können wer braucht schon 3D :evillol:

 
Zuletzt bearbeitet:
Da limitiert aber nicht der Speicher.
Frag mal HisN wie das bei seiner 690 ist. ;) Bei BF3 geht seiner 690 bei 3 Monitoren schonmal die Puste(Speicher) aus.
 
Guter test. Danke CB
Das was noch immer am meisten von SLI/CF sind die Treiberprobleme/fehlenden sli profile.
Ich selber hab Gerade noch 2xGTX260 in meinem PC.
In BF3 kann ich mit Low settings und 1980x1200 noch annehmbar spielen.
AC Revelations hat auch noch gut funktionoiert. Mit allem oben und 4AA.
In Crysis2 Konnte ich nicht mit SLI an spielen da hat das HUD/Bild geflackert.
(Das war mit einem Phenom X4 9850BE. Jetzt hab ich ein PhenomII X4 965 und mit dem läuft alles wunderbar.)
Ich hatte also einen fehler der was mit der CPU zu tun hatte. Das kann ich mir zwar selber nicht erklären aber das war bis jetzt so.
Übrigens hat das mit dem Flackern erst mit dem Letzten Crysis2 patch angefangen. Und auch ein 30X Treiber hat das nicht gelöst.

So langsam kommen aber meine GTX260 in die Jahre. Bis jetzt konnte ich aber alle spiele in Vernünftiger Qualität spielen.
Der grund warum ich mir aber ein SLI system gekauft hatte war das die Karten 3Monate Nach dem Release oder so einen enormen Preißsturtz hatten und ich so auf/Über die leistung von der GTX280, mit weniger Geld kahm.

Wenn ich aber die Möglichkeit habe meine Leistungswünsche mit einer Graka zu einem vernünftigen Preiß zu erfüllen. Würde ich dies immer bevorzugen.
Lärm und Energieverbrauch spielen ja auch eine rolle.
 
digitalangel18 schrieb:
Die bemerkt auch nicht jeder gleich stark, genau wie die nötigen FPS um flüssig spielen zu können (bei einer einzelnen Karte) individuell sehr unterschiedlich sind. Ich bekomm schon bei dem Video und 2 AMD Karten das Brechen, obwohl es real sogar noch viel schlimmer aussieht :freak:

dito.

bei 3 amd karten hab ich dann weggekuckt das ist sry eine straftat.
so pfui war das bei nvidia zu 6000 und 7000 zeiten^^ und da empfand man es flüssiger als 1 karte die mit 20 fps dahin ruckelt^^

wobei die 2 gtx680 fast perfeckt ware.
also erlich meine 570 haben da mehr ruckler wen nvidia jetzt endlich ihren non mainstream chip rausrückt steig ich um.
weil sry 680 ist ne mainstream karte vom chip nur mit gut leistung.

die 3x 680 war kaum besser als amd ihr 2x7970 geruckel.
 
wow was für ein shitstorm :D kindergarten echt.

zum thema.

ich hatte damals auch zwei voodoo 2 karten im sli verbund laufen und konnte damals, bei zb. incomming kein microruckeln feststellen und ich kann es heute bei meinen 2 660 ti auch nicht erkennen. ggf bin ich blind oder ich hab einen dejudder in meinen augen verbaut, jedoch ist mir dieses thema gänzlich fremd.

ansonsten war das ein schöner test, dem es jedoch wie wohl nicht nur ich finde, an dem letzten quäntchen aktualität und tweaking fehlte, welche bei solchen bench / gaming - systemen jeder nutzer an den tag legt.

edit:

euch allen ein frohes fest!
 
Mumbira schrieb:
.... Das war bei meinen 570ern anders. (waren zwar beide das selbe Modell aber wenn man OC drinnen hatte sah man es).....

Hmm, biste sicher? Ich hatte erst versehentlich via Afterburner ein Häckchen (Synchronisation same GPUs glaub ich heißt das) drinnen und drum auch immer gleiche Taktraten. Als ich das wegklickte konnte ich dann neben unterschiedlichen Taktraten auch verschiedene VCore zwecks undervolting fahren.

Schau mal hier in meinen damaligen SLI Erfahrungsbericht und klicke den 5. screenshot (Crysis 2 screen) ausm threadstarter und siehe links oben das OSD, dann siehste was ich meine.

https://www.computerbase.de/forum/t...multi-gpu-begegnung-fluch-oder-segen.1085516/

wohtan schrieb:
...ich fände es endlich mal toll wenn min fps bei den einzelnen balken vermerkt werden würden (ja ich weis das frameverläufe gibt, nur ist das hin und her schalten einfach zwischen den test und den verläufigen lästig).
ebenso wäre es wünschenswert wenn ihr den vram auslastung mit notieren würdet, damit man mal nen überblick hat wieviel ram bei euren test sequencen (benches) verbraucht werden...

Da bin ich voll und ganz deiner Meinung. Habe deine Vorschläge schon damals mit nem Mod diskutiert und ne klare Antwort bekommen, wortlautähnliches Zitat :
"Min fps sind zu vergessen, da nur Momentaufnahmen. Wir haben eh die Frameverlaufdiagramme."

Ich finds auch schade und muss mich halt hinsichtlich Benchmarkdiagrammen bei pcgh umsehen, die pflegen min fps seit jeher ein, mMn sicher nicht grundlos.

White_Eagle schrieb:
.... AMD HD 7970 ist doch top von der Leistung und Bildqualität und überhaupt.
Ich fand die Bildqualität meiner HD 6970 sogar besser (klarer/schärfer/detaillierter)
als die meiner neuen GTX 680, 4GB RAM (seit ca. 2Wochen), entweder wird man älter oder sie ist noch nicht "eingefahrn" :D , hab sie eh nur geholt weg. dem 3D für Shuttersystem, weil Polfilter ist fürn A... sonst wär ich bei dem Preis/Lstg.verh. bei AMD geblieben. Trifft aber nur auf die Grakas zu!

Du sagst es. Meine damalige 5870 war erste Sahne. Leider behandelt AMD 3D dermaßen rudimentär, wenn man die piekfeine Plug and Play Lösung von Nvidia vergleicht. Darum auch meine AMD Abkehr, ansonsten wäre 7970 alleine wegen P/L meine erste Wahl.
(Reichlich 3D Vision Material und Screenshots kannst du in meiner SIG finden, nur so am Rande mal erwähnt ... ist einiges mit bei ;-)

Sharif-Omar schrieb:
....

White_Eagle du hättest auch so Spielen können wer braucht schon 3D :evillol:

Wenn mans einmal hat gibts nur schwer nen Weg zurück zur platten 2D Spielewelt ;-(.
Somit auch ein Grund warum ich mich immer über solche Tests freue, da 3D meist -50% fps Rate bedeutet.
 
Zuletzt bearbeitet von einem Moderator: (Textedit)
Man muss bei den min-Frame-Forderungen aber auch beachten, dass die Frametimeaufzeichnung besser ist.
Denn bspw.:
Karte A hast du im gesamten Spiel 50fps, aber einmal für 0,1s 1fps.
Karte B hast du im gesamten Spiel 50 aber alle paar Minuten mal 20fps als min.

Dann ist Karte A nicht schlechter, nur weil "einmal" kurz ein Ruckler da ist. Der Leser sieht nur "WAS??? min-Frame ist 1??? Wie schlecht!!!!11"
Dazu ist das Diagramm mit dem Frameverlauf besser imo.

Es gab/gibt und wird immer Nachteile von verschiedenen Darstellungsweisen geben.
 
thommy86 schrieb:
Schade, das Metro 2033 immer noch nicht für die Nvidia Karten richtig optimiert ist

Metro ist praktisch mit nVidia entwickelt worden, nVidia kann es nur nicht besser ^^
 
Gibt es überhaupt ne Software, oder ein Game das so viel Leistung Benötigt?

Wohl kaum, und zudem ist sowas Schweineteuer in der Anschaffung, und Stromkosten!
 
Zurück
Oben