Bericht GeForce GTX 780 Ti SLI vs. Radeon R9 290(X) CF

Dan Kirpan schrieb:
Interessant finde ich auch das die GTX 780 Ti und Radeon R9 290X fast das gleiche an Strom verbrauchen, denn ich hatte auch gedacht das die GTX 780 Ti weniger verbraucht (vermutlich aufgrund des geringeren Lärmpegels).

Tut sie auch schau dir den Stockbetrieb an,nur wenn man die Regler einfach auf 100% legt (max) ohne das mit ner stabilen Taktrate auszutarieren ballert die verständlicherweiße alles raus was da ist im Regelbetrieb ,weil das Powertarget ja voll aufgedreht ist, obwohl es nicht zwangsläufig voll gebraucht wird für den MaxBoost

Die Regler auf voll zu stellen macht erst dann Sinn wenn man zudem noch OC betreiben will
 
Zuletzt bearbeitet:
scully1234 schrieb:
Zudem ist da noch nichtmal OC dabei sondern lediglich die Regler auf 100%

Die neuen variablen taktraten machen das Spiel schwer - für micht ist OC schlicht und ergreifend eine Takterhöhung über den Werkszustand - ob ich da jetzt "Taktrate" "Powertarget" "Spannung" "maxtemperatur" über dem Regler steht ist mir egal. Beim Biosswitch ist es zwar kein Balkenregler im Treiber/Afterburner etc, sondern nen mechanischer Schalter, jedoch in meinen Augen auch nur Takterhöhung über den Werkszustand - ich bleibe dabei: in den relevanten Graphen hat nur der Werkszustand was zu suchen, der Rest sollte mit der Übertaktbarkeit in Kartentests untersucht werden aber nicht in den eigentlichen Vergleichsgraphen auftauchen.
 
Smagjus schrieb:
Da ihr die Mikrorucklerproblematik sowie Customdesigns nicht reinnehmen konntet, halte ich den Test für ziemlich sinnfrei. Dass das Referenzdesign der AMD Karten schlecht ist, weiß ich schon. Das braucht so ein Test nicht nochmal bestätigen. Ein GPU Gespann, das eine ernsthaft gesundheitsschädliche Lautstärke erzeugt, ist einfach realitätsfremd.

Immerhin ist das der erste Test mit dem neuen XDMA-Crossfire, das mit den Hawaii-GPUs eingeführt wurde. Es hätte ja gut sein können, dass das mehr bringt, als nur ein etwas besseres Skalieren gegenüber SLI.
Dass das neue Crossfire offenbar (zumindest mit den derzeitigen Treibern) nicht so viel ändert, ist auch eine interessante Erkenntnis, wenn auch nicht unbedingt die, die man sich erhofft hätte. ;)

Was die Custom-Designs angeht, werden die meisten davon für Crossfire auch nicht wirklich ideal sein. Die Referenz-Blower sind zwar laut, aber pusten die Abwärme direkt aus dem Gehäsue. Die typischerweise offenen Custom-Kühler fecheln sich hingegen die Abwärme schön gegenseitig zu.
Deshalb ist Crossfire/SLI für mich einer der Fälle, wo Referenzkühler doch sinnvoll sein können. Wobei, so richtig sinnvoll ist bei so einem Multi-Card-Setup aus absoluten High-End-Modellen eigentlich nur eine Wasserkühlung.
 
Danke für den Test!
 
Foma schrieb:
Da frag ich mich gerade, wie Ihr mit einem 660 Watt Netzteil, zwei AMD Karten betreiben könnt. Immerhin hat das System einen Verbrauch von 688 Watt !!!

Da die Leistungsaufnahme primärseitig gemessen wurde, bleibt noch was bis zur 100%-Last übrig.
Bei geschätzten 92% Wirkungsgrad dürfte das Netzteil bei Nennleistung 717W umsetzen.
 
Zuletzt bearbeitet:
Interessant, dass SLI in Splinter Cell quasi kaum einen Mehrwert bringt, obwohl das Spiel im TWIMTBP Programm ist, wohingegen andererseits bei Hitmann (Gaming Evolved Titel) CF @4k nicht zu greifen scheint.:freak:
Da haben wohl beide Hersteller noch einige Treiberbaustellen.
 
Zuletzt bearbeitet:
Schöner Test. Zeigt auch gut den leider knapp bemessenen VRAM der Ti auf. Im SLI absoluter VRAM Krüppel wenn schon zu erscheinen Spiele ohne Mods ins Limit laufen. Da muss unbedingt noch ne 6GB Version kommen. Ne Titan ist aufgrund der weniger Einheiten keine Alternative.
 
scully1234 schrieb:
Tut sie auch schau dir den Stockbetrieb an

Ich seh da unglaubliche <10W Unterschied (1 Karte). Nvidia brauch so unglaublich viel weniger Strom, AMD heizt mit seinen 95°C ja ganze Wohnblöcke...und lässt die Pole schmelzen.
 
Schöner Test, da habt ihr mal wieder gut herausgearbeitet dass die Referenzkühler Grütze sind, insbesondere der von AMD. Die wissen schon warum sie auf ihren Profi-GPUs bedeutend andere Kühler verbauen, auch wenn das Einsatzgebiet einer 10 000 natürlich völlig anders liegt.

Jemand der über 1000€ für ein SLI-Gespann ausgibt wird sich doch nicht selbst diese Lautstärke antun und, bei dieser kartengeneration ganz extrem, in der Leistung beschneiden. Ihr habt bereits am Anfang des Tests beschrieben wie stark die Karten gedrosselt werden, das ist löblich. Allerdings sollte jedem vernunftbegabten Menschen klar sein dass sämtliche Leistungstests danach lediglich für jene gelten, welche die Dinger wirklich mit Referenzkühler betreiben.

Wenn ihr sehen wollt was die Karten im Multi-GPU-Betrieb für Enthusiasten leisten können, testet die unter Wasser. Das hier ist allenfalls eine Randnotiz, in etwa vergleichbar mit "mit dem Porsche GT3 konnte ich im Test nicht den Wocheneinkauf meiner Familie befördern".
 
Wer das Geld hat für zwei Top GPU's und einen dicken Monitor hat, der wird es dann sicher auch verkraften das Gespann unter Wasser zu setzen.
 
Hmm... kann mir jemand erklären, warum in einer fast identisch gelagerten Testreihe namens "Radeon R9-290X Crossfire vs GeForce GTX 780 SLI review - Ultra High Definition 4K - 3840x2160 performance" auf guru3D.com die Radion R9-290X im Crossfire die GeForce GTX 780 Ti SLI in quasi jedem Spiel recht eindeutig schlägt? :watt:
-> Der Unterschied zwischen den einzelnen Testergebnissen auf CB und Guru3D scheinen zum Teil recht gewaltig... schaut selbst:

LINK zum Guru3D-Test: http://www.guru3d.com/articles_pages/radeon_r9_290x_crossfire_vs_sli_review_benchmarks,21.html


Also nochmal: Erklärung?


EDIT:
Au weia, der unter mir hat vollkommen recht. Entschuldigt bitte. Ich geh' lieber zu Bett, gute Nacht.
 
Zuletzt bearbeitet:
Foma schrieb:
Da frag ich mich gerade, wie Ihr mit einem 660 Watt Netzteil, zwei AMD Karten betreiben könnt. Immerhin hat das System einen Verbrauch von 688 Watt !!! Verstehe ich nicht.

Auch wenn es schon zweimal erklärt wurde:

Bei guten(!!!) Netzteilen ist die aufgedruckte Watt-Angabe korrekt und bezieht sich darauf, was das Netzteil abgeben kann, also wieviel die Komponenten ziehen dürfen. Computerbase misst allerdings an der Steckdose, wo der Wirkungsgrad des Netzteils noch oben drauf kommt.

660W entspricht hierbei 100% Leistung (Überlast mal ausgeblendet), welches das Netzteil leisten kann.
Wenn das Netzteil einen angenommenen Wirkungsgrad von 85% hat, ergibt sich folgendes:

688*0,85 = 584,8W

660,0 = 100,00%
584,8 = 88,61%

=> Netzteil wird zu 89% ausgelastet. Maximal ist das Netzteil nach dieser Rechnung für eine Stromaufnahme aus dem Netz bei 85% Wirkungsgrad von 660/0,85 = 776,5W ausgelegt. Bei 90% Wirkungsgrad würde das System 619,2W ziehen und das NT wäre zu 93,82% ausgelastet. Da aber der Rechner (bleiben wir mal bei den 585W) nicht mehr zieht bei einem größeren Netzteil (Wirkungsgrad bei Auslastung vernachlässigt) würden sich an der Steckdose keine 688W messen lassen, sondern "nur" rund 650W. Bei 80% Wirkungsgrad schaut das dementsprechend anders aus...
 
was soll man sagen
der 2 jahre alte chip schlägt den neuen.
 
N30k0rt3x schrieb:

Trotzdem interessanter Link!

Aufschlussreich, dass dort Hitman CF @ 4k problemlos läuft.
Wäre aufschlussreich, du könntest hierzu auch nochmal Stellung beziehen @Wolfgang.
Ergänzung ()

@Vato

Von welchem Chip redest du?:freak:

GK110 kam erstmals in deutlich kastrierter Form (Tesla K20) in Nov 2012 auf den Markt. Der Chip ist also etwa ein Jahr alt.:rolleyes:

Eher erstaunlich, dass der deutlich kleinere Chip (bei gleichem Fertigungsverfahren) gleichauf liegt. ;)
 
Zuletzt bearbeitet:
Bei den Frameverlaufsdiagrammen ist vor allem Far Cry 3 auffällig. Denn dort zeigt sich, dass die drei Gigabyte Speicher der GeForce GTX 780 Ti in der Ultra-HD-Auflösung tatsächlich nicht immer ausreichend sind,
Das ist ja nur die Spitze des Eisbergs, vorher gibt es schon lange Nachladeruckler. Wenn man so viel zahlt für eine GPU oder gleich 2 sollte es sowas eigentlich nicht geben. Und die Ultra HD Auflösung braucht man dazu auch nicht unbedingt, Spiele wie die Total War Reihe bringen die Karte auch mit ein wenig AA ans Limit mit 1080P.

Des weiteren würde man sowas viel öfter sehen wenn man im Spiele Parcours darauf achten würde Vram fressende Games zu testen. Wenn nötig könnte man HD Textur Mods installieren um zu zeigen das der Vram quasi immer am Limit ist. Das zeigt dann immer schön wie es in ein paar Jahren dann aussehen könnte/wird.

Ein Titan SLI Setup mit 6GB interessiert das alles nicht, ordentliches SLI liefert immer die volle Rohleistung, egal welches Spiel/Setting, egal welcher HD Textur Mode, egal welches Spiel in Zukunft noch mehr Vram fordert. So wie es eben sein sollte. Nur weil NV mehr Gewinn machen möchte und nur 3GB Vram verbaut. Nachteile hat wie immer nur der Käufer.

http://www.pcgameshardware.de/The-E...Specials/Skyrim-mit-maximaler-Grafik-1100228/
während die 780 Ti unter Nachladerucklern leidet – je länger die Spielzeit, desto schlimmer wird's
Auch wenn die AFG FPS sehr ähnlich sind, muss das gar nichts heißen. Die sind in dem Fall der 780TI 3GB oft wertlos, da massiv mit Nachladeruckler durchsetzt. Die langen Balken sind also nur Show und nichts dahinter, keiner zockt Benchmarks, sondern zockt mehrere Stunden, indem dann der Vram überläuft.
 
Zuletzt bearbeitet:
Netzteil:
Leistungsabgabe wird Sekundärseitig angegeben, Leistungsaufnahme aber Primärseitig.
Somit eine einfache Rechnung: 688 Watt Verbrauch Primärseitig machen, wenn man einen Leistungsfaktor von 90% berücksichtigt, rund 620 Watt Sekundärseitig. Sind also noch 40 Watt unter Limit...
 
Zuletzt bearbeitet:
Danke für den aufwendigen Test!

Während ich früher zwar auch geschockt war von der Leistungsaufnahme und den weiteren Nachteilen durch einen Crossfire / SLI Verbund, habe ich doch auch immer ein wenig neidisch auf die Leistung geschielt! Diese versprach ja alles so einstellen zu können wie man es wollte ohne gleich miserable Frames in Kauf nehmen zu müssen!
Heute ist diese Zeit zumindest für mich vorbei! Eine einzelne Grafikkarte stellt die Leistung bereit wie ich sie benötige - mehr ist bei meinen derzeitigen Monitor bzw. Setup nicht notwendig!
 
scully1234 schrieb:
Tut sie auch schau dir den Stockbetrieb an,nur wenn man die Regler einfach auf 100% legt (max) ohne das mit ner stabilen Taktrate auszutarieren ballert die verständlicherweiße alles raus was da ist im Regelbetrieb ,weil das Powertarget ja voll aufgedreht ist, obwohl es nicht zwangsläufig voll gebraucht wird für den MaxBoost

Die Regler auf voll zu stellen macht erst dann Sinn wenn man zudem noch OC betreiben will

Was nichts an der Tatsache ändert, dass du zum Übertakten einer nVidia-Karte auf 3rd-Party Tools zurückgreifen musst.

Im Gegensatz dazu hat AMD schon alles benötigte an Bord.
 
Mich würde noch Interessieren, wies bei den AMD's mit der Leistung aussieht, wenn sie mit der vollen Banbreitr (x16/x16) angebunden sind.
 
Zurück
Oben