Bericht GeForce GTX 780 Ti SLI vs. Radeon R9 290(X) CF

Schöner, interessanter Test - nur leider für die meisten User uninteressant als Kaufoption. "Dank" der alten Konsolen sind die meisten Games mit weitaus weniger Grafikpower flüssig spielbar. Wenn man dann noch den "Marketing Ultra" Modus ausschaltet, der in den meisten Fällen nur FPS kostet, aber kaum mehr sehenswertes bietet, ist für den Ottonormalverbraucher wahrs. eine 770 schon überdimensioniert - ergo ist für Ego :).

So Duallösungen sind nur dann interessant wenn man jenseits der Full HD Auflösung spielen will, oder den kleinen "Lichtsstreif" im Ultra Modus bei BF4 nicht missen möchte.
 
aivazi schrieb:
Fände es "fairer" , wenn erwähnt wird, dass der Max Modus alias Uber mode bei den AMD Karten ab Werk vorhanden ist und somit auch Tatsächlich von jedem DAU benutzt werden kann. Der Max Modus bei den Nvidia Karten ist schließlich nur eine Verschiebung der Leistungsparameter *Post*- Werk die man nicht ohne weiteres machen kann.

Welcher DAU baut seinen Rechner selbst zusammen und fummelt noch an der Grafikkarte rum? ;)
Man könnte genauso argumentieren, dass für so eine Anwendergruppe die Lösung per Software "sicherer" anmuten mag. Ich denke da muss man aber letztendlich keine Haarspalterei betreiben - man hat mit dem, was in der Packung ist bei beiden IHVs die Möglichkeit, das Maximum aus den Karten rauszuholen, und im Lieferzustand sind beide Lösungen nicht aktiv.
 
Zeigt mal wieder dass zwei Grafikkarten nix für mich sind. Die Lautstärke ist einfach zu hoch und nur mit WaKü angenehm in den Griff zu bekommen.

Ich finde, man sollte grundsätzlich weg von dieser extremen Hitzeentwicklung und einfach grundsätzlich weiter unten ansetzen. Sprich Spiele mit etwas weniger Anforderungen, etwas schwächere Grafikkarten und dafür leiser und kühler, so dass selbst die HighEnd Lösung unter absoluter Vollast nur 60°C heiß wird. Mit nem leisen, langsam drehenden Lüfter versteht sich.

Dieser Kampf um das letzte bisschen Leistung, das man auf Kosten von Temperatur und Lautstärke rauskitzeln kann ist doch dumm. Wenn ich 1000€ für Grafikkarten ausgebe, will ich keine Kompromisse eingehen müssen und keine Kühllösung am Rande der Praktikabilität betreiben müssen.

Siehe Intel die CPUs sind leistungsstark und lassen sich mit einfachsten Mitteln fast lautlos kühlen. Dabei könnten Sie genauso die CPUs mit den Mainboards bundlen und das Mainboard mit dicken Kühlern zukleistern - wie bei grafikkarten....
 
Zuletzt bearbeitet von einem Moderator:
Mir fehlen beim Test ein wenig die Verbrauchswerte abseits von Leerlauf und Games, denn während bei einer einzelnen Grafikkarte aktuell leider ziemlich klar ist (Blue-Ray und 2 Monitore hat AMD nichts zu sagen, erst bei 3 liegen sie wieder vorne), könnte dies bei CF / SLI schon wieder ganz anders aussehen.
 
GPU-Joe schrieb:
Welcher DAU baut seinen Rechner selbst zusammen und fummelt noch an der Grafikkarte rum? ;)
Man könnte genauso argumentieren, dass für so eine Anwendergruppe die Lösung per Software "sicherer" anmuten mag. Ich denke da muss man aber letztendlich keine Haarspalterei betreiben - man hat mit dem, was in der Packung ist bei beiden IHVs die Möglichkeit, das Maximum aus den Karten rauszuholen, und im Lieferzustand sind beide Lösungen nicht aktiv.

Der Unterschied besteht darin, dass man bei nVidia zwingend auf Angebote von Drittanbietern zurückgreifen muss (wie sieht's da eigentlich mit der Garantie seitens nVidia aus?). Die können natürlich der Verkaufsverpackung beigelegt werden, müssen es aber nicht sein.

Bei AMD genügt im Zweifel das elegante Umlegen eines einzigen Schalters und ab geht die Post.

Bei nVidia kanns in stundenlange Reglerschieberei und ähnliche Frickeleien ausarten.
 
ich für meinen Teil see hier zwar NV vorn aber wath ever, schöner Test CB, mehr davon , mfg
 
Trotzdem traurig das 2 Super Grafikkarten bei Battelfield 4 gerade mal um die 60fps rumtümpeln.. ! Da kann ich auf das viele Geldausgeben verzichten und in normaler Full HD Auflösung zocken und auf das ganze Wischi Waschi verzichten ;-)
 
HI,

Für 4k ist es einfach noch zu früh. Noch 2 Jahre, dann wird sich dass vielleicht mal lohnen.

Ich bleib bei meinen 1920x1080p. Mehr brauche ich nicht.

Trotz alle dem, ein netter Test!
 
Pilstrinker schrieb:
Der Unterschied besteht darin, dass man bei nVidia zwingend auf Angebote von Drittanbietern zurückgreifen muss (wie sieht's da eigentlich mit der Garantie seitens nVidia aus?). Die können natürlich der Verkaufsverpackung beigelegt werden, müssen es aber nicht sein.
Ist doch egal. Die Tools sind verfügbar und gut ist. Wegen Garantie habe ich keine Ahnung.

Bei AMD genügt im Zweifel das elegante Umlegen eines einzigen Schalters und ab geht die Post.

Bei nVidia kanns in stundenlange Reglerschieberei und ähnliche Frickeleien ausarten.

Bei AMD musst wahrscheinlich erst mal am Kühler herumbasteln damit die Lautstärke erträglich ist. Sowas ist ebenfalls Frickelei und kostet in jedem Fall die Garantie. Der Test ist doch eindeutig. Das Nvidia Gespann ist schneller und eben auch leiser. Mehr muss man dazu doch gar nicht sagen. Also rein auf die Daten / Ergebnisse bezogen erst einmal die bessere Lösung. Das die mehr kostet ist auch klar.
 
Richthofen schrieb:
Ist doch egal. Die Tools sind verfügbar und gut ist. Wegen Garantie habe ich keine Ahnung.

Genau das ist die Frage und daher alles andere als egal.

Richthofen schrieb:
Bei AMD musst wahrscheinlich erst mal am Kühler herumbasteln damit die Lautstärke erträglich ist. Sowas ist ebenfalls Frickelei und kostet in jedem Fall die Garantie. Der Test ist doch eindeutig. Das Nvidia Gespann ist schneller und eben auch leiser. Mehr muss man dazu doch gar nicht sagen. Also rein auf die Daten / Ergebnisse bezogen erst einmal die bessere Lösung. Das die mehr kostet ist auch klar.

Es geht hier um "Out-Of-The-Box" und nicht um irgendein sonstiges Verhalten oder sonstige Eigenschaften.

Die nVidia-Karte kann man nicht über den nVidia-Treiber übertakten.

Die dazu benötigten Tools sind nette, aber zweifellos nicht verpflichtend beiliegende Zugaben irgendwelcher Anbieter.
 
Bei der Radeon R9 290X kommt erneut ein Exemplar von AMD, das andere stammt dagegen von XFX. Anders als bei der Sapphire-Karte kommt der Vertreter der langsameren Version direkt vom Online-Händler Alternate. Auch hier gibt es weder optische, noch technische Unterschiede zur AMD-Karte.

Hier sollte wohl eher "der schnelleren Version" stehen, oder? :)
 
Schön, dass sich CB die Mühe gemacht hat dies zu testen. Vor allem die Mikrorucklerthematik. Was die Leistung angeht - ja was soll man da erwarten? Es ist ja an und für sich ganz logisch, dass 2 langsamere Grafikkarten auch zusammen langsamer sind, da sowohl CF als auch SLI mittlerweile wohl nicht mehr so problembehaftet sind / sein sollten - also in etwa gleichwertig sind.
 
Was nichts an der Tatsache ändert, dass du zum Übertakten einer nVidia-Karte auf 3rd-Party Tools zurückgreifen musst.
Na das ist aber so falsch wie es nur sein kann, wenn man die Realität betrachtet!
Zum einen ist es eine Sache das Tool im Catalyst als OC-Option zu bezeichnen - denn es gibt ja meist nur einen winzigen Spielraum auf - der oftmals sogar noch eher deutlich nach unten als nach oben zu takten geht!
Zum anderen liegen den meisten Grafikkarten von nVidia auch Übertaktungstools vom Hersteller bei die für den, der den Treiber von CD installiert, eh dann schon das Tool per klick mitinstalliert!

Noch falscher wird es aber wenn wir uns einige Grafikkarten mal direkt anschauen - das Custom Design von Palit, Gigabyte, Inno etc. übertaktet die Grafikkarte noch weit über die Werksangaben ohne das man dafür auch nur einen Schalter umlegen muss!

Wenn Du also sagst das AMD einfach zu übertakten geht - dann muss ich schlicht widersprechen und ich habe lange Jahre AMD Grafikkarten gehabt und dort nicht über Catalyst (weil es kaum was brachte) sonder über Afterburner übertaktet!
Bei der jetzigen nVidia brauche ich die Software gar nicht mehr - Graka liegt bei 1140 Mhz Takt ohne das ich irgendwas installieren muss!
So einfach war es echt noch nie!

P.S. Nebenbei, zumindest der Palit Grafikkarten liegt auch noch ein ordentliches Übertaktungstool dabei - wenn man denn darüber noch hinaus will......
 
Lars_SHG schrieb:

Wir reden hier nicht über bereits werkseitig übertaktete Karten, sondern über manuelles, nachträgliches OC.

Und selbst werkseitig übertaktete Karten lassen sich ja noch weiter übertakten.

Und genau darum geht es.

Wenn du mit der Leistung deiner Karte zufrieden bist, dir der Boost ausreicht und daher findest, kein weiteres OC zu benötigen, okay, dein Ding.

Andere haben andere Bedürfnisse.

Mein Fazit bleibt wie gehabt: nVidia sieht keine Übertaktung - und sei sie auch noch so klein - mittels Originaltreiber vor.
 
Knapp 700W für einen PC ist schon heftig! Wenn man die CPU noch ordentlich übertaktet oder einen 5GHz AMD einsetzt, dann kommt man schon richtung 1000W und ein 1kW Netzteil hat wieder seine Daseinsberechtigung.
 
Bei mir wird heute ein SLI aus 2 GTX770 4GB in Betrieb genommen, bin gespannt wie sich das im Vergleich zu den Benches hier schlägt.

Was mir im Test aufgefallen ist: Bei der Leistungsaufnahme vom 290X CF (Max) wird 688 Watt angegeben - das Netzteil im Testsystem hat allerdings nur 660 Watt.
Wie funktioniert denn das?
 
JonnyPotSmoker schrieb:
Bei mir wird heute ein SLI aus 2 GTX770 4GB in Betrieb genommen, bin gespannt wie sich das im Vergleich zu den Benches hier schlägt.

Was mir im Test aufgefallen ist: Bei der Leistungsaufnahme vom 290X CF (Max) wird 688 Watt angegeben - das Netzteil im Testsystem hat allerdings nur 660 Watt.
Wie funktioniert denn das?

Siehe Beitrag #57 hier im Thread.
 
Lars_SHG schrieb:
Bei der jetzigen nVidia brauche ich die Software gar nicht mehr - Graka liegt bei 1140 Mhz Takt ohne das ich irgendwas installieren muss!
So einfach war es echt noch nie!

Die Drosselungsfunktion der neuen Karten (in Falle deiner 780 nennt sich diese marketingtechnisch clever Boost 2.0) hat überhaupt nichts mit OC zu tun (eher im Gegenteil).
Den Effekt einer nicht einsetzenden Drosselung (also ein "zünden" des Boosts), wird im Test unter 780 Ti (max) abgebildet.
 
Beim Netzteil ist die Erklärung dafür, dass dem System die angeforderte Leistung von fast 700 Watt jederzeit zur Verfügung gestellt wurde, "leider" eine ganz einfache: im Abschnitt Testsystem haben wir dessen Austausch für den Multi-GPU-Test nicht erwähnt.

Anders als sonst üblich kam ein Enermax MaxRevo mit 1.500 Watt zum Einsatz...
 
@Athlonscout
Nvidias Karten fallen aber nicht unter den von Nvidia garantierten Grundtakt. Der liegt bei der GTX 780Ti bei 875 Mhz. Dieser wird aber nicht unterschritten. Daher kann man auch nicht davon sprechen, dass hier gedrosselt wird.
https://www.computerbase.de/2013-11/nvidia-geforce-gtx-780-ti-vs-gtx-titan-test/3/

AMD gibt ja nicht einmal einen Baseclock an, sondern nur einen Max Clock. Daher lässt sich das viel schwieriger einordnen. Bzw. zeigt sich dass im Quietmode dieser Takt überhaupt nicht erreicht wird. Und das schon bei einer einzelnen Karte.
https://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/12/

Ich finde es als Verbraucher eigentlich besser, wenn mir ein Hersteller eine gewisse Taktfrequenz garantiert. Das wäre dann zumindest ein Betzugswert, auf den man sich verlassen kann. Das hätte ich mir von AMD in dem Fall auch gewünscht. Das ging doch bei der 7970 auch. Daher frage ich mich, warum man dies nicht mehr tut.
 
Zurück
Oben