Test Test: GTX 680 SLI vs. HD 7970 CF

die beiden syste nehmen sich fast nichts. wer sich für den P/L-sieger entscheidet und features wie cuda/eyefinity nicht braucht liegt sehr gut bei beiden.
 
Hallo, ich bin dabei mir eine der 2 Karten zu kaufen. Mein Problem ist, ich weis nicht welche mehr Vorteile hat wenn ich nur auf EINEN Monitor spiele. Hier redet ja jeder von CF/SLI...
Laufen dann auch aktuelle Spiele auf max Settings?

Bitte um schnelle Antwort, da ich heute noch bestellen will :)
mfg
 
@eing177de:

Kommt auf die Auflösung des einen Monitors an und in welchen Settings du spielst, sprich welcher AA Modus usw.
Bei Full HD (also 1920 x1080) sollte eine der beiden Karten für praktisch alles reichen!
 
Genau 1920x1080. Das ist gut zu hören, dann werd ich wohl zur 7970 tendieren, da ich den PC schnell brauch und diese weniger Wartezeiten hat.
Vielen dank für die schnelle Antwort =)
 
wing177de schrieb:
Hallo, ich bin dabei mir eine der 2 Karten zu kaufen. Mein Problem ist, ich weis nicht welche mehr Vorteile hat wenn ich nur auf EINEN Monitor spiele. Hier redet ja jeder von CF/SLI...
Laufen dann auch aktuelle Spiele auf max Settings?

Bitte um schnelle Antwort, da ich heute noch bestellen will :)
mfg

Es spielt im Moment kaum eine Rolle ob NVIDIA oder AMD. Kosten tun sie eine menge Geld und sie haben alle ihre Vor- und Nachteile.

Willst du unbedingt PhysX, dann NVIDIA.
Spielst du lieber Anno2070, dann AMD.

Auch scheint die GTX680 bei echten PC-Spielen wie Metro2033 oder Crysis/WH so ihre Probleme zu haben, da anscheinend die Texturen zu aufwendig sind für das keine Speicherinterface der GTX680.

Von Daher würde ich eher zu AMD greifen. Sie bietet keinerlei Kompromisse und ist überall recht schnell.
 
Sind beides sehr gute Karten, wegen der 3GB RAM würde ich aber zur AMD greifen, wenn ich die Karte mehrere Jahre behalten wollte.

Ansonsten ist die Kühlung für mich wichtiger im Alltag, also kühlt gut und sehr leise, als jetzt 10% mehr Leistung hier oder da zu haben.
Daher ist die Wahl des exakten Modells in meinen Augen wichtiger als die Frage "HD7970 oder GTX680?".
 
Fischkopp schrieb:
Dann bist du aber sehr unempfindlich was das angeht oder spielst Spiele die keine hohen Ansprüche an die Karten stellen!

Es geht nicht nur um Empfindlichkeit, sondern auch darum, was das menschliche Auge noch wahrnehmen kann. Sobald ein gewisser Grenzwert an FPS unterschritten wird, schlagen Microruckler natürlich gnadenlos zu. - Sollte mit zweier der getesteten Karten vorerst aber auch nur in Extrem-Fällen auftreten.

WarumAuchNicht schrieb:
Eigentlich schade das Multi-GPU leider immernoch eine Spielerei ist...
Einmal und nie wieder ;)

Natürlich ist es eine Spielerei. Crossfire und SLI zeigen was technisch möglich ist. Es wird bestimmt eine kleine Randgruppe geben, die auf Multi-GPU setzten (müssen): Leute, die beispielsweise Hard Reset auf riesen-Displays in hohen Auflösungen spielen wollen ...
 
Habe mir gestern auch eine zweite 7970 (VTX3D X-Edition) bestellt - für aktuell 459,- recht guter Preis. Hauptanwendungsgebiet sind bei mir Flugsims - und hier belegt z.B. Rise of Flight bei 1680x1050 ganze 2,8GB Grafikspeicher. Das Game läuft (mit im Game-Menue alles auf max) am Boden mit ca. 40fps in der Luft mit über 60fps. Aktiviere ich jedoch auch im Treibermenue alle Goodies (Qualität) sinkt die Framerate auf teilweise <20fps am Boden - das wird sich mit der zweiten Karte dann hoffentlich erledigt haben ;-)

Interessant in dem Zusammenhang ist übrigens auch der aktuelle Test der GTX680 auf KitGuru, da dort auch das aktuelle ATI Flagschiff 7970 MSI Lightning verglichen wird.

Die o.g. VTX3D ist leistungsmäßig 1:1 zur Lightning vergleichbar (sh. Test auf selber Seite).

Bin schon gespannt wir Harry :D
 
Iron Grey schrieb:
Es geht nicht nur um Empfindlichkeit, sondern auch darum, was das menschliche Auge noch wahrnehmen kann. Sobald ein gewisser Grenzwert an FPS unterschritten wird, schlagen Microruckler natürlich gnadenlos zu. - Sollte mit zweier der getesteten Karten vorerst aber auch nur in Extrem-Fällen auftreten.

Sollte, wenn ... hätte... könnte.
Sorry, aber die viel besagte 30 FPS-Grenze bei Microrucklern ist nur eine rein subjektive Grenze, wo wirklich jeder sie erkennen sollte. Sprich, selbst ein Blinder mit Krückstock.
Wer sich allerdings länger damit beschäftigt, kann die Microruckler selbst bei 40,50 oder gar 60 FPS klar erkennen.
Darunter zähle auch ich.
Deshalb spiele ich lieber mit 25-30 FPS als mit ruckeligen 50 FPS.

Natürlich ist es eine Spielerei. Crossfire und SLI zeigen was technisch möglich ist. Es wird bestimmt eine kleine Randgruppe geben, die auf Multi-GPU setzten (müssen): Leute, die beispielsweise Hard Reset auf riesen-Displays in hohen Auflösungen spielen wollen ...

Technisch möglich ist CF/SLI mit Sicherheit nicht an der Grenze des Machbaren.
Schließlich hat sich seit der Einführung von Multi-GPU-System kaum etwas geändert.
SLI und Crossfire sind absolut veraltet, da dort kaum in bessere Technik investiert wird.
Es läuft immer nach Schema F ab.
Ein Hersteller entwickelt eine neue GPU, die für sämtliche Bereiche wie Mainstream,Performance und High-End herhält. Darauf werden die Treiber optimiert und sämtliche Bug beseitigt.
Später folgt dann eine Dual-Karte für den Enthusiasten-Markt bzw. für die Krone der GPU-Schöpfung. Dort werden dann ausschließlich für lange Benchmarksbalken eine Profil erstellt um eine möglichst hohe Skalierung zu gewährleisten und somit das bestmögliche werbewirksame Marketing zu ermöglichen. Und fertig ist die Anpassung.
So ist das schon seit der HD3870X2 und wird jetzt zur kommenden HD7990 nicht anders ablaufen.

Warum ?
Die Hersteller entwickeln nur eine GPU für eine Karte.
Eine zweite GPU ist schließlich nicht vorgesehen und wird einfach nur dazu gesteckt.
Ist somit die günstigste Lösung um damit den längsten Benchmarksbalken zu erreichen.
Und da wird sich wohl auch in 10 Jahren und 5 Generationen nichts ändern.
 
Iscaran schrieb:
Ist schon auffällig bei wie vielen Spielen man hier gefährlich am "limit" ist....in 1 Jahr mit neuen Spielen ists dann aus.
Naja ich sehe hier bei deinen Beispielen, kaum einen Fall wo man klar den Speicher als Grund erkennen kann. Es kann auch noch andere Ursachen haben, dass Nvidias Design im Vergleich zu AMDs Karten bei höheren Einstellungen eher einbricht.
Man kann das Pferd auch andersrum aufzäumen und sagen dass die AMD-Karten einfsach nicht ihre volle Performance bei niedrigen Settings abrufen können. Ich mein das Ergebnis ist das gleiche, aber die Erklärung eventuell eine andere.
Bei Fermi war es ja auch schon so, dass die AMD-Karten mit zunehmender Auflösung den Rückstand verringerten bzw. den Vorsprung ausbauten. Und das auch in Settings wo der DRAM garantiert nicht limitiert.


Metro2033 sollte klar sein, der Einbruch riecht förmlich nach DRAM-Mangel (Wobei die Settings eh unspielbar sind).
Aber bei Bulletstorm sehe ich das rein gar nicht. SLI würde sicher nicht noch so gut skalieren wenn der Speicher limitieren würde.
Das gleiche bei Serious Sam 3. Zudem bringt hier zugeschaltetes AA keinen übermäßig großen Performanceverlust, obwohl AA den Speicherbedarf massiv erhöht.


Momentan sehe ich das so, dass 2GB für ne einzelne Karte ausreichen. Im SLI ist das schon nah am Limit gebaut. In wenigen Fällen mag dort die Speichermenge limitieren, meist reicht es aber noch aus. Aber wenige Fälle reichen ja schon, wenn man eben diese Fälle spielen will. ;) Und in Zukunft wird der Speicherbedarf auch sicherlich nicht kleiner werden, so dass noch mehrere Titel hinzu kommen können.

Wann die 2GB Speicher limitieren kann erst mit erscheinen der 4 GB Karten perfekt rausfinden.

Kasmopaya schrieb:
Nicht wirklich, bevor bei den AVG FPS die FPS so derbe einbrechen, damit Otto normal das überhaupt erkennt das es am Vram liegt, hat man schon Nachladeruckler und direktes Aufpoppen von irgend welchen Texturen vor der Nase.
Naja wenn man sich den Frameverlauf bei HardOCP anschaut, sieht man selbst bei 5760x1200 und 8xAA keine Einbrüche. Texture-Mods können wieder was anderes sein, da hab ich noch keine Tests zu gesehen. Aber da kann man jeden Speicher vollkloppen.
 
Zuletzt bearbeitet:
@ Pickebuh

Der MGPU BQ Enthusiast benützt in der Regel (2012) den fps Limiter, verzichtet auf ein paar max fps und genießt.

Solange er nicht so pauschalen Mist lesen muß....
 
Der SGPU Enthusiast gibt viel Geld aus, bekommt dafür auch viel. Der MGPU Enthusiastgibt mindestens das Doppelte aus, hat einen Haufen Ärger und muss sich seine Investition noch krampfhaft schönreden. Wobei es nicht ganz so übel wäre, wenn die ganzen Tests nicht SGPU mit MGPU 1zu1 vergleichen würden.

Unglaublich wie man da soviel ausgibt und damit völlig zufrieden sein kann. Normalerweise müsste man hoffen das es besser wird, aber nicht bei MGPU. Hier sind alle gleich völlig geschockt wenn die Forderung kommt das die Hersteller auch eine Gegenleistung erbringen sollen.
 
Sagen wir meinetwegen ich/man hat mit Dual GPU nur 50% echte saubere Mehrleistung.

Ist doch ein guter Preis. Schau mal bei GTX 570 und 580 was da die Mehrpower kostet. 20% Mehrleistung für 60% Mehrkosten.

SLI ist ein Schnäppchen und ausserdem optionslos...
 
...wo ist das Problem...? Wenn Crossfire nicht funzt, ruckelt oder sonstwas - wird die Karte wieder eingepackt und geht zurück an Absender... Allerdings wenn es funzt...:D:D:D
 
P/L ist bei CF/SLI wirklich gut, selbst wenn man nur nach gefühlten fps geht. Und der Speed ist einfach schön. Grad in den intensivsten Szenen sind an die 100% Mehrleistung drin, auch mit fps-Limiter.
 
@Pumpi & @boxleitnerb

Da kann ich euch nur zustimmen. Ich kann mir nicht mehr vorstellen unter konstanten 45-50 eher 60 MinFPS zu spielen. CF/SLI ist aktuell immer noch alternativlos, sofern man große Auflösungen fährt, oder empfindliche Augen hat.
25-30(Min)fps mit einer EinzelGPU ist für mich indiskutabel.

VG
 
Aus meiner Sicht wäre natürlich schon eine der Karten ausrecihend, denn....

Ich habe 2 460er mit 1GB und unter Volllast verbrauche ich mehr als eine der beiden Karten (680/7970) und habe weniger FPS...meine Stromrechnung würde es freuen und sich nach etwa 2 Jahren wäre auch der Kauf amortisiert.
 
Ich hatte jahrelange eine 4870x2 im rechner bis sie dann irgendwann den geist aufgegeben hat und ich mir dann "überbrückungsweise" eine 4890 besorgt habe , ist mir erst dann klar geworden was für eine Sch**** ich die ganze zeit im rechner hatte.
Ich dachte mir nunja jetzt musst du erstmal die Details in Crysis reduzieren und wieder flüssig spielen zu können , aber das war nicht nötig trotz angeigten teilweise nur 25 fps lief das spiel besser als vorher.

Offensichtlich sind solche karte nicht zum Spielen gedacht...
 
Zurück
Oben