Bericht Bericht: Nvidia GeForce GTX 680

frankpr schrieb:
Dann kannst Du ja künftig Deine Kommentare zur GTX 680 unterlassen. Die Community wirds Dir danken.
(das bezog sich jetzt auf den ursprünglichen, wie gewohnt unqualifizierten "Beitrag" von caryaner, der inzwischen schon wieder geändert ist.

findest du das Ok wie sich NV die performancekrone erkauft ;

https://www.computerbase.de/2012-04...bschnitt_gtx_680_vs_gtx_580_bei_gleichem_takt


also ich nicht. Ich habe mich trotzdem für die GTX680 entschieden, wegen der lautstärke.
Was HD7970 da fabriziert ist katastrophal (REFERENZ)

Der Preisunterschied zwischen den custom-versionen betrug lediglich 60€, deswegen zog ich NV vor.

:D
 
Zuletzt bearbeitet:
@ Fischkopp

Und wie wärs damit die Hauptests mit normalen CPU`s durchzuführen und "Alternativ" übertaktete CPU`s beizufügen?
 
chris233 schrieb:
(...)
Nvidia hat die Vorteile des shrinks bzw. bessere Temps und den nützlichen Features wie Adaptive Vsync oder Frame Limiter.
ATI hat dafür 3GB Ram, Zero-Core Power, wesentlich bessere Leistungen bei GPU-Computing und besseres bzw. schärferes Postprocessing-AA (morphologische Filterung). Außerdem ist ne 7970 billiger

Ich musste ziemlich lang grübeln obs bei mir ne 680 oder 7970 werden wird, die meine 6970 ersetzen soll. Jetzt wo die 680 auch drei Monitore beherrscht ist man in der Hinsicht wenigstens nicht mehr an AMD gebunden. Schlussendlich wurds dann aber doch wieder eine Karte aus dem Hause AMD, einfach weil man in den großen Eyefinity-Auflösungen doch nochmal nen Ticken schneller den VRAM vollballert, und dafür nichtmal irgendwelche High-Res Texturepacks, Downsampling oder sonstige überproportinal leistungshungrige Qualitätseinstellungen braucht. Und unterm Strich zeigen die ganzen Benchmarks das auch: die 680 "gewinnt" die meisten Benches in Full-HD und kleiner (wenn auch knapp und in einem FPS-Bereich der fast immer egal ist), während die 7970 in den richtig großen Auflösungen (weit jenseits 2560x...) anfängt, vorbeizuziehen. Einfach weil die Karte unbeeindruckter bleibt von den höheren Auflösungen. Die 3 GB VRAM + bessere Leistung bei ultragroßen Auflösungen machen die 7970 daher für mein Nutzungsprofil interessanter. Wobei die 680 trotzdem ein sehr rundes Paket geworden ist, und ich mit Sicherheit niemand kritisieren würde, der sich ne 680 statt ner 7970 holt. Für alles in der Nähe von Full-HD sollte es eigentlich fast egal sein welche der beiden Karten man nimmt. Die 680 ist dort aktuell (meist) ein bisschen schneller, aber der 7970 würde ich eine etwas größere "Zukunftssicherheit" attestieren weil 50% mehr VRAM drauf ist.
 
@ Fischkopp

Und wie wärs damit die Hauptests mit normalen CPU`s durchzuführen und "Alternativ" übertaktete CPU`s beizufügen?

Das müsste dann CB entscheiden, aber nach welcher Kriterien?
Die meisten User nehmen keine typische Gamer CPU, die einen Gamer übertakten, die anderen nicht und dann wären da noch die, die sich benachteiligt fühlen, weil "ihr" Hersteller nicht dabei ist usw.

SO einfach wird das nicht sein und ich finde es schon Sinnvoll das dann doch lieber mit einer CPU zu machen die das Testergebnis für die Grafikkarten nicht verfälscht!
Denn ab gewissen Auflösungen spielt die CPU kaum eine Rolle bis gar keine.
Sprich es ist dann egal wieviel Takt die CPU hat, weil die Grafikkarte (noch!) bremst, umgekehrt wäre es schlecht, weil dann irgendwann alle GPUs die selben Frameraten liefern, wenn die CPU bremst!

Das würde den Leuten mit einer stärkeren CPU gar nichts bringen und nur aufzeigen das bis zu einem gewissen Grad die CPU keine Rolle spielt!
 
Und das dazu noch mit Headset - da hörst ja schon 2x nix mehr von der Grafikkarte :D
 
Viel schlimmer finde ich ja diese sinnlose Diskussion zwischen nVidia & AMD Fanboys.

Es sind - verdammt nochmal - nur Grafikkarten!
Einmal ist die eine Graka schneller, einmal die andere, und in manchen Szenarien liegen sie sogar gleichauf.
Aber klar: Ihr mit euren Adleraugen bemerkt ja den Unterschied zwischen 60 und 61 FPS. Alles klar, ich verstehe. :rolleyes:

Wie immer kommt es auf die persönlichen Bedürfnisse an. Und da tun manche ja so als wär ihre Graka das heiligste das sie besitzen. Geht mal bitte an die frische Luft. :freak:
 
Es hängt übrigens nicht nur davon ab, welches Spiel man bencht, sondern auch noch wie, welche Szenen man benutzt usw.
Schön zu sehen z.B.
http://www.ddworld.cz/pc-a-komponen...d-7970-oc-graficka-bitva-na-ostri-noze-6.html wo auf einmal doch die 7970 die Oberhand übernimmt.
(Ka welche Sprache das ist, schätze mal Tschechisch, für die Charts muss man es eh nicht verstehen ;) )

Gutes Beispiel auch hier bei Stalker. Je nach Szene fallen die Ergebnisse absolut unterschiedlich aus (hier mal 680 schneller, mal 7970):
http://hartware.net/review_1460_15.html
 
Zuletzt bearbeitet:
Warum ist kein aktuelles Strategiespiel im Test, wie Shogun 2 von TotalWar?
Es war ja schon mal in einigen Tests enthalten.

scaled.php


(Ich nutze z.Bsp. bei MSI Afterbrunner 2.2.0, das Zusatztool, MSI On-Screen Display server, um die Framerate bei 30 FPS festzulegen, was meine Graka AMD HD 6970 nicht immer schafft, oft läuft sie bei ca. 80% GPU-Last bei max. Einstellungen, Schlachtenkarte; bei Strategiekarte bei 99%)

2 GB finde ich für eine neue Graka grenzwertig, ~1375 MB benötigt schon derzeit Shogun 2.
 
Zuletzt bearbeitet:
OK rein vom Bauchgefühl würd ich mich nach Jahren wieder für ATI entscheiden.
Das neue an der GeForceSerie ist mir irgendwie nicht ganz sauber.
 
@hill01

da gibts dann aber auch gtx680 mit 4GB und in den hohen Auflösungen ist zwar die Ati schneller jedoch bleiben viele Games nicht wirklich gut spielbar mit bisschen quali settings dazu. Ja bei mir sah es so aus das die GTx 680 ne ganz klar bessere figur in Bf3 macht also war die entscheidung leicht, dazu gab es noch batman arkham city und die 7970 war endgültig raus^^, wobei die Karten sich nicht viel tun da muß man abwägen!
 
nospherato schrieb:
Es hängt übrigens nicht nur davon ab, welches Spiel man bencht, sondern auch noch wie, welche Szenen man benutzt usw.
Schön zu sehen z.B.
http://www.ddworld.cz/pc-a-komponen...d-7970-oc-graficka-bitva-na-ostri-noze-6.html wo auf einmal doch die 7970 die Oberhand übernimmt.
(Ka welche Sprache das ist, schätze mal Tschechisch, für die Charts muss man es eh nicht verstehen ;) )

Sehr interessanter test und zudem mit der karte die ich mir für 459.- bestellt habe (GIGABYTE OC GTX680 WINDFORCE 3X) , danke dafür. ;)
 
Zuletzt bearbeitet:
@balzin ryder
Nur das die 4GB Version dank mehr Verwaltungsaufwand fast durchgehend langsamer ist als die 2GB Variante (man muss aber sagen, dass diese meines Wissens nach höher getaktet ist!). Auch der Nutzen in höheren Auflösungen bewegt sich meist eher im 1FPS Bereich.

http://www.hardwareluxx.de/index.ph...-geforce-gtx-680-4-gb-jetstream.html?start=15

Und ja, im Bereich von 15-16FPS sind das einige Prozent, allerdings sind das bei weitem keine Spielbaren FPS. Selbst mit 2 Karten und ner Steigerung auf 30FPS ist das eine Zumutung.

Lediglich beim SSAA macht die 4GB tatsächlich eine bessere Figur. Wobei das auch hier teilweise an der, für mich, unspielbaren Grenze (unter 45 FPS) nagt...

@caryaner
Aber schön bedenken: Glaube keiner Statistik, die du nicht selbst gefälscht hast ;)
 
JohnDoe1982 schrieb:
OK rein vom Bauchgefühl würd ich mich nach Jahren wieder für ATI entscheiden.
Das neue an der GeForceSerie ist mir irgendwie nicht ganz sauber.


nichts gegen deine entscheidung, aber kannst du das genauer begründen?
 
Würde bei seiner Aussage schätzen, dass er auf den Part hinaus will, dass sobald neuere Spiele kommen die DOF oder ähnliches auch eher einsetzen (wie Metro) hier die 7970 von Vorteil ist.
(wie gesagt, nur eine Schätzung ;) )
 
Blazin Ryder schrieb:
dazu gab es noch batman arkham city und die 7970 war endgültig raus^^!

Du weiss aber schon das der unterschied CPU physX und gpu physX bei Batman2 gleich 0(Null) ist,
kein vergleich zu Mafia2 oder Batman1,
und die Laderuckler hatten alle Karten, ist glaub ich selbst nach den 2 patche immer noch nicht ganz weg.

hier noch ein zweite Meinung :
HisN schrieb:
Dann erkläre ich es. (BTW, Du könntest konstruktiv sein und mir sagen wie ich die Tabellen besser hinbekomme, anstatt nur drüber zu lästern^^).
a) Es gibt keinen Unterschied zwischen PhysX auf der GTX580 die das Bild macht und einer Dedizierten 580 für PhysX
b) Es gibt keinen Unterschied zwischen HW-PhysX und Software-PhysX
c) Die GTX580@850Mhz und mit 3GB Speicher ist im allgemeinen sowieso zu lahm für die gewählen Settings.
 
Schöner Test; bestätigt mir ganz klar, dass es absolut sinnvoll ist, meine 580er SLI karten noch ein Weilchen ihren Dienst verrichten zu lassen.
Die gebotene Mehrleistung ist schlicht zu gering und resultiert primär aus dem höheren Takt (und ja, ich lasse den Stromverbrauch aussen vor). Also werden wir mal sehen, was der GK110 so zu Stande bringt.
*Glaskugel an*
Bei verdoppelter Transistorenzahl ist eine theoretische Mehrleistung von 50% zur 680 möglich, 25-35% sind realistisch, da die Karte wohl primär auf Cuda ausglegt sein wird... mal sehen. Dennoch kann man von einem guten Leistungszuwachs ausgehen. Ich bin gespannt. Und die wird dann interessant wenn die Leistung stimmt und der Stromverbrauch den einer 580er nicht (signifikant) übersteigt.
*Glaskugel aus*
 
Zuletzt bearbeitet:
White_Eagle schrieb:
Warum ist kein aktuelles Strategiespiel im Test, wie Shogun 2 von TotalWar?
Es war ja schon mal in einigen Tests enthalten.

(Ich nutze z.Bsp. bei MSI Afterbrunner 2.2.0, das Zusatztool, MSI On-Screen Display server, um die Framerate bei 30 FPS festzulegen, was meine Graka AMD HD 6970 nicht immer schafft, oft läuft sie bei ca. 80% GPU-Last bei max. Einstellungen, Schlachtenkarte; bei Strategiekarte bei 99%)

2 GB finde ich für eine neue Graka grenzwertig, ~1375 MB benötigt schon derzeit Shogun 2.


Ich habe den fps-limiter bei 65fps, warum weiss ich auch nicht ich denke einfach das mehr bei einem 60hz Monitor sowieso kein Sinn haben.

Jedenfall funktioniert es bei mir prima, gerade bei Spielen wo man lange Zeit in Menüs sich aufhält wo die fps >100fps und mehr hochschiessen profitieren von dieser Bremse.

Mein gpu sinkt zb. bei Word of Tanks im Garagenfenster von 45% auf 21% und die temperatur geht um 5C° runter.
Man könnte jetzt sagen wieso benutzt er denn nicht gleich den Vsync , weil im Spiel selber komme ich nicht über 60fps.

Jedenfalls funktioniert der fps-limiter mit meiner HD5870 richtig gut.


https://www.computerbase.de/2012-04...abschnitt_maximale_fps_vs_fpslimiter_vs_vsync
Maximale FPS vs. FPS-Limiter vs. Vsync
 
Zurück
Oben