Test GeForce GTX 680 im Test: Mit Kepler ist Nvidia wieder die Nummer 1

Die höchste VRAM-Auslastung bei BF3 (1920x1080) war bei mir nicht ganz 1,5GB...ausgelesen mit Afterburner...habs eben nochmal versucht,ehr geht der guten 5870 die Puste,als der VRAM aus.

@Topic

Finde die GTX 680 und die 7970 nicht verkehrt,aber beide sind mir zu teuer und der Leistungszuwachs ist mir noch zu gering...wegen den paar Spielen, welche die Graka mal richtig fordern...da kann ich auch noch bis zum Refresh warten.
 
@gecan: ich besitze eine geforce 2 mx 400 64 mb und eine geforce 2 gts 32 mb in meiner sammlung und bis heute ist noch immer die gts die schnellere karte. vram muss zur gpu-leistung passen. zu viel vram ist reine bauernfängerei. eine gts450 4 gb ist auch in zwanzig jahren noch langsamer als eine gtx460 1gb.

die 3 gb/4gb helfen bei cf/sli, bei einer einzelkarte mit heutiger rechenleistung konnte ein realer bedarf von mehr als 1,5 gb meines wissens nicht nachgewiesen werden. die 2 gb von 6970, gtx680 etc sind mehr als ausreichend. natürlich kann man jeden vram künstlich zuballern. egal ob 2 gb, 3 gb oder 1 tb... das ist aber weder realistisch noch zukunftssicher.
 
und genau das ist es ja das lustige daran an vram geschichte, angenommen die gpu ist noch schnell genug für kommende spiel doch was pasiert mit der gpu leistung bzw fps performance des spiels wenn das spiel deutlich mehr vram benötigt als der gpu es hat ?

würde sagen genau da sollte man eher lachanfall bekommen :D
 
Zuletzt bearbeitet:
Lübke schrieb:
die 3 gb/4gb helfen bei cf/sli, bei einer einzelkarte mit heutiger rechenleistung konnte ein realer bedarf von mehr als 1,5 gb meines wissens nicht nachgewiesen werden. die 2 gb von 6970, gtx680 etc sind mehr als ausreichend. natürlich kann man jeden vram künstlich zuballern. egal ob 2 gb, 3 gb oder 1 tb... das ist aber weder realistisch noch zukunftssicher.

Einfach den Thread anschauen da ist so ziemlich alles vertreten bis rauf zu 3GB VRam verbrauch. Allerdings gibt es auch schon so Glanzstücke wie Age of Conan das in 1024er Auflösung 1.2GB verbrät. :eek:

Es war bisher immer so, dass Entwickler, egal ob Spiele, Betriebssysteme oder normale Software aus den Vollen geschöpft haben, warum sollte sich das in Zukunft ändern? Da hat man dann halt ruck zuck 2GB VRam verbraten, soll sich der User halt ne bessere GraKa kaufen oder die Settings runter schrauben.

Und die andere Frage ist, warum sollte ich mich, wenn ich schon davon weiß was es für Grafikhämmer gibt (ob nun durch Mods oder von Haus aus) warum sollte ich mich dann mit weniger zufrieden geben?
 
Zuletzt bearbeitet:
das verhältnis leistung/rambedarf ändert sich ja nicht. wenn spiele 3 gb datendurchsatz erfordern, reicht weder die gtx680 noch die 7970.
sollte jemals die gts450 4gb die gtx460 1gb in spielbaren fps überholen, nehme ich gerne alles zurück ;)

@Antimon: lies mal das was ich unterstrichen habe ;)
es ist ein unterschied, wieviele daten im vram ausgelagert werden können und wieviele real gebraucht werden. wenn der vram real zu klein ist, brechen die fps ein. hier ein wirklich aussagekräftiger test zum thema:
https://www.computerbase.de/artikel/grafikkarten/2x-geforce-gtx-580-test.1427/
 
Zuletzt bearbeitet:
gecan schrieb:
und genau das ist es ja das lustigste an vram geschichte, angenommen die gpu ist noch schnell genug für kommende spiel doch was pasiert mit der gpu leistung wenn das spiel deutlich mehr vram benötigt als der gpu es hat ?

würde sagen genau da sollte man eher lachanfall bekommen :D

Sehr unwahrscheinlich, da die VRAM-Verbraucher (z.b. AA) meist auch eine hohe Rechenleistung
brauchen. Also du kannst dann zwar 4GB VRAM füllen, aber dümpelst mit 20fps rum. Die Leistung muss zum VRAM passen.
 
@hawk1980
und für die Leuts, die sich jetzt oder demnächst ne neue Karte zulegen wollen (so wie ich) hat Nvidia eben nicht verpennt. Demächst kommt wieder neschnellere AMD, nah ein paaar Monaten wiede ne schnellere Nvidia, dann 3-4 Monate weiter... etc
Da kann kein Hersteller IRGENDWAS verpennen. Darauf war das mit dem egozentrisch bezogen ;)
Wenn Du sickig bist weil Nvidia nicht gerade für Dich Speerspitze der Singlekarten parat hält wenn Du Geld in den Fingern hast, ist das bestimmt nicht deren Problem. Also bleib entspannt!

Ergänzung:
Das ist jetzt kein Scherz! Könnte man eine GTX680 auf das Niveau einer GTX570 herunterregeln, und diese dann PASSIV betreiben? Die sollte dann doch unter 100W max locker drin sein, und für FullHD +max Details reichts immernoch für die meisten Spiele. Die Kosten für die Karte seien mal nicht beachtet...
 
Zuletzt bearbeitet:
gecan schrieb:
wieso lachanfall?

meinste es gibt nur leute wo jedes jahr sich ne neue karte kaufen oder was ?

Wir sind uns doch wohl einig, dass bei ungefähr gleichem Launch-Preis z.B. das Preis/Leistungsverhältnis z.B. von einer GTX 480 -> 580 -> 680 immer besser geworden ist, das sieht bei AMD, Intel usw. nix anders aus.

Je früher ich also mein Geld ausgebe, desto weniger bekomme ich dafür. Wenn ich also jetzt Geld für Leistung ausgebe, die ich erst in der Zukunft brauche (Zukunftssicherheit), dann habe ich genau für den Teil "Zukunftssicherheit der Karte" zuviel bezahlt, weil es diese momentan noch überschüssige Leistung eben in Zukunft für weniger Geld geben wird.

Zudem fällt es den meisten Leute finanziell eher leichter, im Jahresabstand 250€ auszugeben, als alle 2 Jahre 500€, sonst könnten nämlich Banken ihren Geschäftszweig der Kreditvergabe aufgeben und Ratenzahlung würde auch niemals jemand in Anspruch nehmen.

Wenn ich jetzt aber unbedingt eine 7970/680 brauche weil ich mit SSAA oder was weiß ich spielen will, dann spielt das Geld nicht so die große Rolle. Damit bin ich dann genauso lange zukunftssicher, bis die nächstbessere Karte rauskommt, denn dann läuft auch Crysis mit SSAA vielleicht mal mit mehr als 30-40 FPS.

Ich befürchte, dass wird vor Ablauf von 2-3 Jahren der Fall sein :D


gecan schrieb:
hier muss man normaler weise genau achten was man kauft für die zeit bis man sich ne neuere kauft bei den selben preis bzw wo sich der preis auch lohnt !

Ob sich der Preis lohnt, darüber kann man ja streiten, aber ich habe meine 7970 ganz sicher nicht gekauft, weil sich der Preis gelohnt hat, oder weil ich meine damit in 2 Jahren noch ganz vorne dabei zu sein.

Eine 7970 steckt bei mir aus reiner Unvernunft drin. Nicht weil ich ohne ordentliches AA und alles @max nicht leben kann, oder weil ich an die Zukunft gedacht habe, einfach weil es gerade das war, was z.Z. am schnellsten war und das macht Spaß.

Das Gleiche trifft uneingeschränklt auch auf eine GTX 680 und jede noch kommende Karte zu.
 
Zuletzt bearbeitet:
alex 89 schrieb:
Was mir auffällt ist das auch die 2 gb Vram Karten von AMD sprich 6970 und 6950 bei hohen Auflösungen nicht so wegbrechen wie die GTX 680.
Das bedeut für mich das die Architektur ein grundlegendes Problem mit hohen Auflösungen hat oder das bei Nvidia mit dem Speicher sehr verschwenderisch umgegangen wird, oder AMD das einfach besser macht.

nein nein, die Chipleistung ist bei der GTX680 einfach deutlich höher als bei den HD69XX Karten, da verschiebt sich natürlich der Flaschenhals wieder etwas Richtung SI.

Die GTX680 fährt relativ am Limit was das SI angeht, relativ. Bisher scheint es der Karte jedenfalls nicht das Genick zu brechen.
 
BigWorm48 schrieb:
Du hast BF3 und CoD MW3 an ist klar das der Speicherverbrauch hoch ausfällt.


hier nochmal gut zusehen das es mein server ist von mw3 !

und nach längeren spielzeit ist der vram sogar bis auf 2,5gb gestiegen.

und die hd7970 rockt in jeder hinsicht weiter bei unter 73°C bei offene tower !
 
Je früher ich also mein Geld ausgebe, desto weniger bekomme ich dafür. Wenn ich also jetzt Geld für Leistung ausgebe, die ich erst in der Zukunft brauche (Zukunftssicherheit), dann habe ich genau für den Teil "Zukunftssicherheit der Karte" zuviel bezahlt, weil es diese momentan noch überschüssige Leistung eben in Zukunft für weniger Geld geben wird.

DAS ist das Sinnvollste & Logischste was ich hier bisher gelesen habe!

Natürlich kann man die Leistung einer GTX680 heute schon nutzen, habe aber zugleich länger was davon.
 
Zuletzt bearbeitet:
Also ich hätte auf das linke bild als Extreme getippt :D und das rechte nur ulra .
 
Vitec schrieb:
Also ich hätte auf das linke bild als Extreme getippt :D und das rechte nur ulra .

Was heißt hier "nur" ultra ? Bei Crysis 2 ist "Ultra" toller als "Extreme".

Ist aber manchmal schwer bei dem inflationären Gebrauch von Wortschöpfungen für Superlative noch durchzublicken, geht mir genauso.
 
ich finds bei der techdemo etwas schade dass die animationen so "weich sind".
Echte Haare bewegen sich nunmal nicht (kaum) und wenn auch nur ganz zappelig im Wind.
Und ein echtes Augenlied schließt nunmal ganz schnell und öffnet wieder ganz schnell.

Ich hab irgendwie das gefühl bei aller Mühe haben die meisten Entwickler das immernoch nicht begriffen, so wird das nie was mit Photorealismus :o

Aber ansonsten spricht die neue Techdemo schon Bände, wenn jetzt noch solangsam mal die Spiele nachziehen würden.
Ich hoffe da ja stark auf die Unreal Engine 4, Zwar sehen die Spiele am Ende nie so aus wie in Techdemos oder ersten Bildern (In diesem falle die Samaritan).
Allerdings lässt sich da meistens mit einfach Kniffen was rausholen, da mängels Hardware-Hunger meist nur paar einfach Schrauben runtergedreht werden (Bestes Beispiel Crysis mit dem gdc_reloadet Level, das doch ganz schön was aus dem Spiel rauskitzelte)


Zur Grafikkarte selber sag ich bewusst nicht viel, da die Überschrift eigentlich schon alles Nennenswerte sagt: Angriff auf AMDs 7970

Das beudetet: Schneller (10%), mehr Bildqualität, und dafür aber auch extrem teuer, also noch noch noch teurer als die so schon teure HD7970.
Ich finde dieses Thema frisst sich solangsam wie ein altes Kaugummi.
Eigentlich heißt es ja: Ohne Hardware nicht die passenden Spiele.
Aber in dem Falle heißt es wohl eher: Ohne passende Spiele auch nicht die Hardware.
Weil die meisten Spiele immernoch auf DX9 rumbaumeln hat man es wohl immernoch nicht für nötig gehalten, mal wirklich was Neues zu entwickeln, und damit meine ich auch mal vielleicht DX12.

In moment ist mir also viel interessanter, was da so passiert. Von daher ein mehr spiel-orienterter als hardware-orientierter Kommentar.
 
ok dann um es anders zu sagen, ich würde meinen das das linke bild mit den besseren einstellungen fährt.
WEnn ich mir aber die texturen an dem ablüftungsrohr(anlage ansehe oder die mittlere rechte häuserfassade dann greif ich mir an den kopf wenn das das maximal mögliche sein sollte .

Naja
 
gecan schrieb:
hier nochmal gut zusehen das es mein server ist von mw3 !

und nach längeren spielzeit ist der vram sogar bis auf 2,5gb gestiegen.

und die hd7970 rockt in jeder hinsicht weiter bei unter 73°C bei offene tower !

Hast Du das Gehäuse immer beim Daddeln auf? Auch geschlossen wird Deine Karte nicht überhitzen.

Ich schaffe es sogar mit Minecraft, meine Karte ins Limit zu kriegen bei geschmeidigen 89°C. Die Temperatur schaffe ich mit keinem anderen Spiel. Geht der Karte auch am Arsch vorbei.
 
xeq schrieb:
ich habe noch zeit bis juli, aber 3. quartal wäre da auch schon etwas knapp. hat das letztes mal auch länger als 3 monate gedauert, bis die kleineren versionen kamen?

Das weiß ich auch nicht, aber wie gesagt hat das nur ein normaler User geschrieben, muss also nicht unbedingt stimmen.
Vlt. kann sich noch jemand anderes dazu äußern, habe erst gerade wieder angefangen mich mit Grafikkarten auseinanderzusetzen und bin daher nicht wirklich auf dem neusten Stand der Dinge.
 
Sagt mal, gibt es einen Grund, warum die HD7850 bei 2560x1600 nirgends mehr auftaucht? Ist mir schon beim Launchartikel aufgefallen. Da die Karte in meist so schnell wie die HD6950 und tlw. schneller als die GTX570 ist, die beide noch auftauchen und da sie 2GB VRAM hat, kann ich mir nicht vorstellen, dass sie etwa in dieser Auflösung stark einbrechen würde.
 
Starke Karte und schöner Test, danke CB. Ich bin zwar noch mit meiner GTX 580 wunschlos glücklich, aber was Nvidia da gebaut hat ist echt beeindruckend und verleitet zum Kauf. :D
 
Zurück
Oben