Test GeForce GTX 680 im Test: Mit Kepler ist Nvidia wieder die Nummer 1

HamHeRo schrieb:
Viel interessanter als die Frage, wer denn nun hier oder da 10% schneller ist, bei welchem Game und bei welcher Auflösung etc. wäre für mich die Frage, wieso die Shader bei NVidia in Spielen besser skalieren und bei AMD beim GPU-Computing.

Die grundsätzlichen Architekturen sind sich ja ähnlicher geworden. Beide jetzt mit eindimensionalen Shadern mit einem MADD auch bei AMD, die ROPs bei NVidia verarbeiten jetzt auch genau einen Pixel pro Takt (aber eher uninteressant), und die Shader laufen mit dem gleichen Takt wie der Rest.

Dass AMD da beim GPU-Computing vorne liegt, erscheint logisch, die theoretische Rechenleistung ist ja trotz des niedrigen Taktes höher. Das erklärt aber teilweise nicht, wieviel schneller AMD da ist.

Und umgekehrt, wie schafft NVidia es, mit weniger theoretischer Rechenleistung bei Spielen sogar wieder mehr rauszuholen.

Mit "die Treiber sind besser", ist das wohl nicht zu erklären.


Wahrscheinlich macht Softwareoptimierung auch einen guten Teil aus?!

Wer weiß, in wie weit sich das Ganze mit den nächsten AMD/Nvidia Treibern noch verschiebt?!
 
Merlin-.- schrieb:
Es reicht doch, das etwas bessere Produkt zu haben und gleichzeitig noch ein heißes Eisen im Feuer. Denke nicht, dass NV an den Weltuntergang 2012 glaubt und daher möglichst schnell alles Pulver verschießen will.:)

Ich glaube eher nicht, weil wenn man die jetzige GTX 680 als GTX 670 für ca. 400 Euro verkaufen würde, wäre sie um 100 Euro günstiger als AMDs Top Karte 7970 (von der 7950 wollen wir gar nicht reden) und schneller und wer die volle Power haben will würde sich für 700 Euro den GK110 holen.

So würde Nvidia den kompletten Grafikkarten Markt dominieren (aber vielleicht haben sie einfach nur Mitleid mit AMD ^^).
 
Tomahawk schrieb:
Dann hast du Tomaten auf den Augen

Sorry, aber jedes(!) Review kommt zum Schluss, dass Kepler schneller und(!) effizienter ist. Natürlich schwanken die Vorteile je nach Review um einige Prozentpunkte. Mach dir bitte die Mühe und gucke dir zumindest eins genauer an.

Und deine Aussagen wiederspiegeln auch nicht gerade die Objektivität in Person.
Mag auch Leute geben die nicht an jedem Prozentpunkt aufhängen und sich auf Features wie SGSSAA mit LOD-Bias Verschiebung konzentrieren.
Andere wiederum tun das und blenden den Rest aus.

Booby schrieb:
GK110= Nachfolger des GK100, jener wurde gecancelt, da nicht fertigbar!

Quelle bitte.
Auch die AMD Fraktion sollte etwas sachlicher werden. ;-)
 
Zuletzt bearbeitet:
@Krautmaster

Quelle: Logik

GF100 = GTX480
GF104 = GTX460
GF110 = GTX580
GF114 = GTX560

GK100 = canceled
GK104 = GTX680
GK110 = GTX780?
GK114 = GTX760?
 
Zuletzt bearbeitet:
@Drunken.panda

TomsHardware schreibt ....

In der letzten Generation gewichtete Nvidia die Gaming- und Compute-Performance seiner Flaggschiff-CPU in etwa gleich, und so fand sich der gleiche Chip sowohl in der Workstation-Karte Quadro als auch der GTX 580 wieder.

Dieses Mal hält sich Nvidia beim Thema GPGPU-Power auffällig zurück und wollte beim Presse-Event zur GTX 680 nicht viel zur theoretischen Rechenleistung sagen. Man scherzte sogar, dass die Presse es einem übel genommen hätte, wie sehr man den Aspekt GPGPU bei Fermi in den Vordergrund gerückt hatte, und man wollte das Thema nicht schon wieder breit treten.

Tatsächlich ist es wohl so, dass Nvidia einfach noch nicht darüber sprechen möchte. Denn wie uns Sandra 2012 gezeigt hat, ist die GeForce GTX 680 den Radeon-Schwestern der 7900-Familie in 32-Bit-Berechnungen klar unterlegen. Kommen Berechnungen mit doppelter Genauigkeit in 64 Bit ins Spiel, steht die GTX 680 gar auf verlorenem Posten, weil Nvidia absichtlich seine teureren Profi-Karten vor billiger Konkurrenz aus eigenem Hause schützen will und so die Performance deckelt.
 
Schade eigentlich das CB nicht noch eine OC 7970@1006 MHz reingenommen hat, nur um mal zu sehen wie die Werte bei gleicher Taktzahl sind :(
 
tolle karte
vorallem den neuen multi-monitor support und die positionierung der taskbar finde ich gut

aber wie sieht es mit dpc-latenzen aus?
 
Einfach episch.
Nvidia Fanboys suchen Tests von Seiten die gegenüber allen anderen Tests merkwürdige fps Auswüchse zeigen und Argumentieren(auch gern mit Zauberzahlen) dann damit bis irgendjemand mit Durchblick den Blödsinn enttarnt. Doof ist nur das NVIDIA Fanboys die Behauptungen mit 3 Zeilern aufstellen und andere diese mit ewig langen Rechnereien und Beweisen widerlegen. Mal sehen wie lang dieser Thread noch wird.
Dann sagt auf einmal jeder die GTX 680 hätte mehr OC Potential, ja wo den?^^
Der reinste Kindergarten...

Also mein Fazit:
- In relevanten Auflösungen/AA marginal schneller
- Fehlende LOD-Anpassung bei DX 11 Spielen(wird wohl nachgereicht, irgendwann)
- etwas weniger Energiebedarf --> höhere Effizien(ca. Radeon 7950 Level?)
- derzeit teurer(Custom abwarten)
- derzeit lauter(Custom abwarten)
- nur 2GB Speicher welche NVIDIA typisch gerade so ausreichen für eine Singlekarte dieses Kalibers(für SLI 4GB Karten abwarten)
- gleiche Bildqualität(man kanns auch übertreiben)
- beide Vertreter haben Potential durch zukünftige Treiber

Also die Karte ist für NVIDIA extrem wirtschaftlich aufgestellt, alles an der Karte ist "Mainstream" da aber das die einzige Karte ist ist sie halt High-End, High-End ist nämlich das was sich am Preis und Leistung messen lässt.
Ich sehe derzeit leichte Vorteile für NVIDIA, Leute die aber eine Karte sehr lange ihr eigenen nennen werden aber mit 2GB vram in 2 Jahren an ihre Grenzen kommen.
Angesichts 3 Monate späteren Launches sind die Werte ok. Aber es ist eben die EINZIGE NVIDIA 6xx Karte die überhaupt bisher releast wurde. Abwarten was noch kommt.

So, was an dem Fazit ist falsch oder könnte einen Fanboy zum austicken bringen?

EDIT: Ich empfehle als Singlecore Karte für normale Leute die Radeon 7950/7870. Der Rest ist Preistechnisch einfach zu sehr abgehoben. Multimonitoruser können objektiv betrachtet nur die Radeon 7950/7970 in Crossfire wählen.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Der GK100 war schon vor 3 Jahren als G100 ein Begriff und wohl schon immer ein Hirngespinst durch Namensspekulationen. Der G200 / GF110 ist nicht anderes als ein "G100"...

Dann schau dir doch bitte mal das Namensschema von NV an...

Gxxx (alter Kram)
GF100 (mit F wie Fermi) GTX480
GF104 GTX460
GF110 GTX 580
GF114 GTX 560TI
GK104 (mit K wie... *tada* Keppler) GTX680
GK110 vermutlich die GTX780
 
Ball_Lightning schrieb:
Nun mal Realität: Aber genauer: 5%-40% effizienter, je nach Quelle und Spiel.
http://www.tomshardware.de/geforce-gtx-680-test-benchmarks-Kepler-GK104,testberichte-240979-19.html

Der Wert in deiner Quelle ist nur so niedrig, da wegen der lahmen CPU (i7-920) sehr häufig ein CPU-Limit vorliegt und so die Differenzen zwischen den Grafikkarten teilweise recht klein ausfallen.
 
Zuletzt bearbeitet:
@HamHeRo & drunken.panda


Software macht nur einen kleinen Teil davon aus. Ja die Architekturen sind weit ähnlicher als noch vor einem halben Jahr.

Während AMDs Top Chip Tahiti auf GPU Computing ausgelegt ist, ist und der kleine Pitcairn ihr "GK104" und der auf Spieleleistung und Kosteneffizienz getrimmte Chip (Pitcairn ist zB nochmals viel kleiner als der GK104). Das sind kleinere Einsparungen auf Architekturseite die den Chip schrumpfen lassen, Transistoren werden gespart die zb. GPGPU zu Gute kommen würden. GPGPU ist bei Karten um HD7970 oder dort, wo der GK104 eig angestetzt war, einfach weniger von Bedeutung, als bei den High End Chips GK110 und Tahiti. Letztere beide werden in Server Karten wandern und da dann ihre GPGPU Power unter Beweiß stellen müssen.

@Jesterfox & Booby

ja sicher, aber demnach hätte zb auch ein G100 auf den G80 folgen müssen, was kam, ein G200.

Das Namensshema würde ich hier nicht heranziehen. Zudem, wie und wann hätte der GK100 kommen sollen?

Außerdem hüpft genau jetzt wieder die GK104 als GTX 680 aus der Bahn.

Es klingt zunächst logisch, aber das einzige was man nahezu immer festhalten kann:

GF2** = GTX 2XX
GF10* = GTX 4XX
GF11* = GTX 5XX
GK10* = GTX 6XX

Es gab auch keinen GF100 in der 5XX Serie, also wäre es wenn die GTX680 das Topmodell der GTX6XX bleibt nur logisch, dass

GK11* die GTX 7XX Serie wird.
 
Zuletzt bearbeitet:
Es ist immer die größte Party wenn Krautmaster und Tomahawk zusammenkommen, kaum technisches Hintergrundwissen aber die besten Sprüche roppen, es wird Cherrypicking auf die Spritze getrieben, fehlt wirklich nur noch Nokia mini.

50% Effizienter Nice :)

Ich wette Tahiti ist bei Number crunching 200% effizienter, na klingelts?

@Krautmaster

Wenn du die Kontinuität einer Folge nicht verstehst, kann ich dir nicht helfen.
 
Zuletzt bearbeitet:
Tomahawk schrieb:
Nun mal Realität:

Nimm doch bitte Werte aus mehreren Test und bilde den Durchschnitt, anstatt ständig die Rosinen zu picken.
Man muss sich ja nicht alles immer absichtlich schönreden, man kann auch sachlich und konstruktiv bleiben, aber das ist scheinbar über dem Niveau von einigen hier.
 
Hm... also wie zu erwarten war, ist auch diese Nvidia Karte absolut keine Option für mich... Schade auch, aber wenn ich die Spiele nicht gescheit und flüssig auf meinen Settings zocken kann... dann wirds halt die 7970.
 
Krautmaster schrieb:
Außerdem hüpft genau jetzt wieder die GK104 als GTX 680 aus der Bahn.

Das ist ja genau der Punkt des Rätselratens... wie hätte der GK100 ausgesehen und wie wird der GK110 (falls er kommt ;-)
 
Nimm doch bitte Werte aus mehreren Test und bilde den Durchschnitt, anstatt ständig die Rosinen zu picken.
Rate mal, wieso ich ein recht breites Intervall angegeben habe? Klingelt's?

Man muss sich ja nicht alles immer absichtlich schönreden, man kann auch sachlich und konstruktiv bleiben,
Was muss denn schöngeredet werden? nVidia-Karte ist flotter und effizienter. Basta. Dazu kommt jedes(!) Review. Das der Unterschied bei der Performacne (rund 10%) und der Effizienz (rund 20%) nicht riesig, aber auch nicht "fast" 0 ist, sagt dir auch jedes Review.
 
Bin echt froh, dass auf diesem Markt die Performancekrone immer wieder hin und her wechselt. So muß das sein. Das würde ich mir bei CPUs auch wünschen.

Ich bin ja riesig Neugierig auf die Auswirkungen der GPU-Boost-Sache. Wenn die Qualität der Bauteile, Kühlerkonstruktion und Verarbeitung nun deutliche Auswirkungen auf die Leistung haben, werden die Grafikkarten-Tests zwar verwirrender, aber die Hersteller haben die Möglichkeit, zu zeigen, was sie können.
 
Booby schrieb:
@Krautmaster

Wenn du die Kontinuität einer Folge nicht verstehst, kann ich dir nicht helfen.

Naja, wer sagt dir denn offiziell dass der GK110 GK110 heißen muss und nicht GK100?

Den Namen biegt man halt so hin wie er auf die Serie halt kommen muss... genauso beim Namen der GTX 680, der wurde offensichtlich auch so gewählt weil er halt gepasst hat, trotz **4er Chip.

Müsste man den "Vollausbau-Chip" nun bringen, hieße er vllt GK100, GK110 deutet offensichtlich eher auf GTX 7XX hin.

Außerdem muss ich mir von dir sicher kein

kaum technisches Hintergrundwissen aber die besten Sprüche roppen, es wird Cherrypicking auf die Spritze getrieben

anmaßen lassen.

Edit:

Zudem habe ich nie die HD7970, die du so beherzt verteidigst, schlecht geredet. Angesichts der Werte ist sie ganz klar auf Computing ausgerichtet und zeigt auch da ihre Stärke. Auch bei Spielen ist sie top, zudem bietet sie meiner Ansicht nach mehr Raum für die Zukunft bei texturlastigen Spielen oder sehr hohen Auflösungen. Zumindest gegen die 2Gb GTX 680. Letztere wird sich bei OC wohl erstmal beweißen müssen, siehe 6-8 pin + teilbestücktes PCB bei der GTX 680.

Die Last Effizienz beider Karten würde ich als fast gleichwertig einstufen, ich denke die GTX wäre gerade bei niedrigeren Taktraten durch den doch kleineren Chip etwas effizienter.

Ihr großer "Effizienz"-PlusPunkt ist der Frame Limiter. Aktiviert man diesen bei zb 60 FPS, so hat man mit Sicherheit durchweg eine sehr viel effizientere Karte. Genau das kommt bei dem Test wenig heraus.
Dazu müsste man den gesamten Parcour als Intervall sehen und die aufgenommene Leistung auf Zeit messen, bei aktivem Limiter und zb 60FPS.
 
Zuletzt bearbeitet:
Frage zum Abschnitt:
Im Multi-Monitor-Betrieb will unser Exemplar dann aber aus unerklärlichen Gründen nicht in den 2D-Modus wechseln, weswegen der Energiehunger dort mit 104 Watt (und damit exakt gleich viel wie die Radeon HD 7970) erstaunlich hoch ausfällt.

Kann es sich da noch um einen Treiber Fehler handeln? Und habt ihr 2x Monitore mit der gleichen Auflösung betrieben?
 
Zurück
Oben