Test Test: Nvidia GeForce GTX 690

@Nexus
Ich sagte ja,wenn man keine sehen will sieht man keine. Dennoch sind sie da. Mag sein das es der eine oder andere weniger sieht, ich sehe sie. Bei Crossfire sowie bei SLI. Auch mit 2x GTX680 waren sie deutlich wahrnehmbar.

Z.B. habe ich sie in BF3 deutlich bemerkt!
 
CB sollte endlich für alle Nvidia Karten den jeweils aktuellsten Treiber verwenden... und nicht wie hier und im "GTX680 Nachtest" für die GTX680 den uralten "release Treiber" 300.99 der nicht die optimale Leistung bringt....

Siehe Test von Anandtech.com - GTX 690 Review oder Legitreviews.com - NVIDIA GeForce GTX 690 Review

Das vermittelt ein falsches Bild >>> Die Nvidia GTX680 in SLi sind da meist ein bisschen schneller und genauso Leistungsstark wie die GTX690, allesamt ohne Microruckler!

Siehe auch GTX690 Test bei Hardwareluxx.de mit GeForce 301.33 WHQL für alle Nvidia Karten... wäre somit Zeit, dies endlich bei künftigen Test's zu beachten!
 
Zuletzt bearbeitet:
Nee, CB sollte endlich mal objektiv testen. Es geht tendenziell immer Richtung "grün". Ist schon komisch das zum beispiel alle andere Seiten bezüglich Lautstärke auf völlig andere Werte als CB kommen. War bezüglich des AF Filters der neuen AMD 12.4 das selbe. Komplett andere Ergebnisse als die anderen Redaktionen.

Ich habe derzeit NV und AMD hier... mir ist es also wirklich schnuppe.. bin kein FB. Die NV Wichtung bei CB fällt aber dennoch immer wieder auf.
 
Wow!

Abgesehen von der positiven Überraschung, würde ich auch gerne GPGPU Benchmarks oder grafikkartenbeschleunigte Anwendungen wie Photoshop im Benchmark sehen.

Danke für den Test.
 
Photoshop nutzt nur OpenGL da wirst du nichts merken. Erst mit CS6 setzt PS OpenCL ein. Und da werden die Karten Ihre mühe haben, denn NV hat beim GK104 GPGPU extrem reduziert. Da werden die Fermis besser dastehen.
 
..ach du dickes Ei! Das nenne ich Leistung pur. Respekt Nvidia.
Nur bloß nicht für mein Geldbeutel..
Für das Geld würde ich lieber ein Wagen holen..oder wer noch kein Führerschein hat, dann lieber den Tausender dafür gleich zurücklegen.
 
@ hpc master warum sollen 2 680er keine mr haben ?
 
Guter und kompakter Test ! Danke CB.

Aber bessonders gefreut bzw. freut mich, dass Nvidia was gegen die guten alten µRuckler getan hat. Auch wenns noch nicht ganz perfekt ist, es ist ein guter schritt getan wurden. Da muss AMD mit seiner HD7990 kontern ;)
 
schöne karte, alles möglich optimiert aber nicht massentauglich, der größte Nachteil.
Wer zahlt denn schon 1000€ für eine Karte die in 3 Jahren von einer 200€ Karte überholt wird???
Da kann man alles verbessern was man will aber der Preis ist inakzeptabel.

Für meine alte gtx295 habe ich damals 350€ neu bezahlt, mehr bin ich nicht bereit für Hardware die ich alle 2 Jahre wechsle auszugeben.
So wird das nichts.
 
@manuelgtx580

Einfach mal ein paar CF/SLi Test's lesen... Nvidia MR deutlich reduziert - bei AMD leider Stillstand!

Nvidia Geforce GTX690 Test bei Hardwareluxx.de mit GeForce 301.33 WHQL für alle Nvidia Karten...

"Mikroruckler sind ein immer wieder heiß diskutiertes Thema. Nicht jeder akzeptiert sie, doch eines steht fest: Alleine schon durch den Aufbau eines Multi-GPU-Systems ergibt sich die Problematik von Mikrorucklern. Es gibt mehrere Methoden diesem Problem aus dem Weg zu gehen. Ein Framerate-Metering gibt es schon länger in den GPUs von NVIDIA, mit der "Kepler"-Generation will man dies noch einmal verbessert haben.

Arbeitet eine Karte mit 30 Bildern pro Sekunde, wird alle 33,3 ms ein Bild ausgegeben. In einem Multi-GPU-System teilen sich mindestens zwei GPUs die Arbeit des Renderings. Da nicht jeder Frame den gleichen Rechenaufwand mit sich bringt, benötigen die GPUs auch unterschiedlich lange, um ihren Frame zu verarbeiten. Die Frames kommen also nicht alle 33,3 ms auf dem Display an, sondern es gibt unterschiedlich große Sprünge. Diese Differenz, die mehrere Milliskunden betragen kann, wird vom Nutzer als Ruckler wahrgenommen. Je höher die Framerate ist, desto geringer ist die Chance auf Mikroruckler. Wird eine Szene beispielsweise mit 60 Bilder pro Sekunde verarbeitet, wird alle 16,6 ms ein Bild erzeugt. Folglich sind auch die Schwankungen deutlich geringer und die Unterschiede bei der Zeit, die für das Rendering benötigt wird, werden meist gar nicht mehr wahrgenommen."

HPC Master schrieb:

Alleine nur hohe FPS Frameraten auf dem Papier bringen nichts - siehe Microruckler unter CrossFire...

Wir können Euch "Spielbarkeit" nicht gut nur mit Roh-Frameraten und Grafiken beschreiben. Die Spielbarkeit, die Frame-Übergang, und Spiel Reaktionsfähigkeit ist eine Erfahrung, die Ihnen mitgeteilt wird, nur während Sie spielen. Vielleicht hat es mehr zu tun mit "FrameZeiten" als mit reinen "FrameRaten." Für uns scheint es, dass SLI "viel besser spielbar" ist auch auf niedrigere Frameraten, als CrossFireX. Zum Beispiel, wo wir vielleicht ein Spiel spielbar bei 40 FPS im Durchschnitt mit SLI empfinden, empfanden wir jene 40 FPS unter CrossFireX getestet, nicht so spielbar anfühlen und wir müssen eine höhere durchschnittliche Framerate erzielen, vielleicht 50 FPS, vielleicht 60 FPS für CrossFireX, wie sich 40 FPS unter SLI Frameraten der NVIDIA anfühlen.

AMD CFX: - Tessellation vollständig zu deaktivieren, - Ambient Occlusion & Bewegungsunschärfe deaktiviert, - nicht mögliches adaptives Supersampling, etc. Offensichtlich müssen AMD's Treiber Ingenieure erst noch herausfinden,
wie sie ihre Hardware effizienter nutzen können, denn im Moment schickt NVIDIA wieder AMD zurück in die Schule.
 
Zuletzt bearbeitet:
HPC Master schrieb:
Das vermittelt ein falsches Bild >>> GTX680 in SLi ist da meist ein bisschen schneller und genauso Leistungsstark wie die GTX690, allesamt ohne Microrückler!


Wie können 2 GTX 680 im SLI keine Mikroruckler haben wenn Nvidia nur bei der 690 was dagegen getan hat?
Das widerspricht echt allem was man dazu zu lesen bekommt.
 
Zuletzt bearbeitet:
Nicht schlecht! Aber für den Preis? Ein bisschen zuviel des guten! Aber wer das Geld übrig hat, bitte! ;-)
 
W00t! Bin wirklich überrascht von diesem Test. Was sich im Segment der Dual-GPU-Karten so tut dank nVIDIA ist wirklich unglaublich, Hut ab!
 
1000€ ist für die Karte eindeutig zu viel, das Kühlsystem mag gut sein, aber die 40nm Riege ist mitlwerweile ewig auf dem Markt und hat sich preislich kaum verändert. Die 6780/6950 immernoch "Preisleistungskracher", es tu sich nichts.... Das dieser Kritikpunkt nicht aufgenommen wird ist mir unverständlich.

Dieser Test ist 1 Jahr und 4 Monate her:
https://www.computerbase.de/2011-01...ti-sli/30/#abschnitt_preisleistungverhaeltnis

Was kommt als nächstes GTX790 für 2000€, GTX890 für 4000€?!
 
Noch nie hat mich ein Dual GPU Grafikkarte richtig überzeugen können, aber diesen hier schon.
Der Preis ist hoch, keine Frage, aber für alle die sich ab dem Preis so aufregen, schaut mal wieviel 2x GTX680 kostet.
Nebenbei sieht man dass die Karte besser ist als zwei GTX680, nicht wegen der minimal kaum warnehmbare bessere Perfomance, sondern weniger verbrauch, Hitze, lautstärke (bei 2x GTX680), und vorallem Mikroruckler.
2x 2GB ist zwar echt nicht so doll, aber für meine zwecke 1920 x 1200 reicht es vollkommen, auch wenn 1x GTX680 warscheinlich auch locker reichen würde.
Aber falls ich wirklich soviel Leistung benötigen würde, würde ich es kaufen. Und im Vergleich zur meine damaligen Triple SLI mit 3x GTX280 oder Quad SLI mit 2x HD3870 X2 wird mir der GTX690 sicher am meisten gefallen.
 
Es zeigt sich ein mal mehr, will man ne ordentliche Dual-GPU-Karte bauen, braucht man erstmal eine hervorragende GPU. Das war beim GF100 nicht der Fall und auch mit der GF110 wars schwierig.
Vor allem Effizienz, Thermi war extrem ineffizient. Und die GTX 590 war nur möglich durch ausgeklügelte Überstrom Sicherungen, als die ausgefallen sind und plötzlich echte 100% Last durch gingen war die Karte innerhalb von Sec. durch. (Furmark die Jahre davor hätte eigentlich Warnung genug sein müssen) Mit so extrem effizienten Chips baut sich die Karte quasi von selbst, allerdings verstehe ich immer noch nicht warum Thermi Designs alle teils viel leiser agieren als Kepler Karten, obwohl diese alle weniger Strom saufen. Gewinnmaximierung?


dass Computerbase mal wieder das Testsystem auf den aktuellsten Stand aktualisiert und mit einem Sandybridge E System mit 6 Kern CPU ausrüstet.
Lieber nicht, gleich auf Ivy-E mit 8 Kernen, das sollte dann ein paar Jahre wieder her halten.
 
Ich denke mal weil die Wärme punktueller ist (Die ist kleiner) und somit schlechter abzuführen ist. (Wie bei Ivy)
 
Aber die 6990 kostet 999.-€ und ist nicht lieferbar . lol
 
Zurück
Oben