Test Nvidia GeForce GTX 960 im Test

Dann schick sie zurück! Nur so merken sie es, wenn das genug machen, und sie auf ihrem Zeuch sitzenbleiben.
 
Also ich finde die Graka ziemlich interessant. :)
Für 200€ im Bereich der R9 285 die etwa gleich viel kostet aber mehr Strom verbraucht.
Bin an sich sogar noch mit meiner HD7850 zufrieden, manche Spiele ruckeln halt leider auch schon auf Low, wie Dead Rising 3 z.B..
Wenn ich mit der GTX 960 dann auf Mid spielen kann wäre ich schon absolut zufrieden.
Spiele einfach zu wenig als das ich mir eine 350€ Graka kaufen würde.
 
Skatch schrieb:
Also ich finde die Graka ziemlich interessant. :)
Für 200€ im Bereich der R9 285 die etwa gleich viel kostet aber mehr Strom verbraucht.
Bin an sich sogar noch mit meiner HD7850 zufrieden, manche Spiele ruckeln halt leider auch schon auf Low, wie Dead Rising 3 z.B..
Wenn ich mit der GTX 960 dann auf Mid spielen kann wäre ich schon absolut zufrieden.
Spiele einfach zu wenig als das ich mir eine 350€ Graka kaufen würde.
Is noch zu früh zu wechseln... für dich zu wenig fps Gewinn... außer dir reichen 10-20fps für 200€ wären mir das zu wenig.
 
Ich vermisse im Test die GTX 670 als Vergleichskarte.

Klar, man kann nicht alle Karten Vergleichen, aber gerade die alte Nvidia Mittel-/Oberklasse die ja sehr gängig war, hätte man doch mal vergleichen können. Hätte gern gewußt, ob diese Karte jetzt schneller ist, als meine, bzw. ob die 4GB Modelle eine Alternative für meine GTX 670 wäre.

Ich meine, wir sind jetzt bei der 900er Reihe angelangt. Da kann man doch vermuten dass selbst die 960 schneller ist, als eine 670 ? Rein von der Zahlenlogik her.

Aber wenn ich mir dies hier so durchlese:


Bob_Busfahrer schrieb:
Ich finde das langsam aber sicher beängstigend... wenn man vor 3-4 Jahren eine HD7950 gekauft hat bzw. eine GTX 670 hat man Stand heute alles richtig gemacht - keine neuen Features, lediglich etwas weniger Stromverbrauch und ggfs. eine leisere Kühlung - und das wars.
Und für die gleiche Performance werden immer noch 200€ verlangt... also so preisstabil war PC-Hardware lange nicht mehr.
Sehr traurig, wie die Entwicklung hier einschläft und wie wenig sich tut. Früher waren da die Sprünge deutlich größer von Generation zu Generation - zudem oft auch mit neuen Features etc. die einen Neukauf schmackhaft gemacht haben.

, dann kann ich mir vorstellen, dass es wohl doch nicht so ist. So gesehen hätte ich einen Vergleich mit der GTX 670, die doch sehr verbreitet war(und teilweise noch ist) gewünscht.

Aber ok, vielleicht gibt's das ja auf anderen Seiten. Mal auf die Suche gehen.
 
nvidia hat laufende kosten leute. kauft einfach die neuen grafikkarte nicht, und schneller als ihr denken könnt, kommt was richtiges auf den markt....

oder kauft die grafikkarten und freut auch nächstes jahr wieder auf +- 5% leistung
 
Hart, wie lange der Tahiti (7970GE/280X mit 3GB VRAM) schon auf dem Markt ist und immer noch oben
mitspielt (PCGH 1/2015). Da muss wohl noch eine 960Ti kommen.
 
Zuletzt bearbeitet:
Der Test für 2560*1600 fehlt mir an dieser Stelle auch, immerhin mussten sich die direkten Konkurrenten auch in dieser Disziplin testen lassen.

Hat halt wieder Geschmäckle hier bei CB. Kaum gibts es eine verkrüppelte 128-Bit Karte im 200 Euro Bereich von nVidia, bleibt einer der wichtigsten Tests aus, womit man festellen kann, warum 128-Bit zu wenig sind.

Großes Kino. Jedes mal das gleiche.
 
@ deathscythemk2
Die R9 280er waren seinerzeit noch ein High-End-Modelle. Da geht es in Ordnung, dass sie auch mit höheren Auflösungen getestet wird. Es gab halt nichts besseres (von AMD).

Bei der 285 war es schon fragwürdig, denn in den meisten der 2540x1600-Tests erreicht sie erwartungsgemäß keine spielbaren Frameraten mit aktuellen Spielen. Sie ist halt nur Mittelklasse. Für solche Auflösungen sind die 290er gedacht.
Aber wenn CB das nicht getestet hätte, hätten sich wohl auch welche aufgeregt, weil sie sich erhofft hätten, dass die Tests die Karte als "Speicherkrüppel" enthüllen.
CB wollte aber wohl einfach nur klar aufzeigen, wo sie sich von den 280ern unterscheidet und wo nicht.

Die lupenreine Mittelklasse-Karte GTX960 wurde jetzt nicht mehr mit der hohen Auflösung getestet. Also bekommen wir bei CB nicht zu sehen, dass die 285 dabei 17 statt 13 FPS schaffen kann, was sie (vielleicht) ihrem breiteren SI verdankt. Aber was für eine Praxisrelevanz hätte das?

Die 960 zielt einfach nicht auf eine Kundschaft, die >FullHD mit höchsten Details zocken will. Es ist eine realtiv günstige Mittelklassekarte, die für FullHD bei mittleren bis hohen Details ausgelegt ist.
Dass es einen größeren Kundenkreis für solche Karten gibt, sieht man schon daran, dass die 285 (SI-Größe hin oder her) auf genau den selben zielt.

Wer höhere Ansprüche hat, der kauft sich halt ein größeres Modell. Da gibt es ja bei beiden Herstellern genug Auswahl. Ich verstehe die Aufregung nicht.

Ich glaube, manche sehen einfach nicht, dass die Karte unweigerlich wesentlich teurer (und weniger sparsam) geworden wäre, wenn sie ein 256Bit-SI und 4GB hätte. Sowas gibt es nicht geschenkt. Damit würde sie nicht mehr im angepeilten P/L-Bereich liegen, sich mit größeren Modellen überschneiden und unter sich eine Lücke lassen.
 
Es geht nicht um Relevanz, sondern um Vergleichbarkeit.
Das selbe Spiel bei der Leistungsrating-Zusammenfassung, da wo denke ich die Leute am meisten schauen. Warum wird eine OC-Version der 960 aufgeführt, aber von den direkten Konkurrenten R9 280 und 285 nicht? Wo ist da die Vergleichbarkeit?
 
Defacto ist es auch so dass weder eine 960 noch eine r280 für den _Spiele_gebrauch in Auflösungen jenseits von 1920x1080 gedacht ist. In diese Bereiche gehören dann schon eine 970/290(X) und höher. Für den Desktop-Betrieb in Auflösungen über 1080p bedarf es aber wiederuk nicht einer solchen Grafikkarte. Deswegen ja Midrange.

Und dass alle ganz unverdächtig danach fragen warum man nicht in 4K getestet hat, im Hinterkopf das Wissen dass die Speicheranbindung diese Ergebnisse ordentlich runterziehen würde. Ihr wisst ganz genau warum, also nicht so blöd fragen.

Und nVidia weiß auch genau warum - diese Karte hat in 4K Bereichen nichts verloren. Auch in 1440p ist diese Karte bei aktuellen Spielen nicht feinste Ware, warum sollte sie auch? Dafür gibt es die 970/980.

Die Karte macht genau das was sie soll - wer bei einer Grafikkarte in dieser Preisklasse in 4K spielen will, der sollte eindeutig seine Prioritäten ändern und mal klar kommen.
 
SuddenDeathStgt schrieb:
Du drehst einem die Worte im Munde herum & meine Antwort findest Du im Fischbecken/Aqua ...^^
Ich drehe dir nicht die Worte im Mund um, sondern sehe das was du schreibt.

In Bezug auf Intels illegale Machenschaften und Marktmanipulation sagst du das dich in dem Bereich sowas nicht interessiert und du emotionslos bist was das angeht.

Computerbase wird eine Intel/nvidia Lastigkeit/Bevorzugung vorgeworfen, da bist du gleich angewidert und forderst die Kritiker auf sich zu schämen. Na wenn das keine Emotion darstellt.

Oder warum man hier mit zweierlei Maß messen?
just_fre@kin schrieb:
Ich werde mich nun nach der GTX 970 umsehen, da diese einen echten Leistungsvorsprung - auch mit Hinblick auf höhere Bildschirmauflösungen in den kommenden Jahren - bietet!
Dann hat ja nvidia alles richtig gemacht mit der "Apple Taktik" - siehe iPhone 16GB -> 64GB.
 
Sontin schrieb:
Nicht zu vergessen, dass man wesentlich mehr neue DX12 Features unterstützt.

jetzt hab ich mich fast am Kaffee verschluckt xD - neuere Features von einer APi unterstützen die noch nicht erschienen ist - GG
 
Mark3Dfx schrieb:
Hart, wie lange der Tahiti (7970GE/280X mit 3GB VRAM) schon auf dem Markt ist und immer noch oben
mitspielt (PCGH 1/2015). Da muss wohl noch eine 960Ti kommen.

Aus diesem Grund ist Tahiti auch bei PCGH in der Hall of Fame gelandet.... drei Jahre nach erscheinen spielt der Chip immer noch im oberen Mittelfeld mit... das gibt es sehr sehr selten... war richtige Entscheidung schon damals auf 3GB und einem hohen Interface zu setzen... zahlt sich voll aus. PCGH empfiehlt bei aktuellen Preis der 960er immernoch die gute "alte" R9 280!
 
@Zuckerwatte
Genau. Und DX12 wird es nur mit Windows 10 geben, wo es auch noch kein Erscheinungstermin gibt. Dann sieht man mal wieder, was für ein Murks hier erzählt wird. NVidia hat schon bei den DX11 Features gelogen.
 
Zurück
Oben