Test GeForce GTX 560 Ti im Test: Nvidia-Karte mit guter Leistung und hohem Preis

Neo_Xsendra schrieb:
Was ich eigendlich los werden wollte: es sind schon 2gig varianten gelistet bei einzelnen händlern. das erhöht meine hoffnungen auf ein testupdate die tage ^^

Hmm, gute Frage. Meinst Du das wird das Preis/Leistungsverhältnis der Karte verbessern ?
Aber ok, wenn Geld keine Rolle spielt und es kompromisslos NV sein muss: Warum nicht ;)
Ergänzung ()

GrayFoxHard schrieb:
Im Vergleich dazu wie die Fermi-Architektur am Anfang geschunden wurde zeigt nvidia jetzt, dass sie fast alles richtig gemacht haben. Und endlich mal ordentliche Kühlungssysteme zu verbauen, tja, dafür haben sie eigentlich einen Orden verdient. Und was noch besser ist, ist das sowohl AMD als auch nvidia nahezu gleichauf sind. Das wünscht man sich und träumt doch meistens nur davon. (Hallo AMD, ich hätte gerne eine Karte von euch mit nvidia Referenzkühler. Ach ja, ausserdem noch nen ordentlichen Linux Treiber. ;) )

".. dass sie fast alles richtig gemacht haben" ... wie ich diese Bildzeitungsformulierungen liebe :freak:
Ab Werk vernünftige Kühlung zu liefern ist allerdings wirklich den besagten Orden wert :D
Und zum Abschluss: Hallo NVidia, ich hätte für den Preis gern 2GB von euch und möchte weitere Shader freischalten :D
 
Die GTX wird doch noch im Preis fallen
 
@Bullet Tooth

Es wäre hilfreich statt dem OC i7 965@3,66Ghz Stromsaugmonster einen 2600K zu nehmen.
Der max. Systemverbrauch würde dadurch um mind. 100 Watt gesenkt.

Würden viele die Augen aufreißen uns sich fragen, wer jemals mit einer normalen CPU und einer Midrangegraka ein NT über 300W braucht...

Viele wissen ja nicht, daß ein X6 oder i7 9xx beim OC extrem viel mehr Watt zieht!
CPU Test i7 965@3,66 = 335W
2600K@4,5Ghz = 190W
https://www.computerbase.de/artikel...-test.895/seite-27#abschnitt_uebertaktbarkeit
https://www.computerbase.de/artikel...dge-test.1404/seite-50#abschnitt_overclocking

Wobei im Graka Test die CPU nicht zu 100% Ausgelastet wird, sondern eben die normale Spielelast.
Mit Handbrake + Furmark wären noch viel ärgere Ergebnisse möglich.
Furmark umgeht übrigends in manchen Versionen die treiberseitige Lastbegrenzung(ATI+Nvidia) und kann die Karte killen.
 
Zuletzt bearbeitet:
@Dark|

das muss sie aber auch, denn für einen idl pc um strom zu sparen ist sie viel zu teuer! und beim zocken nehme ich doch lieber eine hd 6870 denn unter last verbläst die nividia immernoch viel zu viel!
 
@PuppetMaster

danke für die schnelle Antwort ;)

Dann ist ja die GTX 560 Ti im Zusammenspiel mit z.B. der I5-2500K gar kein so stromfressendes Monster.
 
Nur, um hier mal ein wenig Objektivität in den Stromverbrauch zu bringen... ein kleines Rechenbeispiel:

Gehen wir mal davon aus, dass jemand 10h/tag spielt (sprich Lastzustand)
-> bei 1 Monat (30 tage) und 40W Mehrverbrauch (im Vergleich zu gtx460 & hd6870) 30tage*10h/tag*40W = 12000Wh = 12kWh
-> bei einem Arbeitspreis von 0,25€/kWh (momentane durchschnittliche Obergrenze) ergeben sich dadurch Mehrkosten von 3€/monat.
Unter realeren Bedingungen wird man wahrscheinlich eher bei Mehrkosten von ca. 1€/monat landen, wenn man den 2D-/Idle-Betrieb mit einbezieht. HT4U misst übrigens beim Referenzdesign der gtx560ti "nur" 152W unter Last. Das wären dann sogar nur 32W Mehrverbrauch. Macht auf jeden Fall was aus!

Das soll natürlich nicht heißen, dass Strom sparen schlecht ist, aber imho sollte das objektiv betrachtet eher eine untergeordnete Rolle spielen. Kontrolliert da lieber mal eure(n) Ofen/Kühlschrank/Waschmaschine/Trockner/Glühbirnen und beschimpft bitte nicht euren WG-Mitbewohner oder sonst wen bei der nächsten Stromrechnung wegen seiner neuen GTX560Ti, wenn ihr euch den ausrangierten 90er-Jahre-Kühlschrank von Mama in die Küche gestellt habt ;) :p.

Letztendlich muss jeder für sich selbst entscheiden, ob sich der Kauf einer gtx560ti lohnt. Meiner Meinung nach lohnt er sich bei 1€/monat an mehrkosten und 20% Mehrleistung gegenüber einer gtx460 in jeden Fall. Die HD6870 und die HD6950... das ist wieder eine andere Geschichte. Hängt jetzt sehr stark von der Entwicklung der Preise ab.

Update:
Wenn die laut 3dcenter attestierten 10% Mehrleistung gegenüber einer HD6870 stimmen, würde ich auch wieder die gtx560ti vorziehen. Das ist ein weites Feld........

Gruß
Jan
 
Zuletzt bearbeitet:
megalodon schrieb:
jau dort sind es ganz andere werte als hier bei computerbase... beim vergleich der tests von computerbase, gamestar, pcgameshardware sind mir auch noch in anderen bereichen (spieleleistung, stromverbrauch) deutlich unterschiedliche ergebnisse aufgefallen... da soll einer mal wissen welchem test er nun glauben schenken soll....

Das ist immer das Problem.
Daher schaue ich immer hier vorbei:
http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-560-ti
Die machen in der Regel keine eigenen Tests sondern fassen die Ergebnisse immer sehr gut zusammen.

Ausserdem sieht mit Deinem System/Prozessor sowieso alles ganz anders aus :D
 
feris schrieb:
Du hast mir den Abend gerettet: Dauerhafter Hörsturz bei CB :lol:
Aber eigentlich hast Du recht, lustig ist das nicht mehr.

Die Testbedingungen stehen nicht umsonst da.

"Für die Last-Messungen wird Battlefield: Bad Company 2 verwendet und nach dreißig Minuten die Lautstärke notiert. Beide Messungen werden im Abstand von 15 cm zur Grafikkarte durchgeführt."

Sofern du also deinen PC nicht auf die Schultern schnallst, sollest du keine Probleme haben ;)
 
@Puppet Master
Testsystem

Testsystem:

* Prozessor
o Intel Core i7 965 Extreme Edition (übertaktet per Multiplikator auf 3,87 GHz, Quad-Core)

Man wird mir also zustimmen wenn ich behaupte, daß euer Test Sys gegenüber einem "normalen" X4/i5 750/i7 860/2600K um etwa 100-150 Watt mehr Strom zieht bei Spielelast?
:)

Ich wett 80% der Leser fallen da drüber und rennen wie blöde 500W+ Netzteile kaufen... wobei ihre Wald und Wiesen PCs keine 200W saugen, bei normaler Belastung wie Spielen, die meist nur 1-2 Kerne gut auslasten und die Graka ja auch nicht hergeglüht wird.

Selbst mein uralt Q8200 fadisiert sich bei fast jedem Spiel... was wohl an der schwachen Karte liegt... :)
(Dirt 2, Dragon Age, Two Worlds II, Anno 1404....)
 
Zuletzt bearbeitet:
flappes schrieb:
So bekommst du die Karte wenigstens gut ausgelastet.
Hatte vorher eine GTX 260, die war mit dem E8500 gut bedient, die GTX 460 kann mehr, aber der E8500 kommt nicht hinterher.

Ein klares Jaein :D
Mein übertakteter E8500 war bei 2/3 der Spiele immer noch gut dabei, denn der Anteil der Spiele, die wirklich vom Mehrkern profitieren, ist weit von 100% entfernt.
Wo der Mehrken wirklich benötigt wird bietet er dann auch echte Vorteile.

Lohnt sich ab und an mal im Hintergrund einen CPU Monitor laufen zu lassen.
Meist treiben sich 4 von meinen 6 Kernen irgendwo im Heidepark rum ;)
 
maksim schrieb:
Dann ist ja die GTX 560 Ti im Zusammenspiel mit z.B. der I5-2500K gar kein so stromfressendes Monster.

Wenn du die Leistungsaufnahme vonm Grafikkarten ohne sonstige Einflußfaktoren wie CPU, Mainboard oder Netzteil wissen willst, solltest du mal bei ht4u vorbeischauen. Je nach Anwendung verbrät alleine eine GTX560 ohne sonstige Einflüsse bis zu ~ 200W!
 
Jethro schrieb:
In vielen Spielen hab ich so tolle flimmernde Flächen beim laufen, Äste an Bäumen flimmern etc., das soll ja an den ATI karten liegen, nun hätte ich gern mal eine Nvidia als Vergleich.
Stellt sich nur die Frage ob ich auf eventuelle Karten mit 2GB warten soll.
Mein Monitor hat eine Auflösung von 1440*900, bei nem neuen Monitor ist nicht mehr als 1680*1050 geplant,
macht das sinn da auf eine 2GB Variante zu warten wenn man in Spielen Grafikmods nutzen will oder reichen die 1GB dann auch bei der Auflösung bzw. wär es Quatsch extra auf 2GB zu setzen?

Um es einmal vorweg zu nehmen: Es gibt Spiele, die haben diese Flimmerneigung sowohl auf NV als auch AMD. Das liegt dann am Spiel/Engine/Texturen. Das Du das komplett loswirst ist ein Ammenmärchen.

2G bei 1680 x 1050 ist sicher unnötig, wobei der Speicherverbrauch mehr von AA abhängt als von der Auflösung. Zweiter Fresser sind die Texturen. Wenn Du also viel AA in Verbingung mit MODs benutzen willst, dann kann eine 2 GB Version sinnvoll sein.

Was in einem Jahr ist, kann Dir keine mit Bestimmtheit sagen. Wenn Du dann wieder wechselst ist es egal. Soll die Karte länger halten waage ich die sichere Prognose, dass zukünftige Spiele nicht weniger Grafikkartenspeicher brauchen werden.
 
Leute was habt ihr nur mit der Stromaufnahme... bezieht mal mehr Quellen mit ein! Hier ein Überblick diverser Tests unterschiedlicher Seiten. Schön gegenüber gestellt und scrollt mal nach unten und genießt die Stromaufnahme-Tabelle! http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-560-ti
Und damit Ruhe mit der Disskusion um Stromaufnahme! Danke.
 
Athlonscout schrieb:
Wenn du die Leistungsaufnahme vonm Grafikkarten ohne sonstige Einflußfaktoren wie CPU, Mainboard oder Netzteil wissen willst, solltest du mal bei ht4u vorbeischauen. Je nach Anwendung verbrät alleine eine GTX560 ohne sonstige Einflüsse bis zu ~ 200W!

Danke, dass du zum Vergleich die ach so aussagekräftigen Furmark-Resultate hier reinschreibst. Eine HD6870 hat unter Furmark einen Verbrauch von 144W und eine Gigabyte GTX460 OC (OC ist egal - im Idle hat die auch 120W) einen von 153W (laut HT4U). Kein weiterer Kommentar.

OTC-Trader schrieb:
Leute was habt ihr nur mit der Stromaufnahme... bezieht mal mehr Quellen mit ein! Hier ein Überblick diverser Tests unterschiedlicher Seiten. Schön gegenüber gestellt und scrollt mal nach unten und genießt die Stromaufnahme-Tabelle! http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-560-ti
Und damit Ruhe mit der Disskusion um Stromaufnahme! Danke.

Danke für eine meiner Meinung nach objektive Antwort.
 
Ich finde es auch etwa lächerlich das immer noch das komplett System gemessen wird, wobei es doch mit Stromzange und Riser Kabel durchaus im Rahmen des möglichen liegt, den reellen Verbrauch festzustellen.

Es kam mir schon das erste mal komisch vor, wo ich mein System mal mit einem billig Baumarkt Steckdosen Meßgerät gemessen habe und mein System mit einem Stromhungrigen Q6700@1,41V und GTX470 "nur" 300Watt bei Furmark gebraucht hat, wo doch die Tests hier gut und gerne von locker über 400W propagieren.

Wenn man überlegt, wielange eine Grafikkarte im Last Bereich arbeiten muß, damit man das reell im Geldbeutel merkt, ist die Diskussion sowieso Quatsch. Jemand der 8 Stunden arbeitet, 6,5Stunden schläft 1 Stunde Wegezeit für Arbeit und Co am Tag hat etc, wird wohl kaum auf über 2,5 Stunden täglich private PC Zeit kommen und dabei muß eine Karte schon irgendwo bei 500W liegen, damit man da einen Unterschied sieht.

Es ist einfach eine überdrehte Entwicklung die aus der Kritik der ersten Fermis kommt, dass die Grafikkarten zuviel Strom verbrauchen. Letztlich stehen die Leute auch wieder da und wollen Leistung aber nichts dafür bezahlen und jammern dann über jede Karte rum, dass die einen in den Ruin treibt.

Was ich jetzt aber noch immer nicht weiß, ist ob die Karte HD Audio Formate über HDMI per Bitstream ausgeben kann?

PS das frage ich hier jetzt erst zum dritten mal...
 
SavageSkull schrieb:
Ich finde es auch etwa lächerlich das immer noch das komplett System gemessen wird, wobei es doch mit Stromzange und Riser Kabel durchaus im Rahmen des möglichen liegt, den reellen Verbrauch festzustellen.

Bei Grafikkarten ist es zwar nicht so schwer die reale Leistungsaufnahme zu messen aber bei CPUs ist es sehr kompliziert (siehe HT4U Clarkdale Test). Das würde also nur zu noch mehr verwunderten Usern führen.

Aber ich geb dir etwas Recht, besonders wie viele User hier aus Kostenspargründen auf die total belanglose Last-Leistungsaufnahme gucken.
 
Zuletzt bearbeitet:
@jan-1

Gerade die Furmark Werte sind auch von Interesse, da dieser Wert das Maximum darstellt, was in Games maximal an Strom benötigt wird, auch wenn der reale Wert in Games meist recht deutlich darunter liegt.

Was die Furmark Werte imho auch interessant macht ist, ob die GPU Hersteller die Spezifikationen der Stromversorgung einhalten, oder ob, wie es bei vereinzelten Modellen schon vorgekommen ist, diese Spezifikationen missachtet werden.
 
SavageSkull schrieb:
Wenn man überlegt, wielange eine Grafikkarte im Last Bereich arbeiten muß, damit man das reell im Geldbeutel merkt, ist die Diskussion sowieso Quatsch. Jemand der 8 Stunden arbeitet, 6,5Stunden schläft 1 Stunde Wegezeit für Arbeit und Co am Tag hat etc, wird wohl kaum auf über 2,5 Stunden täglich private PC Zeit kommen und dabei muß eine Karte schon irgendwo bei 500W liegen, damit man da einen Unterschied sieht.
Auch noch mal für dich zum gefühlten 80. Mal: ;)
Es geht um die Abwärme und die damit einhergehende potenzielle Lautstärkeentwicklung von Grafikkarten. Es mag sein, dass das dieses Mal ganz gut gelungen ist mit der Lautstärke, dennoch werden diese rund 160 Watt Abwärme weitestgehend ins Gehäuse geblasen und müssen dort von potenziell lauten Gehäuselüftern oder dem Netzteil raus geschaufelt werden.
Wieso kann man nicht einfach mal akzeptieren, dass manche einen leisen Rechner zum Arbeiten und Spielen gleichzeitig haben möchten?
 
Zurück
Oben