Test GeForce GTX 560 Ti im Test: Nvidia-Karte mit guter Leistung und hohem Preis

Ausser der 1GB Vram gefällt mir überhaupt nicht. bei 1920 und AA kommt man schnell an seine Grenzen
 
@B1mb0b0b: Also Alternate ist hier nicht die Referenz, die Referenz ist geizhals.

Da kostet eine 6870 1GB ab 190€

eine 560 ab 213€

und eine 6950 2GB ab 236€

Alles lagernd

So gesehen hat NVIDIA hier keinen Vorteil, zumal nur 1GB. Leise gibts bei AMD auch und zwar von den Boardpartnern.

Was du uns mit deinen Autovergleichen sagen willst, ist mir zumindest nicht wirklich klar.

Und wenn du von Treffer und versenkt redest, solltest du beachten, dass NVIDIA mit einem Chip der Größe ähnlich der von Caman grad mal die langsamere Karte (6950) erreicht. Oder anders rum: Kaum schneller ist als die 6870 mit einem deutlich größeren Chip.

Ebenfalls (mal wieder) keine Glanzleistung.

Beim Stromverbrauch gehts letztlich auch ums Prinzip: Wer hat die bessere Effizienz? Irgendwo muss man Kriterien setzen, reine fps Vergleiche helfen da nicht mehr viel.
 
Zuletzt bearbeitet:
Davon abgesehen braucht man sich dann auch nicht über die höheren Stromkosten aufregen, denn wenn ich für nen PC über 1000€ ausgeben kann, dann kann ich in der not auch noch ein paar Euro mehr für die Stromrechnung investieren.

Es geht doch nicht nur ums Geld oder die Umwelt, die durchaus unter dem Energiemehrverbrauch zu leiden hat.

Es geht eben auch darum, dass man es den Ingenieuren nicht einfach so durchgehen lassen sollte, Mehrleistung jeweils nur mit entsprechendem Mehrverbrauch zu erzielen.

Ich bezeichne das mal seitens der Hersteller als "Innovationsverweigerung".

Aber solange es genügend Kunden gibt, die sich den Mehrverbrauch ihrer Karten aus welchen Gründen auch immer schönreden ("...der Balken ist jetzt 5% länger...statt 100 habe ich jetzt 105 FPS...Stromkosten sind gar nicht so viel höher...wer redet schon über das bisschen Geld...usw..."), wird sich daran auch so schnell nichts ändern - es sei denn, die KWh Strom kostet irgendwann ab 50 Cent aufwärts (was gar nicht mal so abwegig scheint mittlerweile :)).

Für mich geht da die Entwicklung eindeutig in die falsche Richtung - und das gilt momentan im Besonderen für nVidia-Fermi-Produkte , aber auch für AMD, die sich mit der Leistungsaufnahme der HD6970 auch nicht unbedingt mit Ruhm bekleckern.
 
Na ich denke mal, wir sind zum Glück an der Obergrenze des machbaren angekommen. AMD scheint sich ja für sein SGPU-Topmodell auf 225W zu beschränken, danach kommen nur noch die MultiGPU-Karten, die angesichts der Stückzahl keine nennenswerte Rolle spielen. Weiter unten siehts ja sehr gut aus, wenn ich mir die 6850 anschaue, die mit ihren 127W TDP zwar noch 20W über meiner 3870 liegt, dafür aber von der Leistung her in einem ganz anderen Universum angesiedelt ist.

Und da liegt auch nur ein Fertigungschritt dazwischen (3870=55nm, 6850=40nm)

Freu mich schon auf 28nm. Leistung der 6850 aber weniger als 100W. Die gehört dann mir.
 
Was mich etwas verunsichert ist die Tatsache, dass (momentan) die Karten mit Referenzkühler kaum verfügbar sind und außerdem mehr als die Karten mit eigenem Kühlkonzept kosten. Die sehr gute Referenzlösung scheint sich wohl auf den Preis auszuwirken, so dass viele Hersteller lieber ihre eigene Lösung anbieten.
Und wie es dann mit der Lautstärke aussieht ist schwer zu sagen... Sogar die MSI Twin Frozer II; eigentlich eine gute Lösung; ist lauter als das Referenz-Design.
http://www.guru3d.com/article/msi-n560gtx-ti-twin-frozer-ii-review/9

Ich bin jedenfalls verunsichert... habe mir eine günstige Point Of View bestellt und habe leider übersehen, dass ebenfalls eine eigene Kühllösung verwendet wird, die angeblich nicht so effizient wie das NVIDIA-Pendant ist... und das ist bei den meißten anderen Lösungen auch so...

Insofern sind die Testergebnisse alle mit Vorsicht zu genießen.... Oder man gibt mehr Geld für die Referenz-Lösung aus.
 
Für mich, der viele HD-Inhalte am Rechner schaut, ist die 560Ti die bessere Wahl, da sie dort 31 Watt weniger gegenüber der 6950 verbraucht, was sich trotz des Mehrverbrauchs der Nvidia Karte bei 3D wieder relativiert.
Das einzige wo der AMD Ableger immo punkten kann, ist der 2GB große VRAM und die Möglichkeit zur 6970 Freischaltung.
Aber selbst wenn diese zu einer 6970 freigeschaltet ist, ist die 560er z.B. in der SOC Variante von Gigabyte ähnlich schnell.
D.h. die 560Ti in der 2GB OC Variante wäre für meinen Einsatzzweck geeigneter als die 6950 (von CUDA, Physx, etc. mal abgesehen)
 
Zuletzt bearbeitet:
bei den buckligen treibern ist ati generell keine alternative.....wie war das, alternativlos? :P

wie heißt es so schön, einmal ati und nie wieder....schade das die 560 keine eierlegende wollmichsau ist, der hohe stromverbrauch ist schon käse, wenn man nicht bei mutti wohnt und strom zahlen muß.
 
Zuletzt bearbeitet:
hübie schrieb:
Der Verbrauch is bei solchen Verbrauchern ziemlich marginal.
Beim Herd, Kühlschrank und/oder Geschirrspüler achte ich viel mehr darauf.


also mein alter kühlschrank frisst gemessene 100 watt wenn er mal läuft....und der geht nicht oft an... von daher frisst der im verhältniss zu meinem pc urst wenig
 
Zuletzt bearbeitet:
Die Post ist da... :)

Wenn Interesse besteht und ich Zeit finde, schreibe ich die Tage noch etwas mehr zu dem guten Stück.
 
also hatte den leistungsaufnahmetest mir nicht durchgelesen gehabt, ich finde im idle ist doch alles i.O. mit 163 watt. man spielt doch wirklich nicht 24/7. jedenfalls ich nicht.

grats lersich, gib mal bitte bescheid wie es mit der gigabyte ist, hab ich hier auch im laden, kann ich aber net auspacken. würde gerne wissen ob die gut kühlt und ob die verbauten lüfter zumindest nicht schlechter sind als ref design.
 
theblackfrog schrieb:
würde gerne wissen ob die gut kühlt und ob die verbauten lüfter zumindest nicht schlechter sind als ref design.

der lüfter ist der selbe wie von der 460 oc von daher erwarte ich nix neues
 
jo, stimmt, sry war nicht aufmerksam...
 
theblackfrog schrieb:
ich finde im idle ist doch alles i.O. mit 163 watt

für mich ist mit 63 watt alles io :)

zur zeit bin ich noch bei 100... anderes netzteil und gtx 560 dann hab ichs geschafft


wobei das auch noch ziemlich viel ist wenn das stimmt was der hier verbraucht :

dorndi schrieb:
Ich besitze seit rund 2 Wochen auch das E8 400W und bin sehr begeistert.
PC mit 2500K@4,7Ghz und einer 29% übertakteten 6850 (1000 Mhz CPU Takt)
Im Idle komme ich auf 38W.mfg dorndi
 
Zuletzt bearbeitet:
@CB-Testteam

Was für Monitore habt ihr im Multimonitor-Test verwendet? Bei anderen Tests scheint die GTX 560 Ti nicht in den 2D-Modus zu wechseln!
 
Ok, stimmt auch wieder. Weil das ist echt schrecklich bei manchen Karten. Da ist mir sogar ein lauter Lüfter lieber
 
staubtuch schrieb:
The big question is, how does AMD come back against this? You've got a card that really offers HD 6970 performance, at HD 6870 prices.

Welche Seite ist denn so uninformiert und schreibt solch einen Mist?

Ich meine es geht dort um die Gigabyte SOC, die übertaktet ist.
Wer vergleicht Äpfel mit Birnen? Ich meine eine übertaktete Karte mit einer 6970@stock zu vergleichen?

Da kann man ja auch gleich die Powercolor 6950 nehmen, die freigeschaltet ist, uns sagen das die 560 ein Problem hat.

Entweder sind die Ersteller der Zeilen oben nicht besonder schlau oder parteisch.
Von welcher Seite kommt das?
Ergänzung ()

Calypso26 schrieb:
die ja in diesem Jahr schon extrem wichtig sein wird - nein halt, jetzt schon nicht unterschätzt werden sollte und dringend benötigt wird.

Vor allem sind das dieselben, die argumentieren 1GB Speicher ist für die nächsten 1-2 Jahren masse genug.

Wie sagte mein Opa immer so schön: Entweder hüh oder hott, alles andere wirkt unglaubwürdig oder dumm :D
 
An Dir prallt nur alles ab, das ist der springende Punkt.
Mir kommt das ganze Szenario bekannt vor mit der HD 4870 512MB. in Tests wurde gesagt das 1GB aktuell wenig bringen, trotzdem hab ich und PCGH kräftig auf dem Putz gehauen was das anbelangt. (die gleichen Kommentaren erhalten wie heute)Dein Link zeigt ja wie verhalten man die 1GB Version geshen hat. 512MB war in den Tests Trumpf und man war sich tatsächlich nicht sicher ob der Vram Verbrauch ansteigen wird über Zeit. Ich war mir da 100% sicher das er das wird. Darum bin ich auch heute so Stur, ich bin mir wieder 100% sicher das der Verbrauch schnell steigen wird, weil sich die Entwickler auch auf den neuen Standard 2GB(AMD machts möglich) einstellen werden. Und auch NV hat sehr viele 1,3-1,5GB Produkte auf dem Markt. Sogar 3GB Produkte gibts schon.

Bei der 8800GTS 320 sieht man schön was los ist wenn eine Karte in höheren Einstellung schon am 1. Tag einbricht. Das sind beim Kaufzeitpunkt dann eindeutige Zeichen das die Karte zu wenig Vram hat. Ich seh da deutliche Parallelen zu den 1GB Modellen von heute. Vor allem die Schwemme an neuen Features und DX 11 mache ich hier als Haupttreiber vom Vram aus(sogar noch schneller wie früher). Aber auch die gewaltige Rohleistung der neuen Karten, einhergehend mit der Option auf mehr Bildqualität.

Dort in unspielbaren Settings, wie ich es auch schon hervorgehoben habe.
Siehe 8800GTS 320 Test. Extreme Settings sind ein Fenster in die Zukunft der Karte... Und das ist nicht aus der Luft gegriffen, das hat sich schon zig mal so wiederholt.

Ihr werdet mich also nie im Leben davon überzeugen können das eine GTX 560 1GB für den aktuellen Preis eine gute Grafikkarte darstellt. Für mich ist die Karte für 1GB zu teuer + Eintagsfliege. Einzig die jedes Jahr neue Aufrüßter haben hier ihre Karte für ein paar Monate gefunden. Aber so differenziert bin ja nur ich, ihr verteufelt die 2GB Version komplett und ohne Ausnahme. Ich behaupte nicht das die 1GB Version komplett für die Katz ist.



Versteh mich nicht falsch, meine nächste Graka wird auch nur 1GB RAM bekommen (mom. 512MB), aber ich spiele weder mit 1357xAA noch kaufe ich eine Graka für 200€. Irgendwo muss man Abstriche machen.
Genau das ist auch ein Punkt den ich ansprechen wollte. Würde die Karte zur mid-range gehören also im 100€+ Bereich, dann könnte ich es noch verstehen wenn man eine 512MB Karte nimmt um jeden € zu sparen. Aber sogar hier sagen eure Foren Experten (2.000.000 Klicks) das es 1GB sein sollte. Und wir Reden hier über Karten wie HD 5750 1GB.

Also zusammengefasst ergibt sich bei mir dann das Bild das ihr kleinen Karten ausreichend Vram mitgeben wollt, aber teure brand neue Karten unbedingt mit 1GB auskommen müssen über Jahre.


Oder auch die HD 5830, das ist auch so ein Punkt wo ich die Konsequenz dann vermisse. Sagt man noch bei der Karte das die Kastration zu massiven Einbruch bei hoher Qualität führt und verteufelt man AMD gleichzeitig. Sagt man 1Sec. später das es ganz ok ist wenn man eine genauso high End Karte im Vram kastriert um dann Einbrüche und Nachladeruckler erleiden zu müssen. Fehlende Konsequenz die 1.

2. Sache wo ich euch fehlende Konsequenz vorwerfe ist die Sache mit dem AF bei AMD. Wird hier noch AMD komplett klein gemacht und sehr gut drauf hingewiesen das eventuell mal ein Lieblingsgame so ein schlechtes AF haben könnte wie HL II.(ist ja sonst eher marginal) Und daher die Karte eine sehr schlechte Wahl in der Richtung darstellen, weil man eben ein unkalkulierbares Risiko mit dabei hat. Wird dann beim Vram das Risiko des Vram Einbrauchs beim nächsten Favoriten Game komplett unter den Tisch gekehrt. Und wie schnell der Vram in die Höhe schnellen kann sieht man an SC II. So schnell kann man gar nicht schaun ist der noch weiter oben.

Ihr habt mich mit euren AF Artikel überzeugt die Finger vom Cayman zu lassen.(ein Grund von vielen) Ich hasse Risiko, aber ihr lasst euch anscheinend nicht überzeugen von mir und gefühlt 90% der Community. So wie ich das sehe seit ihr sturer als ich.


Was soll das schlussendlich ändern? Wir werden sicherlich irgendwann auf SB wechseln, aber was bringt es dem Test schlussendlich, wenn die CPU weniger Strom frisst?
Aber bitte erst mit den 6-10 Kernern. Hauptsache keinen 4Kerner mehr für die nächsten Jahre. Bulldozer ist glaub ich eh auf noch mehr Kerne ausgelegt. Find ich aber sehr lobenswert das ihr Bulldozer abwarten wollt. :)


Beim Stromverbrauch gehts letztlich auch ums Prinzip: Wer hat die bessere Effizienz? Irgendwo muss man Kriterien setzen, reine fps Vergleiche helfen da nicht mehr viel.
Vor allem gehts ja nicht immer nur ums Geld, Effizienz ist auch entscheidend bei der Abwärme der Karte, also der Heizung zb. im Sommer. Im Winter freu ich mich schon auf meine GTX 580, immer Sommer gibts dann die Quittung. Noch dazu braucht man eine Monsterkühlung um Fermi bändigen zu können, um somit teure Kühlung. Alles direkt verbunden mit der Effizienz einer Karte.

aber auch für AMD, die sich mit der Leistungsaufnahme der HD6970 auch nicht unbedingt mit Ruhm bekleckern.
HD 6970 2GB ist eine Ausnahme, das absolute Topmodell einer Reihe fällt quasi immer aus der Reihe. Das ist wohl erlaubt und auch so gewollt, solange eine HD 6950 2GB wie erhofft der neue Performance per Watt König ist und die alte HD 5850 ablöst.
 
Zuletzt bearbeitet:
Siehe 8800GTS 320 Test. Extreme Settings sind ein Fenster in die Zukunft der Karte...

Und erneut redest Du an der Sache vorbei. 1. Hat man bei der GTS 320 schon gesehen, dass sie bei 1280x1024 +AA/AF Federn lassen musste, d.h. das waren von Beginn an keine "extremen Settings" und 2. zeigen die extremen Settings bei der GTX 460, dass der Karte erst dann der Speicher ausgeht, wenn die Rechenleistung sowieso nicht mehr reicht. Du redest von 1 bis 2 Jahren Nutzungsdauer, nur wie lange kann man den Anspruch haben, mit einer Performance-Karte ganz oben mitzuspielen? Auf "Dauer", d.h. ca. 3 jahre? Das war noch nie so. Immer musste man zwangsläufig die Settings herunterstellen, und zwar weil die Karte nicht nur aus VRAM besteht, sondern auch aus anderen Komponenten, die irgendwann limitieren. Und genau deshalb steht auch im Pro-Kasten "Meistens AA möglich". Und insofern ist es eine grandiose Übertreibung, wenn Du erneut behauptest, die Karte sei nur etwas "für ein paar Monate" und dass "wir" die 2GB-Version verteufelten (:freak:). Sorry, aber das ist realitätsfern.

Ich meine, wir können die Diskussion gerne noch einmal bei Null anfangen, das versuchst Du ja auch:

Und wie schnell der Vram in die Höhe schnellen kann sieht man an SC II. So schnell kann man gar nicht schaun ist der noch weiter oben.

Soll ich Dir jetzt noch einmal das hier verlinken? Bitte: https://www.computerbase.de/artikel/grafikkarten/radeon-hd-6900-cf-vs-geforce-gtx-500-sli-test.1410/seite-9#abschnitt_starcraft_2

Und wie oft soll ich noch erläutern, dass gemessene Belegung nicht gleich VRAM-Bedarf ist? Mir geht's hier darum, dass Aussagen wie "VRAM dort bzw. bei dem Boardie bei 1,2GB" -> Karte mit 1GB taugt nichts" schlicht unhaltbar sind.
 
Zuletzt bearbeitet:
Zurück
Oben