Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGeForce GTX 560 Ti im Test: Nvidia-Karte mit guter Leistung und hohem Preis
Maln e frage. Habe jetzt ne EVGA GTX 560 FPB. Die müsste ja mit 850MHz laufen Stock. Die Taktrate wird aber mit 823 angezeigt. Hat einer schon die Karte und wie läuft sie bei dem jenigen unter Last
Habe die EVGA gerade eben in meinen Rechner eingebaut... Bei mir wird mit dem aktuellen Treiber 822MHz angezeigt. Hmm.... Ich schaue mir das auch mal an...
Klar sind das Extremsettings, aber bis zu 47% zwischen eine 560ti und einer 6950 2GB sind schon eine Hausnummer. Allerdings spiegelt das nicht nur den geringen Speicher, sondern auch die Stärke der 6950 gegenüber der 560 wieder.
Was bei der 3D Center Zusammenfassung nicht herauskommt: Sie sprechen von Durchschnittswerten, was Ausreisser nach unten nicht besonders analysiert. Aber genau da tut es weh.
Wie ich weiter oben schrieb, räumen die Gegenüberstellungen zumindest auch mii einem unbegründeten Vorurteil auf: Die Speicherverwaltung von NVidia zeigt keine Vorteile gegenüber der von AMD.
Die Antwort ist einfach: Bie 14 Bilder/s ist Hopfen und Malz verloren.
Bei 23 Bildern/s lohnt es sich, an den Settings leicht zu schrauben um in einen Bereich von 25 Bildern/s zu kommen.
Fassen wir zusammen:
Die 2 GB der 6950 gegenüber der 560 bringen so viel, das es in die Nähe des spielbaren Bereichs rückt. Geringfügig am Setting schrauben bringt die 6950 in den spielbaren Bereich, während die Änderungen bei der 560 bei weitem nicht genug wären.
Oh man. Du willst es nicht verstehen, die frames sind ja durchschnitt soweit ich weis ,Man kann weder bei 25 noch bei 14 von flüssig spechen, was ich damit eigentlich sagen wollte , dass 2gb nicht unbedingt
mehr an performance im relevanten bereich bringt wie hier zu sehen
Und wenn ich mit den settigs runter gehe sind wir ja wieder nicht mehr bei 2560x1600 was ja dann nicht mehr deinen link entspricht
Dann muss ich wohl hot6boy mit seiner aussage zustimmen .Zitat: es gibt ein haufen leute die denken or geil 2gb.... denen kannste diagramme und benchmarks zeigen wie de willst das bringt nix "
So hier noch ein bild wo noch nicht mal 8xAA sind , aber ich frage mich echt wer 24fps als spielbar bezeichnet
Diagramme und Benchmarks kannst Du mir zeigen, ich ignoriere die nicht.
Ganz im Gegenteil.
Ich unterstelle Dir ja auch nicht, das Du mit zweierlei Mass misst.
72% sind 72%, 14 fps sind gegenüber 23 fps eine Welt, eben die besagten Diagramme und Benchmarks. So sieht es mehr danach aus, das Du die ignorierst, nicht ich. Ich verstehe nur nicht mit welchem Zweck, es sei denn die 1 GB der 560ti schön zu reden.
Einerseits kritisierst Du die 23 FPS der 2GB Karte, ziehst aber nicht die Konsequenz zu schreiben, das mit 1 GB der Ofen viel früher aus ist.
Das die 2GB Version nicht generell Vorteile bringt ist klar. Diese aber generell wegreden zu wollen ist genauso falsch. Crossfire skaliert ganz gut und wäre mit 2GB KArten eine Alternative, mit einer 1GB Karte im SLI wären selbst dann keine flüssigen Frameraten erreicht.
Ergänzung ()
@LersichL68:
Liegt an den schlechten NVidia Treibern
War nur Spass, ich will die heilige Kuh nicht schlachten
Ich kenne das von meiner 260 GTX und von meiner HD6950.
Ich bilde mir ein, das es häufiger vorkommt, wenn ein Programm im Hintergrund läuft, was die Temps mitschreibt und anzeigt. GPU-Z oder Afterburner, wenn sie die Diagramme anzeigen/aktualisieren. Schmeisse ich all die Programme raus, kommt es nicht vor. Kann aber Zufall sein.
Also für meine Begriffe ist sie leise. Habe heute ComputeMark laufen lassen und vorhin halt 3DMark und die Lüfterdrezahl war noch nicht über 70% laut GPU-Z.
Nein, bin froh das ich mir eine HD6870 gekauft habe. Die NVIDIA Karten gefallen mir auch vom Kühler nicht, ehrlich gesagt hatte ich mir von der 560erTI mehr erwartet was taktzahlen und Leistung Betreffen.
Interessante Zahlen, bis jetzt gab es ja noch keine HD 6900 1GB Karten zum Vergleichen. Ich hab einfach gefolgert weil die HD 6800er das gleiche AF haben wie die HD 6900er und AMD auch nix gesagt hat von einem überarbeitenden Speichermanagement, das dieses identisch zur HD 6800er ausfällt. Sollten sich die Messungen dann auch bei CB bestätigen werd ich mein Fazit anpassen. Aber durchaus im Bereich des möglichen, HD 6900 ist eine brand neue Architektur(gibts nur alle ca. 3 Jahre), wenn sich was geändert hat dann jetzt.
Fakt bleibt aber das HD 5000 und HD 6000(bis auf HD 6900) ein weit unterlegenes Speichermanagement, gegenüber Fermi haben.
würde mir gerne 2x GTX 560Ti kaufen. Aber ich will nicht, dass es laut wird. Bin lautstärkeempfindlich. Welches Modell nehme ich, was schön leise bleibt im SLI-Betrieb.
habe einen i7 @ 3,6Ghz und ein 750W BeQuiet! Netzteil.
Haben die 560er im SLI denn auch noch so viele Microruckler?
Bein den einen Test war bei der 4xx ja noch ordentlich microruckeln angesagt (vor allen bei Mafia 2 kaum spielbar teilweise).
Hat vl. auch jemand von euch Erfahrung damit??
ich möchte an der 560Ti zwei 24" TFT`s in 1920*1080 betreiben und natürlich auch gamen.
Nun hatte ich in diversen Boards gelesen, dass die aktuellen GPU`s aktuell Probleme mit zwei Bildschirmen haben, was das Heruntertakten im Energiesparmodus angeht.
Das soll schlichtweg nicht mehr stattfinden und das wäre schlecht.
Nun habe ich im CB Test u. a. gelesen:
"Mit bisherigen Nvidia-Grafikkarten beziehungsweise älteren Treiberversionen wollten die GeForce-Produkte im Zwei-Monitor-Betrieb aus unerklärlichen Gründen nicht in den Energiesparmodus wechseln, obwohl dies eigentlich hätte funktionieren müsse. Die GeForce GTX 560 Ti mit dem GeForce 266.58 ist die erste Kombination, die es schafft, bei mehreren Monitoren in den 2D-Modus zu schalten. Und prompt belegt die Grafikkarte mit 163 Watt den ersten Platz – mit Abstand!"
Alternativ verwendest du den NvidiaInspector und zwingst die Karte in den 2D-Takt. Geht mit meiner GTX470 einwandfrei.
Die Kommandozeilenoption ist "-setHigherPStates:0,0,1". für die erste Karte, "-setHigherPStates:1,0,1" wäre die zweite Karte. Den Aufruf in eine Batchdatei packen und dann einfach per Doppelklick starten. Man muss den Befehl aber zweimal aufrufen da sonst der Speichertakt nicht umgestellt wird. Mit "-restoreAllPStates" setzt man wieder alles zurück.
Die High Quality Bildquali der AMD Karten ist mit den Quality Einstllungen der Nvidia knapp vergleichbar, im zweifelsfall ist die Nvidia Karte eher die bessere. Dazu kommt das man die Nvidia Karte auch noch locker auf High Quality setzen kann und dann sehen die AMD Karten noch weniger Land in Punkto Bildquali.
Das ist wohl der Ansatzpunkt der Redaktion.
Und warum haben sie dann die Qualitätseinstellungen hochgestellt um ein Vergleichbares Ergebnis zu liefern, wenn sie es dann doch wieder ankreiden?
Dann kann man es doch gleich auf Normal lassen, so wie es wohl 90% der User verwenden werden...
Bauknecht schrieb:
Jetzt zieht die x6er Serie von Nvidia schon an der x8er Serie von AMD vorbei. Oder anders herum gesprochen, müßte die x8er Serie von AMD eigentlich x6er Serie heißen. Die unglücklichen Umbenennungen seitens AMD fallen langsam auf.
Das wissen wir schon lange. Nur ging es bis jetzt bei uns einfach nicht, was ein merkwürdiger Treiber-Bug war. Der Launch-Treiber hat das Problem jetzt nicht mehr.
Geld ist nicht, alles, auch wenn es in der heutigen Gesellschaft oft so aussieht...
Tobias123 schrieb:
Was mich etwas verunsichert ist die Tatsache, dass (momentan) die Karten mit Referenzkühler kaum verfügbar sind und außerdem mehr als die Karten mit eigenem Kühlkonzept kosten. Die sehr gute Referenzlösung scheint sich wohl auf den Preis auszuwirken, so dass viele Hersteller lieber ihre eigene Lösung anbieten.[/url]
[...]
Insofern sind die Testergebnisse alle mit Vorsicht zu genießen.... Oder man gibt mehr Geld für die Referenz-Lösung aus.
So war es leider auch bei der GTX 460...
Da sahen viel von außen wie das Referenzdesign aus und innerlich wurden z.B. Heatpipes weggelassen...
@Topic:
Ich verstehe nicht, was es hier zu bashen gibt.
Ich gebe zu Nvidia ist mir dank Physx und ihrem Programm mit dem langen Namen unsympatisch, aber die GTX 560 TI ist keine schlechte Karte.
Der Verbrauch unter Idle ist am wichtigsten, Last hat die Karte sowieso nicht sooooo häufig.
Ich hoffe bloß es endet nicht so wie bei der GTX 460, wo das suchen nach einer identische Kühlung unter der identischen Verdeckung zum Minenfeld wird...