Test Grafikkarten 2014 im Vergleich – Sommerausgabe

Wenn die Texturen bei Watch Dogs wenigstens wirklich sehr hoch aufgelöst wären bzw. besser wären als der sonstige Durchschnitt...
Die Texturen sehen zwar sehr scharf aus, aber sie sind nicht besser aussehend im Vergleich zu anderen Spielen.

Aber Ubisofts Spiele sind generell seit AC3/FC3 von Start an nicht gut programmiert und erst ein paar Patches müssen das immer beheben.
Wobei ich langsam den Verdacht habe, dass Ubisoft das mit Absicht macht.

@ Topic: Kann jemand erklären warum in BF4 1920x1080/4xaa+FXAA die R290 und die R290X gleichauf sind? Die R290X sollte doch schneller sein? Bei 947MHZ gegenüber 1000MHZ? Oder taktet die R290X runter (weil mit Standardkühler)?
Bzw. allgemein beim Rating auch sehr nahe beieinander liegen.
 
Zuletzt bearbeitet:
Mr.Seymour Buds schrieb:
(VRAM gibts schon lange nicht mehr :rolleyes:)

Mr.Seymour Buds schrieb:
VRAM gibts nicht mehr :rolleyes: Wenn geht das endlich in die Köpfe. Ich glaube das erlebe ich nicht mehr. :evillol:

neben der Technik ist VRAM auch einfach nur eine Abkürzung für den allgemeinen englischen Begriff des Grafikkartenspeichers. Die Abkürzung ist auf englischsprachigen Fachseiten wie anandtech, hardocp usw. absolut gebräuchlich und auch deutsche Seiten wie Computerbase oder pcgh nutzen ihn. Es gibt absolut kein Grund deswegen hier ein aufstand zu machen....ist nicht die erste Abkürzung mit mehrfacher Bedeutung :s
 
Relaxo32 schrieb:
@ Topic: Kann jemand erklären warum in BF4 1920x1080/4xaa+FXAA die R290 und die R290X gleichauf sind? Die R290X sollte doch schneller sein? Bei 947MHZ gegenüber 1000MHZ? Oder taktet die R290X runter (weil mit Standardkühler)?
Bzw. allgemein beim Rating auch sehr nahe beieinander liegen.
Ja mit 290X ist der Quiet Mode der Referenzkarte gemeint, bei dem die GPU so weit heruntertaktet bis die Temperatur und Drehzahllimits gehalten werden können.
Mir wäre, wie vielen anderen auch, ein Roundup von guten Partnermodellen lieber, also wie auf PCGH. Aber wenn ihr die Samples zurückschicken musstet, dann ist das natürlich unmöglich.
 
Computerbase sollte eigentlich genug Mittel zur Verfügung hab um solche Karte kaufen zu können und Sie nach einem Test gegebenenfalls wieder zu verkaufen um die Kosten gering zu halten oder man bietet sie in einer Tombola an die Leser an. Das würde jedenfalls auch mehr Klicks generieren und neue Stammleser ans Land ziehen. Evtl. könnte man solche Karten dann auch von den Hersteller gesponsert bekommen.
 
Zuletzt bearbeitet:
Ich verstehe nicht wie einige auf solch hohe V-Ram Auslastungen kommen, selbst bei 4k wäre es für mich unverständlich.
Ich habe Watch Dogs nicht, aber bei allen anderen Games die ich habe komme ich nicht einmal ansatzweise in die Richtung von 2GB, spiele Full HD @120 Hz auf max. Details mit einer GTX 780 Ti.
 
Zuletzt bearbeitet:
Higgs Boson schrieb:
Ich verstehe nicht wie einige auf solch hohe V-Ram Auslastungen kommen, selbst bei 4k wäre es für mich unverständlich.
Ich habe Watch Dogs nicht, aber bei allen anderen Games die ich habe komme ich nicht einmal ansatzweise in die Richtung von 2GB, spiele Full HD @120 Hz auf max. Details mit einer GTX 780 Ti.

Ist halt alles eine Frage des jeweiligen Spiels und vor allem des individuellen Anspruchs.
 
Wer will jetzt Grafikkarten verkaufen, Computerbase oder vielleicht doch die Hardwareproduzenten?

Naja, irgendwie sollten doch die Hersteller kostenlose Samples für Tester der maßgeblichen IT-Seiten parat haben. Immerhin bieten diese Hardware-Produzenten keine Gold-Nuggets feil, sondern liefern einfach nur Funware (aus der Gamer-Warte desehen).

Da ja solche Hardware sehr schnell an Wert verliert, sollten die Grafikkartenhersteller ganz schnell solche Samples liefern, da ja das auch Werbung für die eigener Sache ist. In der Gamingsparte des Personal Computers wird von den Fans nichts mehr hinterher gejuckt wie Grafikkarten-Tests.

Das ist hier auch das Salz in der Suppe, nirgendwo gibt es Performance-Steigerungen wie hier. Das ist auch spannend, und vorallem bringt das auch für uns Spieler jedes Jahr einen neuen Schub. Die Grafikkartenhersteller wissen das sehr gut zu dosieren. NVidia ist das beste Beispiel. Erst die Performance-Karten gut platzieren, und dann im nächsten Jahr das eigentliche Potential zeigen.

Wir User fahren damit nicht wirklich schlecht. Kepler ist für mich ein High-Light. Eine sehr stabiles Hardware und Treiber Umfeld. Kepler lief bei mir immer sehr gut und sauber. Wenn AMD das eine oder andere mal das bisschen schneller ging, hat mich das nie interessiert. Stabilität ist Trumpf. Da hat Kepler bei mir gepunktet:)
 
Zuletzt bearbeitet:
Ein kleines Beispiel um zu zeigen das es doch auf die Programmierung ankommt.

Meine R9 290 die ich für kurze Zeit hier hatte lief bei Watch Dogs alles auf Ultra mit höchstem AA auf 1080p mit 3,3 GB. Zum Vergleich, eine Titan die ganze 6 GB hat läuft bei genau diesen Einstellungen mit 4,1 GB. Die Frage ist jetzt, wenn das Spiel bei diesen Einstellungen bei einer Titan 4,1 GB braucht, wieso füllt es dann die 4 GB der R9 290 bei gleichen Einstellungen nicht auf 4 GB voll? Kann mir das einer hier beantworten?
 
George03 schrieb:
Gibt es hier irgend einen der eine Nvidia GTX 770 4GB oder GTX 780 6GB oder Titan/Black 6GB hat und damit Watch Dogs auf 1080p in Ultra Texturen spielt und es nicht ruckelt?

Ich zocke auf Ultra @2560x1440p mit einem Titan Black SLI +TXAAx4

Der letzte Patch brachte eine deutliche Besserung bei den Rucklern. Es ruckelt trotzdem bei den Autofahrten ab und zu!
Die Frameraten bewegen sich zwischen 30fps max 66fps (66fps werden nur im Wasser erreicht).
Tendenziell liegen die FPS bei 45fps - das gute an WD ist das es ab 40fps flüssig ist und man nicht unbedingt die magischen 60fps benötigt.

Das merkwürdige ist:

egal welche Einstellungen man vornimmt das Game läuft immer gleich gut bzw gleich schlecht.

Wenn ich die Detail runterschalte landet man trotzdem nur bei 45fps Durchschnitt.

Beim Wechsel von einer Titan auf die zweite änderte die FPS rate eigentlich auch nicht,
einzig ich kann TXAAx4 flüsig spielen (aber wirklich schneller wird das Game im SLI trotzdem nicht)

BTW: ich hatte schon öfters mal geschrieben wenn man WD in eine RAMDISK kopiert waren schon bei der Vanilla 98% der Ruckler verschwunden!

Den neusten Patch hatte ich aber noch nicht mit der Ramdisk getestet.

Mit der Änderung
DeferredFxQuality="console" auf pc konnte ich immer die Grund FPS Rate minimal erhöhen.
Auch mit dem aktuellen Patch.

Zum VRAM:
die Vanilla hat vorher die 6GB fast dicht gemacht. Mit dem neusten Patch bleibt der Verbrauch bei ziemlich genau 4,4GB - irgendwas hat da Ubisoft dran gedreht.
 
Zuletzt bearbeitet:
George03 schrieb:
Ein kleines Beispiel um zu zeigen das es doch auf die Programmierung ankommt.

Meine R9 290 die ich für kurze Zeit hier hatte lief bei Watch Dogs alles auf Ultra mit höchstem AA auf 1080p mit 3,3 GB. Zum Vergleich, eine Titan die ganze 6 GB hat läuft bei genau diesen Einstellungen mit 4,1 GB. Die Frage ist jetzt, wenn das Spiel bei diesen Einstellungen bei einer Titan 4,1 GB braucht, wieso füllt es dann die 4 GB der R9 290 bei gleichen Einstellungen nicht auf 4 GB voll? Kann mir das einer hier beantworten?

Anderer Memory-Controller, anderes Memory-Management?

So ein Vergleich ist nur sinnvoll bei zwei bis auf den Speicherausbau ansonsten identischen Karten.

edit: schau dir mal den Speichergebrauch (liegt da so zwischen etwa 3,5 - 4,5 GB) aus Beitrag #259 an, kommt also auch enorm auf die jeweilige Szene und InGame-Position an.
 
Zuletzt bearbeitet:
Also ich rede über maximal Werte immer ;) aber okay wenn es nicht genau 1 zu 1 übertragbar ist. Was mich halt wundert ist das Leute hier etwas von Ultra Texturen und Platz reden. Ich meine wenn die Texturen von Watch Dogs so viel Platz einnehmen dann ist es doch egal welcher RAM und Controller usw. Denn die Textur hat doch eine bestimmte Größe die erreicht werden muss um den Chip zu füttern oder nicht?
 
Kann das durch die höhere Bandweite bei AMD R9 290/X resultieren, denn die liegt etwa 32 GB/s über der von Nvidia Titan.
 
Ihr weicht hier grad enorm vom Thema ab. Erst wars das thema mit den Grafikkarten und jetzt geht es fast nur noch um Watch Dogs.

Findet ihr es nicht irre eine so lange diskussion zu starten wegen einem einzigen spiel ? bei den meisten games reichen die 3gb vram locker aus. Ich bin überzeugt davon das bald ein weiterer Patch kommt der das komplett behebt mit den Rucklern. Allerdings viel zu spät dann. Ich schaue auch nur noch pro woche 1x in Watch Dogs rein da ich mit der Hauptstory durch bin aber noch lange nicht alles erkundet habe.
 
Marcello29 schrieb:
Ihr weicht hier grad enorm vom Thema ab. Erst wars das thema mit den Grafikkarten und jetzt geht es fast nur noch um Watch Dogs.

Findet ihr es nicht irre eine so lange diskussion zu starten wegen einem einzigen spiel ? bei den meisten games reichen die 3gb vram locker aus. Ich bin überzeugt davon das bald ein weiterer Patch kommt der das komplett behebt mit den Rucklern. Allerdings viel zu spät dann. Ich schaue auch nur noch pro woche 1x in Watch Dogs rein da ich mit der Hauptstory durch bin aber noch lange nicht alles erkundet habe.

Ein bisschen hat es ja immer noch mit dem Thema zu tun. Die Frage war ja, wie zeitgemäß und vor allem zukunftsfähig 3GB im High End Bereich noch sind. Und Watch Dogs dient halt als Beispiel.

Obwohl du schon Recht hast, dass WD mittlerweile sehr viel Raum in Anspruch nimmt.

@George03

Die Frage ist doch schon geklärt, hat keinen Einfluss auf den Speicherbedarf. Oder möchtest du darauf hinaus, dass Berechnungen deswegen eventuell schneller erfolgen? Den FPS schadet es jedenfalls nicht, aber an den Rucklern wird es nichts ändern.
 
Zuletzt bearbeitet:
WD ist halt beliebt und ein potentieller Grakakiller.
 
Das dynamische Takten aktueller GPUs macht es wirklich kompliziert, überhaupt noch aussagekräftige, praxisnahe Reviews zu schreiben.

Früher konnte man einfach die Referenzkarten testen. Custom-Karten waren (mehr oder weniger) leiser und/oder kühler, aber leistungsmäßig identisch. Es sei denn es gab ein werksseitiges OC, aber dann konnte man die Mehrleistung aufgrund der Taktrate ganz gut per simplen Zweisatz abschätzen.

Das dynamische, unter anderem temperaturabhängige Taktverhalten moderner GPUs macht da einen Strich durch die Rechnung. Jede einzelne Custom-Karte kann sich unabhängig vom angegebenen Standardtakt leistungsmäßig stark vom Referenzmodell unterscheiden und das lässt sich nur durch umfangreiche gesonderte Tests herausfinden, die wiederum mit mehreren verschiedenen (besser oder schlechter belüfteten) Gehäusen durchgeführt werden müssen, um praxisrelevant zu sein.

Das gibt nicht nur einen riesigen Testaufwand, sondern am Ende auch einen gewalten Datenwust, der sich kaum noch durchblicken lässt.

Ich fürchte, wir werden uns damit abfinden müssen, dass es mehr und mehr unmöglich wird, Grafikkarten exakt und praxisnah zu testen, so dass man am Ende z.B. sagen kann: "Karte X ist genau 7% schneller als Karte Y."
Man bekommt eher nur noch eine grobe Einordnung der Leistung und muss im Hinterkopf haben, dass jede alternative Kühlung und jedes Gehäuse alles wieder auf den Kopf stellen kann.
 
Super Test und danke für die ganze Arbeit, war bestimmt eine Menge Menge zu tun.

Allerdings finde ich die Kaufberatung am ende etwas, naja.
Und ich hätte mir persönlich ein paar Custom-Designs gewünscht.
Die Referenzkarten kauft eh niemand... bzw. werden hier auf CB nicht empfohlen.
 
Ich sehe bei mir noch keinen Sinn mit meinem CF 6870 Gespann einen Generationswechsel zu tätigen. Aber irgendwie habe ich den Drang eine Nvidia für nächstes Jahr zu kaufen. Ich hab das Gefühl das der Treibersupport bei ATI echt nachgelassen hat oder lieg ich da falsch ?
 
Zurück
Oben