Test 19 DirectX-11-Grafikkarten im Test

Schöner Test

Leider etwas zu früh in Bezug auf Crysis2 - wird es ein Nachtest geben ?
 
Die Sache mit den Leichen wird durch die 'Unit Detail' Einstellung beeinflusst (die habe ich auf ultra). Ich meinte Texturen auf high bzw. ultra. Ich denke die ultra Texturen sind doch hochauflösender denn wenn ich die Gamesettings mit high und ultra texturen benche, sehe ich von Anfang an einen deutlichen Unterschied im VRAM Verbrauch (730MB mit high textures und 1000MB mit ultra textures).

Nein. AFAIK sind die Texturen genau gleich...ABER die distanzen ab welchen "ultra" Textur geladen wird, wird erweitert. (Texturdetails werden ja in abhängigkeit von der "Sichtweite" in unterschiedlichen Qualitäten geladen - sonst würden selbst 10GB VRAM nicht reichen wenn du jede Textur die nur noch aus einem Pixel besteht in ihrer vollen auflösung laden würdest).

Im nahen Bereich sind high und ultra texturen nicht unterscheidbar....aber durch die vergrößerte "sichtweite" schnellt natürlich der VRAM dann mit "ultra" hoch. OB das allerdings auf diesen Distanzen so viel sichtbare IQ bringt musst du wohl ausprobieren. Hängt ja auch von deiner Auflösung und deinem Sichtabstand zum Monitor ab. Mit nur 1280x1024 brauche ich diesen vergrößerten Ultra zu high wechsel aber nicht - das mag aber bei dir eben anders sein.

Stimmt auch nicht ganz, denn der Unterschied im VRAM Verbrauchen zwischen mittel- und hoch ist gar nicht so hoch (einfach den Game Settings Benchmark mit der jeweiligen Einstellung starten und den VRAM Verbrauch z.B. mit Afterburner beobachten).
Ja wenn ich eine nVidia Karte hätte - oder noch auf Win XP spielen würde könnte ich das machen.

ABER dennoch der Hauptfaktor für VRAM von Schatten ist nicht der schatten selbst sondern die Kombination mit anderen Effekten, z.B. AA.

Teste doch mal folgende VRAM werte:

Schatten Mittel 0xAA
Schatten Mittel 4xAA
Schatten Hoch 0xAA
Schatten Hoch 4xAA

Der Unterschied scheint eher zusätzliche bzw andere Schattenberechnungsschritte zu sein, welche übrigens auf ATI Hardware zugeschnitten zu sein scheinen, denn dort ist der Leistungseinbrauch lange nicht so hoch.

Abgesehen davon sind BEIDE einstellungen starke GPU killer. Sowohl AA als auch Schatten lassen nahezu immer die FPS gut wegbrechen. Die AMD Hardware sollte hier jedoch wegen ihrer VLIW4/5 struktur Vorteile haben, afaik. Aber da bitte ich evtl. Kollegen mit mehr Ahnung meine Aussage zu korrigieren falls diese falsch sein sollte.

Sorry für langes Off topic.

@CB gebt ihr noch mehr infos zum Shogun 2 Bench aus diesem Parcour raus ? Wäre wirklich interessant um das Gesamtbild abzurunden.
 
KAOZNAKE schrieb:
Aber ich halte es für sinnfrei, so alte Karten noch in ein neues Testsys zu packen.
Davon war ja nie die Rede, es geht sich nur drum, dass man sich einen Benchmark nimmt und den in den nächsten 3 Testsystemen nicht fallen lässt damit man Generationsübergreifend vergleichen kann bzw. zumindest einen Anhaltspunkt hat.
 
ich finds eigentlich schade dass ihr die 5870 nicht mehr dabei habt. Könntet ihr ja vielleicht beim nächsten Test wieder adden weil sooooo alt ist sie ja auch noch nicht und bei der 6950 testet ihr ja sogar beide Varianten.
Gruß Pezi
 
jack86 schrieb:
Oder man sieht sich einfach auf ht4u.net die Seite "Performance-Index" eines aktuellen Grafikkartentests an, wie hier ;)

Interessant zu sehen, das die AMD Karten im CF-Betrieb wesentlich besser skalieren als die Geforce-Karten im SLI-Betrieb.

Soviel zum Thema, SLI ist besser als CF :p

PS: 2 x GTX 580 = ca 740 €

2 x HD 6970 = ca 520 € bei gerade mal 7 % weniger Leistung (was zu vernachlässigen ist)
 
das versteh ich auch nicht, zumal die 5850 ja auch drin is....
 
@ Blutschlumpf

Und wie willst du sicherstellen, dass der Benchmark auch noch in drei Jahren wirklich aussagekräftig ist? Wenn ein Benchmark eine bestimmte Belastungssituation simuliert und die Architektur verändert sich plötzlich und der Benchmark läuft leer, schaut man dumm aus der Wäsche.
 
pezituner schrieb:
ich finds eigentlich schade dass ihr die 5870 nicht mehr dabei habt.

Der_Alkoholiker schrieb:
das versteh ich auch nicht, zumal die 5850 ja auch drin is....

Mit ausgewählten Karten aus der älteren Generation lässt sich doch gerade eine Über-Kreuz-Vergleichs-Anordnung erzielen. Und da die 5870 etwa 15-20% schneller als die 5850 ist, lässt sie sich auch ins aktuelle Ranking in etwa auf 6950er-1GB-Niveau einordnen.

Mehr als einen groben Anhaltspunkt für das Leistungsvermögen der Grafikkarten kann es eh nicht geben - mehr sollte aber auch nicht der Sinn des Grafikkartentests mit dem neuen Testsystem nicht sein. Einfach einen neuen Standard vorgeben, welcher die Basis für die folgenden Grafikkartentests darstellt. Und die darinsteckende Arbeit wird gewaltig sein...
 
Iscaran schrieb:
Teste doch mal folgende VRAM werte:
Schatten Mittel 0xAA
Schatten Mittel 4xAA
Schatten Hoch 0xAA
Schatten Hoch 4xAA

Ich hab mal getestet, was am meisten Unterschied machen sollte:

4xMSAA + Schatten (1680x1050 Auflösung)
ohne: 709MB
ultra: 755MB

Die Schatten brauchen also maximal 46MB was nicht wirklich viel ist, besonders im Vergleich zw. hoch und ultra texturen von etwa 300MB.
 
Tulol schrieb:
ich find die Inkonsistenz in diesen Testbericht störend.

Gerade der Vergleich(im DX9) mit der alten 9800GT finde ich interessant, da es einem ein gutes Bild der Leistung der neuen Karten gibt.
das sie im DX11 nicht auftaucht ist ja klar, aber wieso sie im Last-Leistungsaufnamenvergleich nicht auftaucht obwohl sie im Idle drin steht ist mir nen Rätsel, da mich gerade der Last verbrauch der alten Karte im Vergl. zu zB einer GTX460/HD6870 interessiert(die 5850 ist ja praktisch kaum noch erhältlich).

Hatten die 9xxx Karten überhaupt schon n idle mode? Falls nicht kannst ja einfach das idle Ergebniss 1:1 auf last übertragen, kann mir vorstellen das es deshalb nicht extra getestet wurde.
 
Wie kommt es eigentlich, dass die HD6950 1Gb fast in vielen Tests (oft ohne AA; ab und zu auch mit AA) vor allem unter 1680x1050 minimal vor der HD6950 2GB liegt?

Wurden die Werte versehentlich verwechselt? Ich kann mir das immo partu nicht erklären und finde dazu auch keinen Satz im Test. :/

Edit:
kleiner Verbesserungsvorschlag:
Bei der Leistungsaufnahme gibt es ja jetzt - zum Glück - den Referenzwert durch die iGPU. Es wäre super, wenn zukünftig in den Tests, wenn auf die Leistungsaufnahme eingegangen wird, gleich der Referenzwert abgezogen wird.
Alternativ könnte man es wie folgt schreiben:

"Im Vergleich zu unserem Referenzwert verbraucht die "Grafikkarte XYZ" im Idle ca. xx Watt mehr."

Denn
Die sparsamste Grafikkarte im Parcours, die Radeon HD 6670, benötigt 80 Watt.
stimmt ja nur, wenn man den leidigen Rattenschwanz
(gemeint ist der gesamte PC)
hinzu zieht.

Es würde zumindest den Lesefluss etwas verbessern, weil man nicht selbst erst alle möglichen Werte hin und her rechnen muss. ^^"

Einen Referenzlastwert mit Hilfe der iGPU halte ich ebenfalls für sinnvoll. Da man dann auch ungefähr abschätzen kann, welchen Anteil die CPU in etwa haben würde. ^^

Edit2:
Das Fazit gefällt mir ausgesprochen gut, da es wirklich exakt den aktuellen Stand auf dem Markt widerspiegelt. Zudem werden in allen Bereichen ohne Schnitzer die Pro/Con der entsprechenden Karten aufgeführt.

Auf jeden Fall beide Daumen hoch für den sehr guten, detailierten/umfangreichen Test inkl. der älteren Karten zwecks Vergleichbarkeit. :) Danke schön. :)
 
Zuletzt bearbeitet: (Beitrag ergänzt...again ^^")
Nein, die Werte zur 6950 stimmen so, wie sie sind. Diese Unterschiede kommen durch die unterschiedliche Speicherverwaltung zustande, wodurch die 2GB-Version leicht an Leistung verliert.
 
Robo32 schrieb:
Schöner Test

Leider etwas zu früh in Bezug auf Crysis2 - wird es ein Nachtest geben ?

das möchte ich auch gerne wissen wegen DX11...
finde es eh sehr komisch das die amd karten so heftig gegen die nvidea karten abstinken bei crysis. da crysis das einzigste spiel ist im mom für mich bin ich doch sehr enttäusch seiten amd das die die treiber nciht vernümpftig auf kette bekommen :(
 
Hab mir jetzt mal nicht die Mühe gemacht alles durchzulesen, daher wurd's eventuell schon hier erwähnt..
Wie wär's mit Undervolting-Tests bei zukünftigen Grafikkarten? (Diese bei den aktuellen nachzureichen wäre natürlich top :))
 
Sidewinder9000 schrieb:
Interessant zu sehen, das die AMD Karten im CF-Betrieb wesentlich besser skalieren als die Geforce-Karten im SLI-Betrieb.

Soviel zum Thema, SLI ist besser als CF :p

PS: 2 x GTX 580 = ca 740 €

2 x HD 6970 = ca 520 € bei gerade mal 7 % weniger Leistung (was zu vernachlässigen ist)
7% kann man vernachlässigen? Dann kann man aber 2% erst recht vernachlässigen, oder?
Warum also nicht die 2 x HD 6970 mit 2 x GTX 570 für insgesamt 500 € vergleichen?

Erscheint mir irgendwie fairer. Preis-Leistungsmäßig schenken sich ATI und Nvidia im Moment nichts.
 
Fetter Fettsack schrieb:
Diese Unterschiede kommen durch die unterschiedliche Speicherverwaltung zustande, wodurch die 2GB-Version leicht an Leistung verliert.
Danke...

Hattest du schon die Muße, dir über den Vorschlag in meinem Edit ein oder 2 Gedanken zu machen?
 
Fetter Fettsack schrieb:
Wenn ein Benchmark eine bestimmte Belastungssituation simuliert und die Architektur verändert sich plötzlich und der Benchmark läuft leer, schaut man dumm aus der Wäsche.
Dann schaue ich auch dumm aus der Wäsche wenn ich ein altes Game habe womit ne Grafikkarte von 2013 plötzlich nicht mehr klar kommt, dann wäre es ja sogar noch wissenswerter und noch ein Grund mehr sowas einzuführen. Auch wenn ich das für relativ unwahrscheinlich halte.

Was nützt mir eine Grafikkarte die all die tollen Features in aktuellen Spielen nutzen kann, aber in der Rohperformance vielleicht zu langsam für ein etwas älteres Spiel ist.
Ich versteh ehrlich gesagt dein Problem nicht, den Testparcour nicht jedes Jahr komplett neu zu gestalten wäre für mich das naheliegendste überhaupt.
 
@ yasu

Es obliegt nicht mir, bei den GPU-Artikeln Hand anzulegen, das ist Wolfgangs Domäne. Daher kann auch nur er dazu etwas sagen, ich nicht.


@ Blutschlumpf


Nun, ich persönlich finde die Idee ja nicht per se schlecht, aber sie hat eben doch auch einige Angriffspunkte, wie eben nur eine grobe Genauigkeit der Ergebnisse durch fehlende Vergleichbarkeit bei Testsystemwechseln und die Neigung der Leute, am Ende ihre Entscheidung an jedem fitzilgen Prozent mehr an Leistung fest zu machen. Das wäre bei soetwas natürlich fatal, wenn die Werte ansich eher grobkörnig sind.

Und wenn man aktuelle Hardware einigermaßen limitierungsfrei testen will, braucht man schlichtweg ein neues Testsystem. Wenn hier noch immer ein übertakteter Q9650 am Werk wäre, könnte ich mir gut vorstellen, dass so manches Spiel mit einer GTX580 in der 1680x1050 Auflösung schon in den Banden des CPU-Limits herumhängen würde. Die Messwerte wären dann für die Katz. Ist das wirklich sinnvoll, nur wegen der älteren Modelle die neueren nicht mehr brauchbar vermessen zu können?

Weil du sagst, dass für dich eine längere TS-Lebensdauer naheliegend ist, so möchte ich anmerken, dass es einen ganzen Batzen an Leuten gibt, die das diametral anders sehen. Dir wird doch wohl ebenso noch in Erinnerung sein, wie gleich nach dem SB-Launch sich viele darüber mokierten, dass Wolfgang noch nicht ein System auf dieser Basis einsetzt.
 
Fetter Fettsack schrieb:
@ yasu

Es obliegt nicht mir, bei den GPU-Artikeln Hand anzulegen, das ist Wolfgangs Domäne. Daher kann auch nur er dazu etwas sagen, ich nicht.
Ahhh... ja, kein Thema. :)
 
Testparcour ist nicht gleich Testsystem.
Dass ihr neue Grafikkarten nicht mehr mit nem nem C2D testet ist ja kein Thema, aber warum muss bei jedem CPU-Wechsel die Software ausgetauscht werden ?
Warum nicht z.B. den 3D Mark 2006 bis heute drin lassen ? Dann sieht man was vor 5 Jahren abging und was heute drin ist. Dass die CPU dann 2006 schlechter war macht das ganze ja eher noch realistischer, die meisten betreiben ihre Hardware ja mit vom Alter halbwegs passenden Kombinationen aus CPU und Graka.

btw:
Finden lässt sich immer was, alleine die Abweichungen zwischen versch. Treiberversionen wären imo schon ein Problem wenns um 1 oder 2 Prozent Differenz geht.
Oder testet ihr in nem Jahr die alten Karten mit dem dann aktuellen Treiber neu weil AMD ne neue Karte rausbringt die dann mit dem heutigen Treiber nicht mehr läuft ?
 
Zurück
Oben