Test 19 DirectX-11-Grafikkarten im Test

wenn schon ein Z68 mainboard, dann doch bitte auch Ergebnisse der HD 3000!

Wenn du das schon so herrisch postest, darf ich dich dann fragen, ob du schon einmal neuere Spiele mit der HD3000 gespielt hast (bzw. es versucht hast, sie zu spielen)?

Wo soll denn der Sinn liegen, festzustellen, dass etwa BFBC2 an bestimmten Stellen nur mit 3fps läuft oder man bei Shogun 2 wenig Freude haben wird, weil da nicht nur der "Shared VRAM" fleißig den Spielspaß zu Tode trägt?

Brauchbar sind die Intel IGPs nach meinen persönlichen Erfahrungen nur für altere Spiele ohne Kantenglättung und solche Spiele sind (naheliegender Weise) nicht im Benchmarkpacour enthalten. Daher macht es wohl auch kaum Sinn, Unmengen an Zeit für einen solchen, eher als gering einzustufenden Mehrwert zu investieren. ;)
 
Super Test! Hab alles gelesen! :D Gefällt mir sehr gut die Neuauflauge.

Allerdings versteh ich eure Empfehlung bis 200€ nicht, warum empfiehlt ihr die 560Ti obwohl die 6870 (145€) FAST IMMER vor der 560Ti in den Diagrammen platziert ist?

Warum mehr Geld ausgeben für weniger Leistung?
Kann mir das pls jemand erklären? :)

Auch von den Hardware Eigenschaften hat die 6870 mehr drauf...
 
Zuletzt bearbeitet:
Ich weiß nicht obs schon zur Sprache kam, aber ich bin kein Freund der ständig wechselnden Testsysteme.
Mir fehlt die Vergleichbarkeit zu älterer Hardware. Meine letzte Grafikkarte war 3 Jahre alt, um sowas zu vergleichen muss man sich dann über andere Grafikkarten in 2 oder 3 Testsystemen "ranschätzen" wie sich alt zu neu verhält.

Ich würde gerne einen "Legacy-Benchmark" sehen, sprich ein Programm welches ihr über die nächsten 10 Jahre mit jeder Grafikkarte testet und auch über Wechsel der Testhardware weiter führt. Nach Möglichkeit natürlich eins was nicht von der CPU abhängt.
 
Das wird ein Problem mit der Vergleichbarkait und Aussagekraft. Das, was man 2001 fürs GPU-Testen verwendet hat, sagt heutzutage doch kaum mehr irgendetwas aus, da es z.B. mit den ganzen DX11 Features, die durchaus bedeutsam sind, gar nichts anfangen kann.

Die Vergleichbarkeit würde ebenso leiden, da bspw. bei einem Plattformwechseln größere Anbindungsbandbreiten zur Verfügung stehen und damit das Ergebnis nicht mehr vergleichbar mit dem der Karten aus den älteren Testsystemen ist. Man würde irgendein objektives Ranking vorgaukeln, dass das gar nicht ist.
 
jack86 schrieb:
Oder man sieht sich einfach auf ht4u.net die Seite "Performance-Index" eines aktuellen Grafikkartentests an, wie hier ;)

Nice, guter Tipp! :)
 
Oh stimmt, das hab ich voll übersehn :D

sorry
hab immer nach performancerating geschaut weil mich der rest der tests eig. nicht interessiert ;)
das endergebnis zählt :D
 
Fetter Fettsack schrieb:
Das wird ein Problem mit der Vergleichbarkait und Aussagekraft. Das, was man 2001 fürs GPU-Testen verwendet hat, sagt heutzutage doch kaum mehr irgendetwas aus, da es z.B. mit den ganzen DX11 Features, die durchaus bedeutsam sind, gar nichts anfangen kann.
Mich interessiert es auch andersrum, ich möchte nicht wissen was die Karte von damals heute kann, ich möchte wissen was die Karte von heute mit der alten Software kann.
Ich hab z.B. ne 3850 durch ne passiv gekühlte 5670 ersetzt (also selbe Performance bei weniger Verbrauch und Lautstärke). Die bei euren Benchmarks/Artikeln zu vergleichen ähnelt ist fast ein Ding der Unmöglichkeit.

Ich glaube ihr habt evtl. so ne Art Tunnelblick entwickelt, dass die Leute entweder nen neuen PC kaufen oder alle 12 Monate die Grafikkarte tauschen und überseht, dass ein Großteil hier sicher ab und zu mit dem Gedanken spielt nach ein paar Jahren aufzurüsten. Dazu braucht es imo den Vergleich zu ner 3850/4850 von ATi oder ner 8800/9600/9800 von NVidia.

In dem Zusammenhang wäre es imo auch praktisch wenn ihr die Low-End-Karten nicht separat testen würdet und somit den Vergleich schwierig macht.

Die Vergleichbarkeit würde ebenso leiden,
Ich denke das wäre zweitrangig, hier erwartet keiner ne Doktorarbeit, selbst mit ein paar Abweichungen würde es imo mehr helfen als schaden. Man kann ja kenntlich machen mit welchem Testsystem das getestet wurde.
 
Zuletzt bearbeitet:
man tut sich mittlerweile ja auch schon schwer die 8800GTX richtig anzusiedeln :-/
 
Schöner Test, aber wie kann es sein, dass das System mit der HD 6950 mit nur 1 GB VRam unter Last in BC2 292 Watt braucht und die 2 GB Variante 264 Watt? Das ist ja immerhin eine Differenz von rund 10%! Wenn überhaupt könnte ich es mir andersherum vorstellen, aber nicht so.

Kann mir das mal einer erklären?
 
Die Ratingberechnung halte ich für nicht aussagekräftig. Vergleicht man z.B. die 560ti mit der 6950, so liegt erstere in der Mehrheit der Spiele deutlich zurück, nur in Crysis2 ist sie ein bischen besser und in Lost Planet 2 und Starcraft kann sie sich deutlich absetzen.

In euerm Rating für 1980 mit 4xAA liegt sie dann ganze 3% hinten. Offensichtlich berechnet Ihr einen einfachen Durchschnitt, sodass einmal 66% vorne viermal 16% hinten ausgleicht. Da sollte was geändert werden, das ist irreführend, nur weil sie in 2 Spielen deutliche Vorteile hat, ist sie insgesamt nicht gleichschnell, denn es zählen nicht die addierten Frames, sondern die Anzahl der Spiele, in denen die Karte besser ist.
 
Zuletzt bearbeitet:
Noch besser als ein allgemeines Performancerating fände ich zusätzlich so eine Art "Spielbarkeit-Performance" wie hier auf teakpc.de.

Denn die reine Balkenlänge ist für mich nicht entscheidend, sondern ob ich ein Spiel in meiner Auflösung ruckelfrei spielen kann. In den Balkendiagrammen erkennt man dann beispielsweise, dass Grafikkarte 1 durchschnittlich 30% schneller ist als Grafikkarte 2. Das kann aber trotzdem bedeuten, dass die eigl deutlich schnellere Grafikkarte 2 immer noch zu langsam ist um die Spiele in meiner Auflösung ruckelfrei darstellen zu können. Oder umgekehrt: Auch Grafikkarte 1 ist locker in der Lage das Spiel ruckelfrei darzustellen, sieht jedoch auf den Balkendiagrammen deutlich langsamer aus obwohl dies in der Realität praktisch keinen Unterschied macht.
Dazu sind ja keine zusätzlichen Messungen notwendig, nur eine zusätzliche Seite in den Grafikkartentests, in der dies aufgeführt wird.. nur so als Anregung :)
 
Also erstmal zum Test allgemein. Sehr schöne im wesentlichen.

Pluspunkte:
1. Auch mal je ein Modell der Vorgeneration und Vor-Vor-Generation drin. Immerhin gut für die vergleichbarkeit zu früher.
2. Shogun 2 im Test. Danke.

Negativpunkte:

1. Keine näheren Angaben wieso im Shogun2 test zu wenig VRAM vorliegen. Startet der integrierte benchmark dann nicht mehr ? Oder gibt der Benchmark am Ende eine Meldung aus dass XX MB VRAM gefehlt hätten ? Habt ihr denn mal in die vom Spiel erstellte gfx.log gesehen ob dort Hinweise auf fehlendes VRAM auftreten ?

Könntet ihr euer Vorgehen bei diesem Benchmarg genauer erläutern bitte ?
Einfach nur 0 FPS da fehlendes VRAM erscheint mir ein bisschen zu einfach und ungenau - vor allem weil es ja mehr als genug Beispiele dafür gibt dass VRAM-Belegung nicht mit Performance direkt vergleichbar ist. Auch bei Shogun2 kann man sehr gut mit einem eigentlichen überbelegten VRAM noch Spielen (Siehe auch Zitat weiter unten).
Daher nochmal @CB: Könntet ihr euer Vorgehen bei diesem Benchmarg genauer erläutern bitte ?

Zu BFBC2: Es dürfte eher an der für dieses Spiel deutlich schlechteren Performance des 275.27 Treibers liegen als an AMD dass nVidia hier soweit zurückliegt (vgl. mit anderen Seiten die auf 270.61 gebench haben).

Fragt sich halt was da genau los ist und ob da nicht nVidia nun endlich irgendwelche "FPS optimierungen" endlich weggelassen hat, jetzt wo das spiel nicht mehr so im fokus steht.

Zu Shogun2:

Bei Shogun 2 sollte man beachten, dass die automatische Berechnung des nötigen VRAMs etwas buggy ist und Grafikoptionen unnötigerweise abschaltet.

Ich benutze einen kleinen Hack mit dem man den Grafikkartenspeicher in Shogun 2 auf eine andere als die automatische Grösse setzen kann:

Diese Datei editieren:
%appdata%\The Creative Assembly\Shogun2\scripts\preferences.script

und die gfx_video_memory Zeile ändern:
gfx_video_memory 1572864000; # gfx_video_memory <int>, Override available video memory (bytes) #

Hier ist der Wert auf 1.5GB gesetzt. Mit meiner GTX560TI@1020Mhz läuft das Spiel auf 1680x1050+ultra texturen +4xMSAA+4xSSAA (per Nvidia control panel) + schatten mittel (wichtig) + alle anderen effekte an mit 37fps (laut eingebautem Benutzereinstellungsbenchmark).

Nur bei grossen Festungen setzt dann mit den Einstellungen spürbar Textureswapping ein. Wenn man die Texturen auf High statt Ultra setzt ist das Problem gelöst und es ist sehr schwer einen Unterschied zw. High und Ultra Texturen zu sehen.

Der Unterschied von High zu ultra liegt nicht an unterschiedlichen Texturen. Die sind genau gleich. Aber in Ultra werden z.B. mehr leichen gerendert (bzw. nicht wie bei High nach einer bestimmten Anzahl leichen gekapped. Außerdem werden in High die leichen nicht mehr in "vollem" detail dargestellt. Daneben sind noch ein paar andere Dinge. Deswegen ruhig mit "high" spielen und du hast weniger Probleme mit Textureswapping.

Übrigens Schatten auf Mittel zeigt ja sehr klar dass du haarscharf am VRAM Limit rumschleichst denn Schatten + AA sind ein gutes Mittel um VRAM hochschnellen zu lassen ^^.
 
Hmmm da alle Karten im Referenz Design sind wird wohl auch die GTX580 1.5gb haben und nicht 3gb oder?

Übrigens, bin ich der einzige der die HD5970 vermisst? Ich meine die gtx480 hat gleiche Leistung wie eine 570, daher weg gelassen, die 5870 kommt ca auf eine 6950, daher weg gelassen. Aber was ist mit der 5970 ? Würde mich echt wundern wie gut sich die alte Dual GPU Karte schlägt im vergleich zu den neuen.

btw, Toll das ihr die Frame verläufe immernoch in den Anhang packt! Ist immer wieder interessant zu sehen. Früher konnte man grössere unterschiede ausmachen zwischen AMD und Nvidia, aber heute sind die schon sehr ähnlich.



Marcel55 schrieb:
............ Eine Ergänzung wäre noch Interessant, bei der Leistungsaufnahme wäre noch Interessant, was das System mit Prime und Furmark verbraucht.

QFT! Auch wenn die Last Szenarien in Spielen wesentlich realistischer sind, hoffe ich doch das ihr bei den Spezifischen Benchmarks zu einer Graka Furmark und Prime drin haben werdet, um den maximal möglichen verbrauch zu ermitteln.


errezz schrieb:
Könntet ihr eventuell die Benchmarksequenzen in den Spielen "frapsen" und auf Youtube hochladen (und natürlich bei den Testergebnissen verlinken)?

Das Problem dabei wäre wohl das mit Fraps die Leistung einbricht, und das die Youtube 1080 nicht so tolle qualität ist!
 
Der Unterschied von High zu ultra liegt nicht an unterschiedlichen Texturen. Die sind genau gleich. Aber in Ultra werden z.B. mehr leichen gerendert

Die Sache mit den Leichen wird durch die 'Unit Detail' Einstellung beeinflusst (die habe ich auf ultra). Ich meinte Texturen auf high bzw. ultra. Ich denke die ultra Texturen sind doch hochauflösender denn wenn ich die Gamesettings mit high und ultra texturen benche, sehe ich von Anfang an einen deutlichen Unterschied im VRAM Verbrauch (730MB mit high textures und 1000MB mit ultra textures).

Übrigens Schatten auf Mittel zeigt ja sehr klar dass du haarscharf am VRAM Limit rumschleichst denn Schatten + AA sind ein gutes Mittel um VRAM hochschnellen zu lassen ^^.
Stimmt auch nicht ganz, denn der Unterschied im VRAM Verbrauchen zwischen mittel- und hoch ist gar nicht so hoch (einfach den Game Settings Benchmark mit der jeweiligen Einstellung starten und den VRAM Verbrauch z.B. mit Afterburner beobachten). Der Unterschied scheint eher zusätzliche bzw andere Schattenberechnungsschritte zu sein, welche übrigens auf ATI Hardware zugeschnitten zu sein scheinen, denn dort ist der Leistungseinbrauch lange nicht so hoch.

Im Anhang hab ich mal eine Übersicht über den Performanceeinfluss der verschiedenen Grafikoptionen drangehängt.
 

Anhänge

  • S2%20performance%20impact.png
    S2%20performance%20impact.png
    28,4 KB · Aufrufe: 494
Zuletzt bearbeitet:
Kasmopaya schrieb:
Schön zu sehen bei Metro 2033 - 2560x1600 wenn man ein wenig AA aufdreht. SLI wurde für die Auflösung gemacht und genau hier versagt die Karte. Nicht aber AMD Karten...

Die Mars II oder GTX 580 X2 wie man sie auch nennen kann, wird aber laut Hersteller 2x 1,5GB haben. An der Situation wird sich nichts ändern, außer das noch mehr Rohleistung verpufft.


Das ist echt ein Problem, viele erwarten 2500x1600 Leistung von den Dingern, aber die Rohleistung bei der Auflösung ist echt enorm, das ist und war schon immer SLI Gebiet. Crysis I 30" kann man erst mit GTX 880(Maxwell) mit min. verdoppelter Rohleistung zocken. Ansonsten kannst du mit einstelligen FPS rechnen in kritischen Situationen und TSSAA und allem was dazu gehört. Mehr Auflösung nutzt dir überhaupt nix, du musst ja erstmal das flimmern in Bewegung weg bekommen. Dh. mal wieder wie so oft kontra produktiv hohe Auflösungen einzustellen ist der falsche Weg. TSSAA und HD Textur Mods bringen 1000 mal mehr BQ und brauchen sehr wenig Rohleistung im Vergleich. Dafür aber extrem viel Vram.

Das gleiche bei Witcher II mit dem SSAA, die Option vermatscht dir jede Textur und haut die FPS auch bei einer GTX 580 auf 10 FPS runter. (sehr schön das CB hier Köpfchen bewiesen hat und ueber Sampling aus ist) Aber wenn man solche unnötigen und kontra produktiven sachen ausschaltet und die gewonnene Leistung dann wieder in BQ ummünzt sieht es nachher schöner aus und läuft schneller. Der einzige Hacken an der Sache ist das sie gewonnene Rohleistung in BQ sehr auf den Vram gehen. Darum hab mich mir die GTX 580 3GB auch für volles HD gekauft und BQ Mods und nicht für verrückte Auflösungen von denen ich sowieso sehr wenig habe. In einigen Games ist die 2500er Auflösung aber praktisch um die Kantenglättung zu unterstützten, Witcher II zb. Rohleistung ist bei dem Game kein Problem.

Dann heißts wohl auf maxwell warten oder man haut sich noch ne 2.3gb 580 hinzu.
Gut dass man über die texturmods wenigstens noch etwas spielraum hat wenns für 2560 und texturmods noch nicht reicht mit ner sgpu.Und mit der mars II ares schießt sich nvidia wieder selber ab.
 
@Mr_Blonde
Danke, aber jetzt kann man immer noch nicht 100% sagen warum das so ist. Steht ja nur geschrieben "es ist denkbar"...

Naja egal, aber irgendwie ist das schon paradox wenn man sich das mal vorstellt. Die 2 GB Variante kostet etwas mehr, dafür verbraucht die 1 GB Version mehr Strom. Langfristig gesehen kostet einen die (auf den ersten Blick) günstigere Karte also mehr. Ich weis schon was ich kaufen würde wenn ich vor der Wahl stehen würde.
 
WieselNo1 schrieb:
Warum sind eure Performanceratings nicht auf 100% normiert. Gleich im ersten hat die schnellste nur 92,3% oder meint ihr da fps oder wie ist das zu verstehen.

Liegt daran, dass selbst die Graka ganz oben nicht immer in jedem Spiel vorne liegt (womit sie 100% erhalten würde), sondern auch mal an 2. oder 3. Stelle. Daher ergibt sich sowas wie 93% "Gesamtleistung"

Blutschlumpf schrieb:
Ich glaube ihr habt evtl. so ne Art Tunnelblick entwickelt, dass die Leute entweder nen neuen PC kaufen oder alle 12 Monate die Grafikkarte tauschen und überseht, dass ein Großteil hier sicher ab und zu mit dem Gedanken spielt nach ein paar Jahren aufzurüsten. Dazu braucht es imo den Vergleich zu ner 3850/4850 von ATi oder ner 8800/9600/9800 von NVidia.

Also ich hab selber noch ne 3870, sogar nur auf Win XP (also DX9). Aber ich halte es für sinnfrei, so alte Karten noch in ein neues Testsys zu packen. Man kann sich IMO hervorragend an alten Tests orientieren, so ist eine 4670~3850, ne 4850~5750

oder

Der_Alkoholiker schrieb:
man tut sich mittlerweile ja auch schon schwer die 8800GTX richtig anzusiedeln :-/

die 88GTX ~ 4850 ~ 5750 Niveau.

Achso: 5750 = 6750 ;)

Vereinfach könnte man auch sagen: Die meisten Karten dieser Zeit sind am unteren Ende des Performanceratings anzusiedeln, dann orientiert man sich einfach an der langsamsten Karte und kann abschätzen, inwiefern sich ein Upgrade lohnt.
 
Klasse Test! Zeigt mir eigentlich, dass mir meine 5770 (6770) noch vollkommen ausreicht.
Evtl wir nächstes Jahr dann aufgerüstet. :)
 
Zurück
Oben