Test Fortnite, LOL, PUBG & Co.: Mittelklasse-GPUs von AMD und Nvidia im Benchmark

wie gesagt, ich finds keinesfalls merkwürdig, allerdings sollte CB das im jeweiligen Test zum Game ausloten wie bei Mass Effect.

Was bedeutet AMD optimiert? Dass es immer 0 Impact hat?

CB erzählt immer wie wichtig ein Testen mit Stock Einstellungen ist (Ram bei den CPU's usw.).

Das kommt drauf an bei was. Natürlich testet man zb CPU so wie die vorgesehen und spezifiziert sind. Testet man aber die GPU kann man natürlich die CPU hochziehen und "außer Spec" betreiben um das CPU Limit weiter hochzutreiben.

Deswegen sag ich ja, ich finds wichtig dass man für die Ratings sowohl Specs als auch Standards einhält, wobei der Standard hier das "Standard Bild" meint. Alles was darüber hinausgeht, zb welchen Impact sowas wie schneller Ram bei Ryzen / Coffee hat, das kann man natürlich im jeweiligen CPU Tests oder auch gern separat möglichst detailliert durchleuchten.

Bisher versteh ich da eigentlich in absolut jedem Belang wie CB testet, sei es das Korrigieren der Auto Tessellation bei AMD, sei es das Nightmare bei Doom, sei es das Halten der Ram Specs bei den CPU.

Was man aber anmerken kann ist ggf der Umstand dass CB gut daran täte diese Eigenarten mehr rauszuarbeiten diese klare kommunizieren sollte, zb gerade bei dem Auto Tessellation kann man ja gern mal nen Special für machen, so wie beim RAM OC auch.
Ergänzung ()

Aldaric87 schrieb:
Es soll ja schließlich für den Kunden gezeigt werden, was er bekommt, wenn er die Karte kauft -> Treiber installiert -> zockt.

kann man dass dann soweit weiterspinnen dass man Geforce Experience auch auf Auto Optimize setzt und dann die FPS vergleicht? Wo fängt man an, wo hört man auf?
 
Zuletzt bearbeitet:
Mir wäre neu das GeForce Experience zum Treiber gehört. Also ich muss da einen Haken setzen, wobei man das ja gerne mal in einem Special behandeln kann, allerdings werden die GPU's von nVidia in der Regel dann schlechter abschneiden als sie es momentan tun.

Vor allem in diesen Mainstream-Games wird nämlich in der Regel ab der 1060 durchgängig DSR im Treiber als "optimum" angeboten womit man dann vll. grade noch die 60 FPS halten kann. Zudem hat auch die verbaute CPU Einfluss auf die Einstellungen, welche dir GFE anbietet.

Also verzerrt das vermutlich auch eher das Bild für den Kunden.
 
ich meine es wird beim Treiber mitinstalliert und ich meine auch dass es standardmäßig alle meine Games optimieren wollte ^^

Edit:

Das mit der Tessellation bei AMD is schon was wo sicher die Gemüter scheidet. CB schreibt ja auch im MEA test dass es quasi 0 Impact hat. Ka wie das bei anderen Titeln aussieht, zb BF1, Final Fantasy.

Da der "Gain" ja mitunter nicht unerheblich ist, zb max 6x Tes, wärs schon interessant zu wissen wie viel die AMD Karten da zulegen. Dass man das nich über alle Karten und den ganzen Parcour machen kann is klar.
 
Zuletzt bearbeitet:
Vll. wurde das bei den neueren Versionen jetzt rausgenommen (also das Häkchen setzen).

Ich hab es wegen den Game-Ready Treibern und der Aufzeichnung für die Kills in PUBG drauf gehabt.
 
"wollte" oder "hat"?

Viele verwenden auch einfach den von Windows automatisch installierten Treiber.
 
@ Auto Tessellation

Is natürlich auch alles eine Sache des Aufwandes da man das in jedem Titel Testen müsste. Wenns nach mir geht kann bei wirklich 0 Impact auf Optik das so gern ins Rating, mit Vermerk, genauso wie die besser laufende API ins Rating kommt (wenn zb DX11 fixer is als 12). Der Aufwand zwecks testen ist natürlich hoch, man muss das Einstellen - am besten auf 2 gleichen Systemen, und wirklich intensiv den Bildvergleich machen.

Wenn man dadurch durch die Bank 10% mehr Performance hat is das denk ich das schon wert.
Ergänzung ()

Fand nicht wirklich n Test wo das mal untersucht wurde. Also auch welchen Impact das Setting bei AMD hat. Vega scheint da bei Tessellation x64 aber auch fixer als ne GTX 1070 zu sein.

Edit: und die RX 580 hat bei hohen 64 ja mehr Dampf als die GTX 1060
86524.png


Hat Nvidia da überhaupt noch wirklich nen Tessellations Vorteil? Ich weiß dass das bei der HD5/HD6XX noch massiv der Fall war. Aber heute?
 
Zuletzt bearbeitet:
@tessellationsskalierung:

gameworks0xupz.gif

gif über alten benchmarkparkour

r9 390 tessellation andromeda.PNG
https://www.computerbase.de/2017-03...-tessellation-auf-der-radeon-r9-390-1920-1080

CB selbst schreibt dazu:

Mass Effect: Andromeda setzt allerdings auch auf Tessellation, wenn es keine grafischen Unterschiede ausmacht – oder diese einfach nicht zu sehen sind. In der zweiten Testszene (ohne Berge) spielt es bezüglich der Bildqualität keine Rolle, ob Tessellation wie vom Spiel vorgeschrieben genutzt oder völlig deaktiviert wird. Die Performance reagiert auf der Radeon RX 480 jedoch deutlich darauf. Zwischen abgeschalteter und maximaler Tessellation-Stufe liegen 15 Prozent Unterschied.

konsequenz? natürlich vollgas tessellation durchballern. bei ME:A hört tessellation nach 16x auf, aber the witcher hairworks ist tess faktor 64!
 
die Bilder kenn ich von dir auch schon Genüge. Aber hatte ja eben gezeigt dass sich bei Faktor 64 wohl ne RX580 und ne GTX 1060 herzlich wenig nehmen.

Du kannst nicht Gameworks und Tessellation eben gleich setzen. Deswegen wäre es ja interessant zu sehen wie der Impact ist. Bei Hairworks sieht man zb den Unterschied 8x zu 16x schon noch wenn man recht nahe am Kopf is.

Vorteile für Nvidia ergäben sich aber vor allem dann wenn sie auch wirklich massiv schneller wären auf dem Gebiet, und da find ich mehr Tests von asbach uralt Karten als wirklich was aktuelles.

Dass eine Radeon RX 480 da nun mit optimierter oder deaktivierter Tes gewinnt mag ja sein, bedeutet aber nicht dass dies eine Nvidia Karte nicht genauso würde. Da müsste man Titel mit Tes on / Tes off testen...

Edit: Ich finde folgende Argumentation zb auch löchrig. Zum einen sagt man hier oft:

-> "Anwender bauen Karte ein, spielen im Treiber Standard ohne das Setting zu ändern"
und gleichzeitig
-> "Zu viele Gameworks Titel sind im Parcour, unfair wär AMD"
-> "Vega muss man untervolten damit sie mehr Performance bringt, sind nur 2 Klicks"

was den nun? Spielt der typische Konsument eben mit Standard Treiber Settings auch nur eine absolut ausgeglichene Titel Auswahl oder nicht vielleicht 80% Gameworks Titel weils nunmal die Blockbuster sind?
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Hat Nvidia da überhaupt noch wirklich nen Tessellations Vorteil? Ich weiß dass das bei der HD5/HD6XX noch massiv der Fall war. Aber heute?
Einen Vorteil hat und hatte Nvidia ja eh "nur" bei einem unsinnig hohen tesselation_faktor, bei sinnigen Werten führt und führte AMD. Dies liegt in der Art wie Nvidia Tesselation Implementiert hat, nämlich destruktiv.

Sollte aber bald eh gegessen sein, so wie es schon die Spatzen vom Dach pfeifen gibt es bald eh "AMDrealWorks". :)
 
Zuletzt bearbeitet:
ja aber das aktuelle Tes Performance Verhältnis, wie sieht das nun aus? Über die diverse Faktoren. Müsste doch mal wer getestet haben.

Anandtech hat nur 64, was schon unsinnig hoch ist.
90104.png


Edit. Mich würde zb interessieren wie der Parcour mit Auto Optimized oder 16x Tes Limit für AMD Aussehen würde, oder auch nur auf Basis der 5 letzten AAA Titel.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Edit. Mich würde zb interessieren wie der Parcour mit Auto Optimized oder 16x Tes Limit für AMD Aussehen würde, oder auch nur auf Basis der 5 letzten AAA Titel.
AMD "Auto Optimized" bringt eh bei kaum einem Spiel was, es gibt schlicht keine Profile im AMD Treiber. (IMHO wird "Auto Optimized" von nur einem Spiel genutzt.
 
das würde im Umkehrschluss bedeuten dass sich AMD richtig Viel Performance durch die Finger gleiten lässt (da sicher viele mit Setting Auto testen) oder aber sich die Sache zu wenig lohnt. Aber hast da ne Quelle dazu?

Was wäre denn ein sinniges Setting? Gibts auch Tests zum Einfluss in anderen Games? Bei Nvidia kann man die Tes ja nicht beschränken. Eig schade.
 
Ich hab es bei mir auf x16 festgelegt, dafür habe ich Hairworks bei Witcher 3 genommen. x64 sieht zwar tatsächlich nochmal besser aus, aber x16 reicht auch völlig aus, bei x8 sieht es dann schon merklich schlechter aus.
Der Punkt wo die Performance zwischen GTX1080 und Vega64 genau gleich ist, liegt laut dem CB Test bei x14, also habe ich mit x16 gegenüber Nvidia so gut wie keinen Nachteil.

Bei x8 ist Vega sogar einiges schneller als Pascal.
Dafür wurde auch ein Bench mit RotTR gemacht, wo die Tes. nicht so hoch ist. Hier bricht Pascal bei aktivierter Tes. stärker ein als Vega.

Polaris betrifft das leider nicht, dort zieht man aber immerhin gleich mit Pascal, was den Leistungsverlust bei RotTR angeht.

Also ist x8 für Polaris und x16 für Vega das Setting, in dem Nvidia nicht weniger verliert als AMD.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
@aivazi

Wie wäre es denn einfach mal was konstruktiv beizutragen, zb einfach mal Links zu Tests die deiner Meinung nach besser / realistischer sind bringen oder selbst Vorschläge machen wie was deiner Meinung zu testen sein sollte?
.
ich komme in Dota 2 mit meiner Saphire Rx470 mit 8GB in 2560x1440 mit Max. Einstellung auf 145-160Fps.
Hier gibt es nur ≈ 130 FPS in 1920x1080. Irgendwo passt da etwas nicht
 
Ich will einen 8-Ender. Sagt mal, eine x299 Plattform, muss man da 4 Speicher-Module benutzen?
 
Krautmaster schrieb:
@ duskstalker

Tessellation wird oft herangeführt, wäre das aber so der Bottleneck hätte AMD genau das übertrieben hochgeschraubt. Wenn es etwas angeblich so ausbremsen kann, dann funktioniert das auch in die andere Richtung. Jetzt kommt sicher wieder das Crysis Video von vor 10 Jahren...

.
Wieso soll AMD Chipfläche für eine übertrieben Tesselation Leistung raushauen. Dann rennen sie erst recht in die Falle von Nvidia. Nvidia kommt dann auf einmal bei Gameworks mit Compute um die Ecke und schon hat AMD wieder das nachsehen weil sie diesmal auf Tesselation gesetzt haben.
 
Neronomicon schrieb:
Was man bei AMD per Treiber (Tess.-Faktor) einstellen kann, wünsche ich mir auch bei NV Karten. Gibt es da keine Möglichkeit?

Nein - das ist bei nVidia nicht vorgehesen dass der User darin "rumpfusht"...am Ende würde der User noch merken dass das übertriebene Tess. auch auf nVidia Karten leistung frisst die "optisch" nicht sichtbar wird.

EDIT: @Duskstalker - danke für das gif...gleich mal gespeichert :-)
 
Danke das meine R9 380 auch mal getestet wurde und ich nun mal sehen kann wo die im Vergleich steht.
 
Iscaran schrieb:
Nein - das ist bei nVidia nicht vorgehesen dass der User darin "rumpfusht"...am Ende würde der User noch merken

sowas kann man ja schlecht behaupten ohne es wirklich ausgiebig getestet zu haben. Und bitte nichts von Anno 2010 als Tess eben erst erfunden wurde ^^

Mass Effect scheint ja Tessellation recht ausgiebig zu nutzen, wie viel Performance kostet es also im Worst Case AMD bis erster sichtbarer Verlust auftritt? Bei Nvidia dürfte es also kaum mehr sein.
Ich geh die Aussage da nicht mit und behaupte einfach mal stur dass man hirnlos Rechenpower für Tess verbrät und dadurch Nvidia sogar die eigenen Karten ausbremst. Sicher könnte man hier und da optimieren... aber es ist wohl eher Sache des Gaming Entwicklers ein sinnvolles Limit bei Tess zu wählen. Und wie gesagt, aktuelle AMD Karten sind da wohl nicht wirklich langsamer als ihre Gegenspieler.

Klar, es ist einfach mit diversen Thesen um sich zu werfen.
Ergänzung ()

ampre schrieb:
Wieso soll AMD Chipfläche für eine übertrieben Tesselation Leistung raushauen. Dann rennen sie erst recht in die Falle von Nvidia. Nvidia kommt dann auf einmal bei Gameworks mit Compute um die Ecke und schon hat AMD wieder das nachsehen weil sie diesmal auf Tesselation gesetzt haben.

Stimmt, aktuell haut AMD ja auch schon so mehr als genug Chipfläche raus. Aber wenn man hier alles über Tessellation bricht und gerade auch Gameworks oft dieses übertriebene Tess nutzt, dann wäre es ja nur logisch da anzusetzen. Rechnet sich aber nicht, weil die Schlacht offensichtlich nicht mit höherer Tessellations Leistung gewonnen wird.

Gerade damals als man bei den HD5XXX Karten bei Tessellation um gut 50 oder mehr % hinterher hinkte und zudem noch die kleinere Die hatte wäre das ja die erste Strategie gewesen, Tessellationsleistung verdreifachen wenn man dadurch viel gewonnen hätte - hat man aber nicht. Spricht also dafür dass da zu viel Wind drum gemacht wird oder aber AMD weiter im angeblichen "Tessellations Bottleneck" bleiben wollte ^^

Vielleicht kommt ja wirklich eine der 1000 Hardware Review Seiten mal auf die Idee und vergleicht wirklich bei Nvidia und AMD 20 aktuelle Games und schält die Tessellation komplett aus oder an. Wäre interessant wie viel % das im Schnitt kostet. Ich tippe auf 2-10% im Schnitt.
Ergänzung ()

Tomsenq schrieb:
ich komme in Dota 2 mit meiner Saphire Rx470 mit 8GB in 2560x1440 mit Max. Einstellung auf 145-160Fps.
Hier gibt es nur ≈ 130 FPS in 1920x1080. Irgendwo passt da etwas nicht

sowas gibts immer, aber wohl kaum weil man irgendwas schlecht aussehen lassen will. Selbes AA? Selbes System oder zufällig selbst 4000 Mhz Ram verbaut? Selbe Testszene?

Schon allein letzteres macht in vielen Titeln gut -+20% FPS aus.

Wenn ich nun jedes Game rauskramen würde wo meine 980 TI mehr FPS als hier in den Benches hat wär ich wohl 2020 noch nicht fertig. Bei sowas vertrau ich also einfach mal den Redakteuren die die Tests durchführen. Tu ich das nicht müsst ich woanders lesen, und das tut man ja ohnehin als Crossvergleich.

Also weniger die "FPS" vergleichen, eher die prozentualen Unterschiede zwischen den Karten und was da andere Reviews zu sagen.
 
Zuletzt bearbeitet:
Zurück
Oben