Test Fortnite, LOL, PUBG & Co.: Mittelklasse-GPUs von AMD und Nvidia im Benchmark

Krautmaster schrieb:
@ duskstalker

Tessellation wird oft herangeführt, wäre das aber so der Bottleneck hätte AMD genau das übertrieben hochgeschraubt. Wenn es etwas angeblich so ausbremsen kann, dann funktioniert das auch in die andere Richtung. Jetzt kommt sicher wieder das Crysis Video von vor 10 Jahren...

Ja, es mag visuell (quasi) keinen Unterschied machen ob mit dem AMD Optimierung Setting, dennoch ist es nicht gleich. Um hier etwaige Unterschiede rauszuarbeiten bietet sich der Test zum Game an. Da kann man dann easy testen wie sehr Tessellation limitiert.
Im Rating geht es darum gleich zu testen, gleich könnte man sich jetzt streiten ob das auch für die API gelten muss. Diese sollte anders als Tessellation keinen Einfluss auf die Optik haben.

Doom Nightmare ist eigentlich super da es zeigt wie GPU der Vram ausgeht. Man muss ja die Karten differenzieren, zb die GTX 1060 3GB von 6GB, eine Fury X von Vega.
GPU limit ist das was man braucht um Karten zu limitierten. Sei es Tessellation, sei es Vram.
Hier nicht von "Bottleneck" bei AMD zu sprechen ist doch einfach nur Stuss.
Wenn man sieht wie destruktiv Nvidia Tessellation implementiert hat, dann kann Nvidia eigentlich nichts anderes tun als den tesselation_factor hoch zu schrauben, um so die desolate Implementierung von Tessellation zu kaschieren.
Sobalt man unter Nvidia Tessellation nutzt, stoppt es in der pipeline, weswegen es sich bei Nvidia "lohnen" muss Tessealtion zu nutzen (=übertrieben hoher tesselation_factor).
Dies ist bei AMD eben nicht so, Tessealtion ist dort eben nicht destruktiv (im bezug auf die Pipeline).

Das dies immer noch ein gameworks "problem" ist, kann jeder AMD nutzer selber mit maxTessFactor im Treiber selbst herrausfinden. Auch wenn zb Vega dort massig verbessert wurde.

Zudem kannst du einstellen was du willst, AMD und Nvidia werden ohnehin nie das genau gleicher Ergebnis liefern. Mit oder ohne Tessellation.
 
Zuletzt bearbeitet:
Fortnite läuft nach dem Treiberupdate auf max. Einstellungen mit 70fps auf meiner rx480
 
Stev010881 schrieb:
Marketingtechnisch ja. Hardwareseitig nein. Beispiel: Wird ein WV Golf 1.4 zu einem Supersportwagen wenn man ihn für 300.000€ verkauft? Nein wird er nicht.
Habe ich ja auch nicht behauptet. Dein Textverständnis geht offensichtlich gegen Null oder du kommst nur nicht von deinem nervigen Preis-Gedanken weg, selbst wenn andere Argumentationen diesen gar nicht tangieren.

Ich habe kein Wort zum Preis verloren. Es ging lediglich um die relative Einordnung zu anderen Produkten am Markt bzw. im Herstellerportfolio.
Was ich gesagt habe ist, dass der VW Golf am Markt zu High-End wird, wenn kein anderer Autohersteller leistungsfähigere Autos anbietet bzw. er zumindest im VW-Portfolio High-End wird, wenn VW keine leistungsfähigeren Autos anbietet...
Das hat garnichts mit dem absoluten Preis zu tun. Wenn eine 1030 4000€ kosten würde und die anderen GPUs entsprechend immernoch vorhanden wären, wäre das ganz genau dasselbe.

Und der Markt ist nunmal die einzig relevante Bezugsgröße für diese Einordnung. Nur weil jemand etwas leistungsstärkeres produzieren und anbieten könnte, heißt das nicht, dass das aktuell beste Kaufbare nicht High-End ist. Deine Supersportwagen sind doch plötzlich auch nicht obere Mittelklasse, nur weil z.B. keiner Hybriden aus Elektro, Verbrenner und Strahltriebwerk (angenommen die seien wirklich schneller) in Serie produziert und verkauft.

Wenn dich das so sehr stört, dass NVidias Chips für dein Empfinden für das Marktsegment "zu klein" sind, dann lass dich von AMD anstellen und sorg dafür, dass die mal wieder ein Bisschen ernstzunehmende Konkurrenz bringen, die NVidia dazu nötigt, auch wirklich die fettesten Chips auszupacken.
 
Zuletzt bearbeitet:
eax1990 schrieb:
Denke eh dass der gesamte Battle Royale von EG nur der Notfallschirm ist, die werden schon selber gemerkt haben, dass sie einfach nur die letzten Produkte (Unreal Tournament, Paragon z.B.) ausreichend in den Sand gesetzt und ein Weiteres (Fortnite) hätte vielleicht auch ein Studio geschlossen.

Epic macht sein Geld mit der Entwicklung und Lizensierung ihrer Engines, die müssten überhaupt kein Spiel verkaufen und würden sich trotzdem die Taschen voll machen.
„Hätte hätte Fahrradkette“ sag ich nur: Man hat eben ein gewisses Risiko bei der Spieleentwicklung, das haben Alle. Wenn ein Spiel erfolgreich ist, kann man auch mal zwei oder drei schlechte Spiele verkraften. Warum man UT schon vor Fortnite aber so hat hängen lassen verstehe ich auch nicht.
 
duskstalker schrieb:
man erhöht so gesehen nur den vram bedarf mit einer einstellung, die man extra auswählen muss, mit der einzigen konsequenz, dass die fury in ihrer königsdisziplin auf den letzten platz abstürzt.

wieso macht man sowas?

Die Fury hat aber auch einfach zu wenig VRAM. Das ist ein Fakt den man nicht unter den Teppich kehren sollte. Als Machbarkeitsstudie zum HBM war sie toll, hatte aber eben noch Kinderkrankheiten. Und das sag ich als (ehemals) stolzer Besitzer einer Fury X. Der einzige Grund für den Wechsel war eine defekte Kühlung. Das sie zu wenig VRAM hatte hat mich aber ab und an trotzdem gestört (Deus Ex).
 
Hägar Horrible schrieb:
Gerade für den otto-Normalverbraucher sollte es egal sein, was auf der Grafikkarte steht, de facto ist es das aber nicht, man wird all zu oft in die Nvidia-Ecke gedrängt. Das hat mehrere Ursachen, und die Verwendung von Nvidia-Features wie Hairworks oder das mehr oder weniger konsequente Ignorieren von DX12 und dem Bevorzugen von DX11.

Weiß nicht was du meinst. Meine R9 280er lief die letzten Jahre anstandslos nagut bis auf das mir die Lüfter weg geraucht sind und nun ein 120er seit Ewigkeiten endlich seinen Dienst super macht war aber jetzt nichts.
Zumindstens ich hatte wenig Probleme mit meiner GPU. Die AMD Treiber waren teilsweise echt durchwachsen aber jetzt mit dem neusten Adrenalin und davor den ewig genutzen 17.7er lief alles super.
Preislich kann ich dich aber verstehen. Aber das hat man ja auch bei Nvidia. 300€ für Mittelklasse ist echt nicht mehr normal und ich persönlich kaufe auch so schnell keine neue GPU. War zwar nicht so geplant aber dann wird die R9 bis zum bitteren Ende durchgefahren und bisher tut sie das auch 1A.
Eine 1050Ti lohnt einfach nicht, Amd hat da nichts und das nächste was kaufbar wäre ist eine 1060er. Das AMD nicht kaufbar ist haben wir aktuell einfach den Kryptohonks zu verdanken.
 
@Krautmaster und duskstalker
Danke für eure Einschätzungen:).

Was Nvidia durch Gameworks implemetierung und beeinflussung von Spielentwicklern so alles unfaires betreibt ist mir natürlich klar.
Aber wie in dem Beispiel mit DOOM, muss sich der Tester für eine Herangehensweise entscheiden und das gefällt und missfällt immer einer Reihe Leute.
Da es Argumente für beide Seiten gibt, will ich CB da auch nicht verurteilen.

Die API ist noch eine interessante Sache. Ich bin mir bei den anderen Spielen nicht sicher(ist nicht so mein Genre), aber es ist kein DX12 Spiel dabei oder? Dota 2 kann Vulkan aber da weiß ich nicht wie man da die Frametimes aufnimmt. Fraps kann es nicht.

Ansonsten würde ich bei Spielen, wo man die Wahl hat, durchaus die API nehmen, die der jeweiligen Karte eine bessere Performance bringt. Also für AMD tendenziell DX12 und Nvidia tendenziell DX11.
 
für cs wieder völlig praxisferne einstellungen... wer würde denn 8x msaa einstellen? lieber 250 fps mit 2x msaa oder 300 mit fxaa als 150 fps mit butterweichen kanten. ganz ehrlich, lasst die karten doch ins cpu limit rennen, und zeigt auf ab welcher GPU die CPU limitiert. denn in der praxis sitzt in CS sowieso jeder im CPU limit. das ist doch die wichtigere information, wenn ich sagen kann "gut, mehr als ne rx 570 brauch ich nicht für 1080p"
 
Hat die RX 560 2GB oder 4GB? Die VRAM-Angabe könnte auch bei den anderen Modellen (z.B. R9 380 & GTX 960) nicht schaden, ansonsten ist der Artikel nicht nur mühsam zu lesen/interpretieren, es wird zum Ratespiel.
 
Interessant wäre noch gewesen wieviel VRAM für die Games benötigt wird :/ Bei Fortnite sind es min. 2,5GB VRAM. Hätte mich interessiert wieviel VRAM die anderen Games benötigen.
 
mgutt schrieb:
Dafür kann man die 1050 Ti passiv betreiben und die RX 570 kostet doppelt so viel und verbraucht 3x mehr Strom (egal ob im Idle oder Gaming). Ist die RX 570 nicht eher für WQHD Gaming? Bei Full HD finde ich für mich jedenfalls zu viele Gegenargumente.

3x soviel Watt vom Verbrauch her bezweifle ich
 
ne GTX 1050 ti liegt bei etwa 65-68 Watt: http://www.tomshardware.de/nvidia-geforce-gtx-1050-ti-gp107-grafikkarte,testberichte-242256-6.html

Eine RX 570 (hier die strix) liegt beiu 167 watt: http://www.tomshardware.de/polaris2...ufnahme-lautstarke,testberichte-242348-5.html

Sind also rechnerisch "nur" 2,5 mal mehr :P Die spontane schätzung war aber gar nicht so weit weg.


@ mgutt: Nein, für WQHD muss man sogar bei ner GTX 1060 / RX 580 noch deutliche kompromisse hinnehmen - zumindest bei AAA Games. Selbst 1080p läuft nicht auf Ultra mit nem 60 fps lock (nicht in jedem Game).
In WQHD hat selbst meine GTX 1080 probleme, auf 50-60 fps zu kommen. Hätte ich kein G-Sync (und nur 60 Hz), hätte ich deutlich mehr probleme hier, denn dann MÜSSTEN die Settings runter, weil es ohne 60 fps Lock nicht flüssig sein kann.

Bei E-sports titeln dürfte ne RX 570 problemlos WQHD rocken. Gerade, wenn man keine Pusteln im Gesicht bekommt, wenn mal ein Setting nicht auf Ultra steht ;-) Die Screenshots zeigen es ja wunderbar.. bei so games wie Fortnite, Overwatch etc: Ob die Settings auf Mittel oder Ultra/Epic stehen, macht nahezu keinen Unterschied.
 
Baal Netbeck schrieb:
Aber wie in dem Beispiel mit DOOM, muss sich der Tester für eine Herangehensweise entscheiden und das gefällt und missfällt immer einer Reihe Leute.
Da es Argumente für beide Seiten gibt, will ich CB da auch nicht verurteilen.

Da muss man aber anmerken, dass das Vorgehen Fragwürdig ist.

In Doom kann man die Nightmare Settings auf der Fury nur mit einer Mod verwenden.
Und nachteilige Tesselations Einstellungen sind ja ein neues Novum. Macht keiner und hat auch keiner mit dem Standard Treiber ab Werk eingestellt.
Ich habs nur einmal umgestellt um Festzustellen, dass Witcher 3 die größte Tesselations Plörre aller Zeiten ist und die Gameworks Tesselations Faktoren ohne sinnvollen Nutzen immer noch implementiert werden.

zwei Szenarien die nur eine ich sags mal "Grafikhure" wählen würde um die Karte ins Limit laufen zu lassen um zu zeigen wo die Grenze liegt. Aber niemals verwenden würde um eine hohe Framerate in Online Spielen zu erreichen...

Ergo ist das Absolut Praxisfern in jeglicher Hinsicht.


Hier wird Schließlich Stock getestet also was der Hersteller einem liefert und ab Werk installiert ist ohne Veränderung !!!

Ansonsten sollte man ab jetzt immer erwähnen, dass man mit Nvidia Karten nicht übertakten kann, weil man dafür ein optionales Tool benötigt, welches im Stock Treiber nicht vorliegt ?



Erst liegt die GTX 1060 ~11% vor der RX 580.
Dann wird LOL ins Rating aufgenommen, jetzt sind es ~7 % Vorsprung.
Jetzt würde man mit Sicherheit mit den normalen " AMD optimierten Tesselations" Einstellungen vor Nvidia liegen mit Garantie.

Die Frametimes sind einfach auch fast identisch.

Die RX 580 hat technisch betracht eine Stabilere Bildrate als die GTX 1060.... aber ja, neuerdings ist es etwas Gutes wenn die FPS von 90 auf 140 FPS peaken und dann wieder auf 90 FPS fallen, Hauptsache man kann sagen, dass man 140 fps erreicht, auch wenn es nur das Spielgefühl stört ? :D


Beim Vergleich GTX 1050 TI und RX 570 hätte man in Hinsicht Frametimes auf die Speichermenge eingehen müssen.
Schließlich ist das der einzige Grund warum die RX 570 vor der Ti liegt. Die Karte TI ist zwar günstiger aber hat ein Speicherinterface aus der Hölle. Das Ding ist nicht Zukunftssicher

Und das Fazit ist echt schrecklich: "Wie bei den teuren Karten: Nvidia schneidet besser als AMD ab"
Das ist einfach so richtig Nvidia- Base dieses mal.

Den Test mit Fragwürdigen Einstellungen durchführen, welches die Nvidia Karten in ein besseres Licht rückt.
Wenn man im Nvidia Treiber etwas nicht @ Stock gelassen hätte, dann wäre hier der Shitstorm des Jahrhunderts ausgebrochen.


Edit:

Das nicht in WQHD getestet wurde und der 4K Hinweis fehlt ist auch Bombeee.

givemeajackson schrieb:
für cs wieder völlig praxisferne einstellungen... wer würde denn 8x msaa einstellen? lieber 250 fps mit 2x msaa oder 300 mit fxaa als 150 fps mit butterweichen kanten.

Dann hätte man aber nicht zeigen können, welch Tolle fluktuierende Frametimes die GTX 1060 hat.....
Praxisfern ist das neue Ingame Setting.

BTW: Die Durchschnittsframes sollten endlich verboten werden, das stellt nur Nvidia für den DAU besser da, weil viele Bilder = Gut.

DOTA 2 ist ja ein Super Beispiel, für die GTX 1060 wie dort 60-160 FPS an der Norm sind...

Während die RX 580 zwischen 100-140 dümpelt...
 
Zuletzt bearbeitet:
Der Test zeigt dass ich mit meiner GTX970 weiterhin gut bedient bin und leider weiter "ausharren muss" um für's Geld auch wirkliche Mehrleistung zu bekommen. Vor allem hab ich die erst vor knapp einem Jahr für um ~130eur aus der Bucht geschossen. Das steht zu heute ja in keinem Verhältnis zu neuen.
 
@aivazi

Wie wäre es denn einfach mal was konstruktiv beizutragen, zb einfach mal Links zu Tests die deiner Meinung nach besser / realistischer sind bringen oder selbst Vorschläge machen wie was deiner Meinung zu testen sein sollte?

Die ganzen Posts von dir driften doch, eigentlich vollkommen egal wie CB testet, eh immer in die gleiche Ecke ab. Alles kacke, vorallem Nvidia und das von Nvidia gekaufte CB. Und das tust du dann auch wirklich zu Genüge mit diversen wenig verwertbaren Posts Kund.

Was is nun also besser? Mit gleichen produzierten inGame Bild zu benchen oder mit jeweilig gesetzem Treiber Standard? Das kann man auch sachlich erörtern.
 
Zuletzt bearbeitet:
so

Artikel gelesen, jeden Post bis hieher gelesen

Kiste am Arsch, Karte muss her

mehr als einmal gelesen dass die 1050ti (im Vegleich zur non ti) zu teuer ist P/L

low budget Karte für fullHD mit Abstrichen, Online als auch Kampagnen Spiele die normale 1050, dann sparen und wenn der Markt mal wieder normal sein sollte lieber ne 1060 statt zu aktuellen Preisen ne 1050ti?

ok, danke )
 
Ich fände mit Treiber-Standard benchen besser, da ich weder bei Nvidia noch bei AMD irgendetwas in den Treiber-Einstellungen ändere.
 
ich für meinen Teil ändere auch nichts dran, aber wenn im Treiber Standard ein unterschiedliches Bild zustande kommt bin ich dafür das anzugleichen, mit manuellen Settings.

Als Nächstes nennt einer der beiden 4x AA plötzlich 8x AA , rechnet ein anderes Field of View, lässt entfernte Objekte früher weg... verkauft etwas als AF Optimierung dass das AF je nach FPS beschränkt....

Die Bildrate ist ja nur eine Maß, die prinzipiell unter gleicher Darstellung erfolgen sollte wie ich finde. Also so wie es das Game an dieser Stelle vorgibt. Es mag Titel geben, da wirkt sich die Tessellations Optimierung absolut 0 aus. Mag aber auch welche geben, die zB aufgrund spezieller Objekte die ggf sehr nahe betrachtet werden durchaus auf hohe Werte angewiesen sein können.

Gibt man das mit dem Test unter selben Rahmenbedingungen auf, also bei willkürlicher BQ, dann artet das früher oder später sicher aus.

Edit. Wie sehr sich das im jeweiligen Titel auswirkt sollte eben in diesem auch untersucht werden. Dann kann man da auch ganz sachlich drauf hinweisen dass zb in Witcher 3 oÄ folgendes Treiber Setting empfohlen ist, zb um die Tessellation sinnvoll zu begrenzen. Hier hat das CB bei MEA gut untersucht.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
ich für meinen Teil ändere auch nichts dran, aber wenn im Treiber Standard ein unterschiedliches Bild zustande kommt bin ich dafür das anzugleichen, mit manuellen Settings.

Da kommt nicht wirklich ein unterschiedliches Bild zustande. CB erzählt immer wie wichtig ein Testen mit Stock Einstellungen ist (Ram bei den CPU's usw.). Aber für einen GPU Test wird plötzlich im Treiber rumgemacht obwohl man weiß das die Tesselation in 98% der Spiele keinen Unterschied bei der Bildqualität hat ?

Ich find das überaus merkwürdig.

Es soll ja schließlich für den Kunden gezeigt werden, was er bekommt, wenn er die Karte kauft -> Treiber installiert -> zockt.

Wenn man dann im Treiber an der Tesselation rumpfuscht verzerrt man dieses Bild unter Umständen extrem. Das einzige was damit erreicht wird, dass am Ende die 1060 plötzlich vor der 580 steht, wo sie sonst fast identische Leistung bringen, mit kleinen Vorteilen für die 580 wegen des größeren VRams.

Sinnvoller wäre es gewesen das zu erwähnen und ein paar Screenshots anzufertigen um zu sehen, ob es überhaupt einen Unterschied macht.
 
Zuletzt bearbeitet:
Zurück
Oben