Test Fortnite, LOL, PUBG & Co.: Mittelklasse-GPUs von AMD und Nvidia im Benchmark

Ist World of Tanks schon mit der neuen Core Engine / Update 1.0 getestet worden oder beziehen sich die FPS noch auf die alte Big World Engine?
 
@Wolfgang - bei League of Legends hast du wohl versehentlich UHD Auflösung anstatt 1080p in der Auswahl eingetragen - nicht das nachher noch jemand denkt er hätte in UHD mit ner 1050 paar hundert FPS :D
 
Wird evtl auch noch einer der 2 neuen "Raben" mitgetestet später als update ?
Würde sich für den Gameparcour ja anbieten auch wenn hier nicht die gleiche CPU/ Ram Plattform genutzt werden kann.
 
Was ich schade finde ist, dass man nicht auch 4k-Auflösungen testet, damit man zu den High-End Karten einen besseren Vergleich hat.
 
Kinkerlitzchen* schrieb:
Dann müssten ja auch RX 560D und GTX 1050 mit ihren 2GB mies abschneiden. Tun sie aber nicht.
Btw. gibt es doch gar keine 4GB 1030.

Korrekter einwand....diese Karten hab ich nicht betrachtet. Außerdem nahm ich an dass diese Karten mit 4GB im Parcour waren.
Bei genauem suchen muss ich allerdings feststellen dass nirgendwo im Test wieviel VRAM welche Karten genau hatten ?

Es ist also weiterhin komisch warum im älteren Test die 550 besser Abgeschnitten hat als hier. Andererseits die 8% Differenz sind bei ca 10% Grundrauschen - was die Standardabweichungsanalyse die ich später gemacht hatte ergeben hat ja evtl. eben einfach nur..."Zufall".
 
Aldaric87 schrieb:
Fortnite ist seit min. 7 Jahren in der Entwicklung. EPIC ist selbst Entwickler der Engine.

PUBG ist seit knapp 2 Jahren in Entwicklung und musste die UE4 von Epic lizensieren und selbst erweitern, da die Engine für solch große Karten gar nicht ausgelegt ist. Zudem ist bei Fortnite die Karte deutlich kleiner, optisch ist es Comic-Stil (den man durchaus mögen kann), aber das Spiel ist ganz anders ausgelegt und ist daher kaum vergleichbar mit PUBG.

PUBG ist, wie Arma, mehr als Military-Simulator gedacht und hat deutlich größere Karten. Fortnite geht mehr in die Richtung einfacher Shooter, außer bei den Gewehren/Scharfschützen Waffen gibt es kein Bulletdrop was vom Server berechnet werden muss.

Es ist lustig das Fortnite, obwohl es auf ihrer eigenen Engine basiert für die Performance gelobt wird, dabei waren die ersten Tage im BR nicht besonders gut spielbar selbst auf Highend-Kisten.

Fortnite krankt es momentan vor allem am unglaublich schlechten Bullet-Bloom, dies sollte eindeutig Priorität Nr. 1 sein.

Aber ich bin mir ziemlich sicher das beide Spiele ihre Wege gehen.

Wie kann man nur so etwas verteidigen? Es sollte doch dem Kunden egal sein wie lange etwas in Entwicklung ist oder nicht... das Produkt ist "schlechter" als das andere. Völlig egal aus welchen Gründen. PUBG krankt nun mal an einer sehr schlechten Performance/Skalierung. Mich als Kunde interessiert es nicht, sondern nur das Finale Produkt. Ich erwarte bei einer Release Version ein rundes Spielerlebnis.

PS: Beide Spiele sprechen mich nicht an, da diese zu flach in der Lernkurve sind.
 
highwind01 schrieb:
Ist World of Tanks schon mit der neuen Core Engine / Update 1.0 getestet worden oder beziehen sich die FPS noch auf die alte Big World Engine?
Das Tool ist extra von WG gebaut worden, damit man schauen kann, wie der eigene PC mit der neuen Engine klar kommt. Es gibt bzw. gab gar kein WoT Encore für die Öffentlichkeit für die alte Engine soweit mir bekannt.
 
trane87 schrieb:
Wie kann man nur so etwas verteidigen? Es sollte doch dem Kunden egal sein wie lange etwas in Entwicklung ist oder nicht... das Produkt ist "schlechter" als das andere.

Ich verteidige da gar nichts. Ich sehe PUBG als das deutlich bessere Spiel. Fortnite ist eine Blase die schnell platzen wird, wenn das nächste Spiel aus irgendwelchen Gründen irgendwo durchstartet und die Massen zu sich zieht.

Fortnite hält sich grundsätzlich nur aus dem Grund, da der BR Modus kostenlos ist. Würde der BR Modus Geld kosten bzw. zum Grundspiel gehören, wären die Spielerzahlen nie dort, wo sie sind.
 
Schön, dass du PUBG für das bessere Spiel hälst. Und jetzt? Ich gehe her und sage Fortnite ist das bessere Spiel. Warum? Unabhängig des Looks ist Fortnite technisch sauberer umgesetzt, bietet mehr Tiefgang wie Taktik - alleine schon wegen dem Bauen - und durch F2P liegt die „Hemmschwelle“, um das Game zu Downloaden und zu spielen praktisch bei 0, Also werden immer neue Spieler hinzukommen.

Und wenn es dann im Laufe des Jahres die Einzelspielerversion wie angekündigt auch noch kostenlos gibt, hat man Singleplayer und Multiplayer. Aber bis es soweit ist, spielt eh kein europäischer Gamer mehr PUBG, weil das die Chinesen und Russen bis dahin endgültig unter sich aufgeteilt haben, dann können sie sich im Game gegenseitig tot cheaten.
 
Zuletzt bearbeitet:
chaopanda schrieb:
Das Tool ist extra von WG gebaut worden, damit man schauen kann, wie der eigene PC mit der neuen Engine klar kommt. Es gibt bzw. gab gar kein WoT Encore für die Öffentlichkeit für die alte Engine soweit mir bekannt.
Danke :)
 
Baal Netbeck schrieb:
Ich kann CB verstehen, würde aber niemanem raten die AMD optimierung abzuschalten.
Was meint ihr dazu?

mein verständnis geht hier nicht so weit wie deines. nvidia verschafft sich durch die übertriebenen tessellationslevel unfaire vorteile (weil es im falle von gameworks ihre technik ist) und man müsste den amd treiber mit standard einstellung benchen, weil man sonst nach nvidias regeln spielt. die können sich praktisch nichts besseres vorstellen, als dass amd hardware nicht auf amd sondern auf nvidia einstellungen laufen muss. das ist praktisch so, als würde man auf geforce gpus software feature level forcieren, die die gpus nicht unterstützen. und was macht CB? bencht nvidia bspw auf DX11 statt DX12. aber amd muss nvidia tessellationslevel berechnen :freak:

"aber dann berechnen die karten nicht mehr das selbe"

tun sie so oder so nicht.

1. nutzt nvidia backface culling - backfaces, die nicht sichtbar sind, werden nicht gerendert - das wurde mit maxwell (?) eingeführt. vega beherrscht jetzt auch gpu culling (bspw. in wolfenstein).

2. hat nvidia ihre architekturen extra auf hohe tessellationsleistung ausgelegt und sorgt dann über gameworks für künstlich aufgeblasene tessellationslevel, die in der praxis _nur_ leistung kosten. sub pixel tessellation ist kompletter blödsinn.


und der wichtigste punkt überhaupt: kein amd user haut sich freiwillig die maximalen tessellationslevel rein - ONE DOES NOT SIMPLY...

nvidia user würden auch tessellation runterstellen, wenn sies könnten.


zusammenfassend: volle tessellation auf amd benchen ist nicht nur bevorteilung von nvidia, sondern auch noch am realen nutzungsfall vorbei.


genau so: wieso wurde doom von ultra auf nightmare umgestellt? auf die nachfrage, wieso man das getan hat: "nightmare verbraucht nur vram und kostet sonst keine leistung" - es gibt also keinen grund nicht auf ultra zu benchen - denn die gpu last für titan und 1080 ti steigt ja nicht - "verbraucht nur vram". der einzige valide grund auf nightmare zu benchen, wäre, dass für die top gpus kein fps limit der engine mehr im weg steht, weil sie mehr berechnen müssen - aber das ist ja angeblich nicht der fall. man erhöht so gesehen nur den vram bedarf mit einer einstellung, die man extra auswählen muss, mit der einzigen konsequenz, dass die fury in ihrer königsdisziplin auf den letzten platz abstürzt.

wieso macht man sowas?
 
1. nutzt nvidia backface culling - backfaces, die nicht sichtbar sind, werden nicht gerendert - das wurde mit maxwell (?) eingeführt. vega beherrscht jetzt auch gpu culling (bspw. in wolfenstein).

Backface Culling wird doch schon seit mindestens 20 Jahren in den Rasterpipelines per Hardware unterstützt...... Und GPU Culling ist, zumindest was google diesbezüglich ausspuckt lediglich eine Implementierung von Frustrum Culling auf Objektbasis per Compute-Shader auf der GPU. Diesen Compute-Shader sollten auch alle GPUs der letzten 12 Jahre ausführen können.


genau so: wieso wurde doom von ultra auf nightmare umgestellt? auf die nachfrage, wieso man das getan hat: "nightmare verbraucht nur vram und kostet sonst keine leistung" - es gibt also keinen grund nicht auf ultra zu benchen - denn die gpu last für titan und 1080 ti steigt ja nicht - "verbraucht nur vram". der einzige valide grund auf nightmare zu benchen, wäre, dass für die top gpus kein fps limit der engine mehr im weg steht, weil sie mehr berechnen müssen - aber das ist ja angeblich nicht der fall. man erhöht so gesehen nur den vram bedarf mit einer einstellung, die man extra auswählen muss, mit der einzigen konsequenz, dass die fury in ihrer königsdisziplin auf den letzten platz abstürzt.

wieso macht man sowas?

Um zu Benchmarken wie sich GPUs verhalten, wenn ihnen der Speicher ausgeht? Gerade in einem Fall was eigentlich eine Königsdisziplin sein sollte, ist es ja eher suboptimal, wenn die GPU zu wenig Speicher besitzt um in dieser Disziplin zu scheinen.
 
Zuletzt bearbeitet:
Ja der Test nicht schlecht aber VRAM angaben bitte dazu schreiben. Schließlich mach nicht jeder wie NV nur eine RAM Variante pro chip weil sie die Kunden gängeln.

Sonst bitte nochmal ein Test mit AMD da sieht man immer gut wie schlecht NV ihre GPUs darauf laufen.

Aber ich muss auch sagen dass PCGH mit abstand die besten Test macht zur Zeit was Gpus und Gaming Benchmarks angeht.
 
Ich verstehe das nicht. Wenn 99% der Frames auf der Radeon RX580 und NVidia 1060 fast identisch über 93 FPS liegen, was spielt das Performancerating dann für eine Rolle? Wie sieht zum Vergleich der Median aus? Und die 10% und 20% Werte aus? Wenn da rauskommt, dass NVidia die Performance nur in 10/20% der Frames bekommt, dann sind die 7% Leistungsgewinn nur ein Papierwert, der fürs Spielen keine Rolle spielt.
Wie sieht das Rating bzw. der Mittelwert der 10-90% Werte aus?
Die verzerrenden Ausreißer interessieren mich eigentlich nicht. Wenn eine 10Sekunden Szene auf der NVidia 30% schneller gerendert wird, der Rest des Spieles absolut identisch läuft, dann verzerren die 10Sekunden das Ergebniss, verändern jedoch nicht das Spieleerlebnis. Für die negativen Ausreißer gilt selbigen, vor allem wenn ich mir die 99% Werte anschaue.
Ich bin davon ausgegangen, dass diese Ausreiser immer rausgefiltert werden und im Rating nicht einfließen.
Wie wäre es mit einigen Werten aus der Statistik, Normalverteilung, Varianz und Standardabweichung? Oder noch besser die Dichtefunktion der FPS für einzelne Spiele für die 1060 und RX580 übereinander legen. Kann man sich die rohe Messwerte auch irgendwo herunterladen? Dann könnte ich mir ein eigenes Bild davon machen.
 
Ich verstehe die ganzen Diskussionen um PUBG und Fortnite gar nicht.

Beide Spiele droppen in der Performance richtig ordentlich, mein Rechner hat auch schon die 70 in Fortnite gesehen.
Beide Spiele haben einen Netcode der unter aller Sau ist, PUBG rubberbanded gerne rum, Fortnite hat ordentlich Durchschuss, Epic Games/People can Fly scheinen nur viel besser im Kaschieren zu sein.

Denke eh dass der gesamte Battle Royale von EG nur der Notfallschirm ist, die werden schon selber gemerkt haben, dass sie einfach nur die letzten Produkte (Unreal Tournament, Paragon z.B.) ausreichend in den Sand gesetzt und ein Weiteres (Fortnite) hätte vielleicht auch ein Studio geschlossen.

Die sitzen gefühlt 100 Jahre an den Spielen, am Ende kommt aber nichts oder fast nichts raus - das machen andere Entwickler deutlich besser in viel kürzerer Zeit.

Letztlich würden aber beide Spiele vom Markt verschwinden wenn sich mal ein Studio ordentlich ransetzen würde und nicht die "0815 kann fast Alles, aber gar nichts wirklich gut" Engines nutzt, nen ordentlichen Netcode hinhaut und sauberes Gunplay.
Die Viewerzahlen auch Twitch sind auch nur dort höher, wo die Streamer für den entsprechenden Tag nicht total angepisst sind von Einem der beiden Spiele.

Das Interesse für Battle Royale scheint extrem groß zu sein, aber bis jetzt gibt es kein wirklich 100% gutes Produkt, selbst 70% täten reichen um beide verschwinden zu lassen.

Fortnite ging auch nur Free 2 Play weil man es retten musste, denn für selbst halbwegs gute Spiele zahlt jeder freiwillig, es muss nicht F2P sein.
Genau so brauch ein wirklich gutes Spiel auch keine Entwicklung für andere Plattformen, die Leute würden sich für was absolut Einzigartiges sogar nen Rechner anschaffen wenn es nötig ist (siehe DotA, League of Legends usw.).
 
Roche schrieb:
Ich frage mich ja bis heute, warum AMD keinen wirklichen Gegenspieler zur GTX1050Ti präsentiert hat.

Legen wir mal die Normalpreise zugrunde, dann klafft zwischen RX560 (ca. 120€) und RX570 (ca. 200€) ein riesiges Loch. Gleiches gilt für die Leistung.
Und genau in diese Lücke stößt die GTX1050Ti mit ihren normalerweise 150-160€.

Ich hab Juli 2016 eine RX470 OC Variante für 199€ gekauft. (Also Quasi RX570).

Normalerweise wären die 470/570 heute ohne Mining locker unter 160€ wenn du mich fragst.

Jethro schrieb:
Die RX570 war auf dem Weg zu diesem Preisbereich und dabei die 1050ti überflüssig zu machen.
Wäre der Mining Irrsinn nicht dazwischengekommen wäre die auch schnell dort gelandet.
Es gab ja schon einige die auf dem Weg unter 180€ waren.

Genau so sieht es aus.

DeadEternity schrieb:
@Roche: Es gab die RX470/570 mit 4GB VRAM mal ne zeitlang für 170-180€, vielleicht hat man sich bei AMD gedacht, dass man da nichts mehr zwischen schieben muss.

Denke ich auch.

DeadEternity schrieb:
Aber der Zug bezüglich Polaris ist mittlerweile abgefahren, da kommt sicher nichts mehr nach.

Was mich zur nächsten frage bringt.

GTX1060 und RX470/570 (gleiche karte nur neues Bios) sind dieses Jahr 2 Jahre alt.
Dürfen wir in 12-15 Monaten mit einer neuen GPU gen (mit Shrink) Rechnen ?

Und werden die Preise dann immer noch so Schlecht durch Mining sein ?
 
So ist zum Beispiel die Radeon RX 570 in den AAA-Spielen 48 Prozent schneller als die GeForce GTX 1050 Ti, in den Online-Titeln dagegen nur noch 29 Prozent.

Dafür kann man die 1050 Ti passiv betreiben und die RX 570 kostet doppelt so viel und verbraucht 3x mehr Strom (egal ob im Idle oder Gaming). Ist die RX 570 nicht eher für WQHD Gaming? Bei Full HD finde ich für mich jedenfalls zu viele Gegenargumente.
 
@ duskstalker

Tessellation wird oft herangeführt, wäre das aber so der Bottleneck hätte AMD genau das übertrieben hochgeschraubt. Wenn es etwas angeblich so ausbremsen kann, dann funktioniert das auch in die andere Richtung. Jetzt kommt sicher wieder das Crysis Video von vor 10 Jahren...

Ja, es mag visuell (quasi) keinen Unterschied machen ob mit dem AMD Optimierung Setting, dennoch ist es nicht gleich. Um hier etwaige Unterschiede rauszuarbeiten bietet sich der Test zum Game an. Da kann man dann easy testen wie sehr Tessellation limitiert.
Im Rating geht es darum gleich zu testen, gleich könnte man sich jetzt streiten ob das auch für die API gelten muss. Diese sollte anders als Tessellation keinen Einfluss auf die Optik haben.

Doom Nightmare ist eigentlich super da es zeigt wie GPU der Vram ausgeht. Man muss ja die Karten differenzieren, zb die GTX 1060 3GB von 6GB, eine Fury X von Vega.
GPU limit ist das was man braucht um Karten zu limitierten. Sei es Tessellation, sei es Vram.
 
Zurück
Oben