incurable schrieb:
"Zu
Red Dead Redemption 2 (Test) gibt es eine Anmerkung zu machen: Die gewählten Details erfordern mehr als 4 GB Grafikspeicher und lassen sich auf einer GeForce GTX 1650 (Super) deshalb erst gar nicht einstellen – „RDR2“ ist hier streng.
Der in diesem Spiel eingetragene Wert für diese Grafikkarte basiert deshalb nicht auf einem tatsächlich durchgeführten Lauf, sondern wurde von der Redaktion aus noch lauffähigen Einstellungen abgeleitet. Ohne einen Wert in diesem Spiel wäre eine Abbildung der Grafikkarte im Leistungs-Rating allerdings nicht möglich."
kann man sehen wie man will, aber das ist sehr inkonsistent zu den tests mit der r9 fury. die wurde nämlich mit einigen einstellungen extra ins vram limit getrieben, und diese performance wurde dann auch in den diagrammen dargestellt, obwohl die ergebnisse dadurch natürlich verzerrt wurden. siehe bspw doom 2016. hier war die fury schnell und wqhd + ultra lief ganz normal. das problem entstand erst, als man manuell zwei einstellungen über das maximale preset gehoben hat (nightmare), wo dann die 4gb vram nicht mehr gereicht haben und die fps für die fury enorm eingebrochen sind.
wenn man hier jetzt so eine sonderbehandlung für die 1650 fährt, hätte man damals die fury in doom auch einfach mit ultra preset statt manuellem nightmare benchen können mit dem hinweis "ultra statt nightmare" und fertig. man hätte fps gehabt, die tatsächlich das spielerlebnis wiederspiegeln. im falle der 1650 und RDR2 ist es ja so, dass die karte die benchmark settings nicht mal abspielen kann.
KlaasKersting schrieb:
Naja, wonach soll man denn die Spiele auswählen?
das ist genau die kernfrage, die sich recht umständlich aber präzise beantworten lässt. ich bin der meinung, dass man hier spiele wählen sollte, die ein möglichst breites spektrum in verschiedenen bereichen abbilden. dabei sollten gewisse kriterien berücksichtigt werden: releasezeitpunkt unter berücksichtung eventueller ports von konsole, beliebtheit/spielerzahlen, qualität der technischen umsetzung, engine, entwicklerstudio, sponsoring von amd/intel/nvidia, tauglichkeit und relevanz für benchmarks zur leistungseinschätzung von gpus aller hersteller unter berücksichtigung der fairness eines vergleichs.
man muss hier als journalistische instanz ganz klar auch miteinbeziehen, dass durch benchmarks eine meinungsbildung stattfindet, und die muss dem neutralitätsgrundsatz folgen. die presse hat eine moderierende funktion. hier sind missstände aufzuzeigen und gewisse praktiken anzuprangern.
spiele, die mit einseitigen performance-fressern daherkommen, müssen entsprechend erwähnt und bestenfalls entschärft werden. wie bspw. hairworks in the witcher 3.
und auch bei spieleengines sollte man genauer hinschauen, besonders wenns die UE4 ist.
dieser parcours soll gpus verschiedener hersteller miteinander vergleichen und letztendlich eine kaufempfehlung sein.
nun der punkt, den viele dabei außer acht lassen: ein durchschnitt ist immer nur die summe von einzelergebnissen - sind die einzelergebnisse nicht in ordnung, machts ein durchschnitt davon auch nur bedingt besser. 5 äpfel und 1 mandel sind eben kein multi-frühstückssaft, sondern apfelsaft mit allergiehinweis.
im 2020 parcours fallen direkt die vielen nvidia RTX und unreal engine spiele ins auge - und während einige davon ungewohnt fair sind, wie bspw. metro exodus, sottr oder BF V, gibts da ganz unangenehme ausreißer in form von anno, control und sw: fallen order, die auf der anderen seite keinen ausgleich haben.
die redaktion hat angemerkt, dass RDNA gegen GCN "altersbedingt" aufholt - aber bei genauer betrachtung lässt sich das recht deutlich entkräften, wenn man gewisse titel aus der auswahl herausnimmt, die GCN unheimlich nach unten ziehen, und zwar nicht deshalb, weil jetzt GCN alt ist, sondern weil die spiele oder serien auf GCN noch nie gut gelaufen sind, und hier eine ansammlung eben solcher spiele bzw. engines anzutreffen ist.
a plagues tale ist ein sehr schlechter titel für radeon, allerdings weniger schlecht auf rdna als auf gcn. von einem guten ergebnis für rdna kann hier keine rede sein, nur weniger schlecht. das selbe nur noch schlimmer in anno - hier rutscht die 5700 XT gar hinter die 1080 - das selbe spiel beim vorgänger. borderlands ist ein UE4 titel, ein schlechtes ergebnis für GCN mit tradition - hier zeigt sich quasi immer das selbe bild - UE4 ist die "hausengine" von nvidia - da dürfte das nicht groß wundern. deshalb sehen wir auch in gears 5 ein schlechtes ergebnis für GCN und auch in star wars fallen order - ebenfalls UE4. ein weiterer kandidat mit entsprechender tradition ist ghost recon breakpoint auf der anvil engine, die auch in assassins creed und GR wildlands einen bleibenden eindruck bei GCN gpus hinterlassen hat. daher auch hier: keine überraschungen. bleibt noch metro auf der 4A engine, die in den vorgängern auch schon nicht besonders gut auf radeon gpus gelaufen ist.
unterm strich ist das keine entwicklung der "zukunft", sondern eine anhäufung von titeln, die schon immer schlecht auf GCN gelaufen sind, für die RDNA aber nicht mehr so anfällig ist. mit genügend UE4 titeln hätte man auch 2014 solche ergebnisse produzieren können.
darum ist es wichtig spiele gezielt auszuwählen, und auch zu wissen, was man da misst und welche schlüsse man daraus zieht.