Wechhe schrieb:
Warum gibt es eigentlich keine UWQHD Auflösung in den Tests? Also 3440 x 1440? Das 21:9 Format wird ja immer beliebter.
FHD, WQHD und UHD sind die mit Abstand meist genutzten Auflösungen. und drei Auflösungen sind schon viel Arbeit. Da muss der Rest dann drunter "leiden".
Chillaholic schrieb:
Ist das ein Fehler im Spiel, Treiber oder wurden da Zahlen von der Redaktion falsch übernommen?
Kann mir doch keiner erzählen, dass das normal ist.
Es schaut komisch aus (ich habe auch gestutzt und nochmal nachgemessen). Es ist aber so.
Kacha schrieb:
Sind die anderen Karten dann einblendbar aehnlich der Performancestatistik?
Sollte ein Test nicht nachvollziehbare Ergebnisse produzieren? Wenn komische Ergebnisse ein Spiel nicht disqualifizieren und nur Beliebtheit zaehlt, dann mindert das doch die Aussagekraft des Tests. Klar, fuer die, die es nur um das Spiel geht ist es interessant, aber um eine allgemeine Aussage uber die Leistungsfaehigkeit einer Grafikkarte sagt es weniger aus. Wenn es eher um ersteres geht, waere es dann nicht sinnvoller eine Umfrage zu machen welche Spiele aufgenommen werden sollen? Wobei dann wahrscheinlich auch einige alte Spiele dabei waeren, die aber immer noch beliebt sind.
Die anderen Karten sind im PL-Rating nicht einblendbar. Das geht technisch aktuell nicht.
Ich behaupte mal, es ist für jeden in diesem Thread absolut unmöglich nachzuvollziehen, warum eine Grafik bzw. ein Thread so viel oder so wenig Performance ziehen. Oder ob dies gerechtfertigt ist oder nicht. möglicherweise gibt es einen guten und nachvollziehbaren Grund, warum Anno 1800 auf AMD-Karten so läuft wie es läuft. Aber das werden wir nie wissen. Das könnte einem wenn dann wohl nur ein Entwickler sagen, der mit Analysetools sich genauer anschaut, was das Spiel macht.
Darum sage ich. Reproduzierbar müssen die Ergebnisse natürlich sein. Nachvollziehen, warum in Spiel a x und y passiert ist dagegen ein Ding der Unmöglichkeit.
Sun-Berg schrieb:
Für mich hat ein Performancerating eigentlich nur dann Sinn, wenn einige gut programmierte standard Engines vertreten sind, welche besonders die GPU auslasten und/oder welche in vielen Spielen vorkommen. Aber der workload sollte (im Spiel) durchgehend ähnlich bleiben. Sonst ist am Ende nicht die Engine entscheidend, sondern der gewählte Spielausschnitt. Und das macht die Sache subjektiv.
Mich würde auch freuen, wenn CB immer die Modelle der GPUs dazuschreiben würde. Mittlerweile wissen wir zwar ungefähr welche Modelle es sind, aber das alleine erklärt schon Unterschiede mit anderen Reviewern. CB nutzt, im Gegensatz zu vielen anderen, fast nur (oder gar nur?) Referenzmodelle, die sich Punkto Leistung, oft sehr stark von Partnermodellen unterscheiden. (Die aber die meisten Spieler kaufen).
Es gibt schätze ich mal kein Spiel der Welt, das immer denselben Workload hat. Meine Erfahrung ist, dass der Workload eines jeden Spieles sehr dynamisch ist und andauernd zwischen CPU, GPU und zahlreichen weiteren Komponenten schwankt. Darum macht die Testszene ja auch so einen großen Unterschied. Man kann durch die genutzte Hardware, die Einstellungen oder eben die Testszene versuchen, die Last in die eine oder andere Richtung zu verschieben. Aber gleichmäßig wird da absolut nichts.
Zu letzteren, wie schon geposted, finden sich hier Infos:
https://www.computerbase.de/2019-05/grafikkarten-test-methodik-2019/
zeedy schrieb:
Ja stimmt, Rage 2 ist eines. Aber man hätte dennoch ein weiteres mit in den Benchmark aufnehmen dürfen. Ich finde zB, dass WWZ sehr beeindruckend demonstriert, wie man immense NPC Mengen darstellen kann, ohne dabei Performanceprobleme zu kriegen. Aber das wäre wohl ein AMD freundliches Spiel zu viel gewesen
Ich habe mal nachgeguckt. Falsch ich mich nicht verzählt haben, werden im Parcours fünf Spiele offiziell von Nvidia unterstützt und ebenso fünf von AMD (das ist übrigens nur Zufall). Ich kann da keine unfairen Vorteile für die eine oder andere Seite erkennen. Und die Spiele selbst wurden völlig unabhängig davon ausgewählt, wer schneller oder langsamer ist.
World War Z ist zudem kein Titel, der sonderlich interessant erscheint. Das Spiel hat Vulkan, ist aber sonst weder sonderlich gut, noch beliebt, noch hübsch oder kommt mit einer besonderen Technik daher, dass es unbedingt mit in den Parcours sollte.
zeedy schrieb:
Und was ist denn bitte an Dirt 2.0 oder Far Cry miserabel? Läuft bei beiden Herstellern gut bis sehr gut, mit einem kleinen Vorteil für AMD. Schauen wir uns jetzt Hitman 2 an, 1080 schneller als VII, 2080 36% schneller als VII. Nicht gerade normal oder? Just Cause 4 ist sehr ähnlich was das angeht. Wenn man also nur 15 Spiele testet, dann muss bei der Spieleauswahl auf Sonderfälle wie Hitman 2 oder Just Cause 4 verzichtet werden, zumal diese weder technisch, noch optisch was reißen. Oder man verzichtet auf die Performanceratings.
In Dirt 2 ist die Vega 64 im Vergleich zur GTX 1080 ein gutes Stück schneller als die GTX 1080 als im Durchschnitt. Dasselbe gilt für Dirt Rally, wo eine Radeon VII teils auch eine RTX 2080 Ti überholt. Das entspricht nicht dem Standard. Genauso wenig wie die Ergebnisse in Hitman 2. Aber wie schon öfter geschrieben, verbieten sich Spiele nicht als Benchmark, wenn sie ungewöhnliche Ergebnisse erzeugen. Das hat damals bei Wolfenstein 2 auch keinen gestört, als AMD Kreise um Nvidia gedreht hat. Und dich schätze ich auch nicht
Dass die VII in RE2 mit neuen Treibern deutlich langsamer geworden ist, glaube ich nicht.
Da werden unterschiedliche Einstellungen genutzt. Die Radeon VII ist daher scheinbar langsamer geworden - ist sie aber nicht. Es ist vielmehr so, dass Nvidia-Grafikkarten schneller geworden sind.
Und was in COD BO4 passiert ist, ist schon sehr abenteuerlich.
Es ist eine leicht andere Testszene (die Map hat sich so geändert, dass es die alte Stelle so nicht mehr gibt). Und ich würde eher sagen, dass es vorher ein Problem bei Nvidia gegeben hat, da war die RTX 2080 viel zu langsam, auch im Vergleich zur RX Vega 64.
Insgesamt ist das Ganze hier sehr Nvidia freundlich ausgelegt. Überrascht mich jedoch nicht so sehr, wenn ich mich an die Überschriften der letzten Grafikkartentests erinnere.
Wenn das so wäre. Wie würdest du dann die Frage beantworten, warum die RX Vega 64 im Vergleich zur RTX 2070 und vor allem der GTX 1080 schneller geworden ist, wenn man es mit den alten Ergebnisse vergleicht?
5654 schrieb:
Sehr schön Pro Nvidia, Intel überarbeitet. Wie kommen bitte diese erheblichen Unterschiede zustande?
Hätte gerne eine Stellungnahme von CB dazu.
Wir haben den Grafikkarten-Testparcours Pro Intel überarbeitet? Wie soll das denn gehen? Ich denke, damit hat sich auch dein restliches Statement erledigt. Und schau mal ein Post weiter oben. Dann ergibt es noch viel weniger Sinn.
Wun Wun schrieb:
Schade, dass Monster Hunter World nicht mehr dabei ist. Besteht die Möglichkeit, das Spiel z. B. nach Release des kommenden Addons nochmal zu testen? Letztes Jahr zum Release war Turing gerade noch nicht draußen, und bis in einem halben Jahr wird sich dann ja doch einiges getan haben (nicht zuletzt mit Navi
).
Als Benchmark-Test eines einzelnen Spiels - vielleicht. Für den Grafikparcours dagegen nicht.
Dort werden wir, wenn es die Zeit zulässt, möglicherweise F1 2018 noch durch F1 2019 austauschen.
Freiheraus schrieb:
Bin überwältigt von dem (neuen) Mehr an Transparenz... welche Treiber wurden genau benutzt? Adrenalin 19.5.2 oder älter? Bzgl. Nvidia frage ich gar nicht, da habe ich keine Sorgenfalten auf diesem Portal.
Du findest diesen Link mehrmals im Test und im Forum:
https://www.computerbase.de/2019-05/grafikkarten-test-methodik-2019/[/QUOTE][/QUOTE]