Test Schöner Spielen mit HDR: Benchmarks zeigen geringere Leistung auf AMD und Nvidia

@pilzsammler2002 Danke, damit wäre das für die RX480/580 auch klar. AMD hats wohl schon sauber in Hardware, nvidia anscheinend nur was zum Release der Karte "state of the art" war. Wobei das dann ja mit Turing kein Thema mehr sein sollte.
Ergänzung ()

pilzsammler2002 schrieb:
HDR geht bei Nvidia laut Aussage seit Maxwell (kann auch auf Kepler möglich sein, müsste man testen), bei AMD seit GCN1 (7970 z.B.)

Funktionieren ja, aber die Implementierung spielt halt auch ne Rolle. Wenn nur Treiberarbeit in Software ist geht natürlich Leistung verloren. Da wären Hintergründe interessant.
 
corvus schrieb:
Wobei das dann ja mit Turing kein Thema mehr sein sollte.


Da wäre ich mir nicht so sicher :D
Ansich sollte es jetzt ja schon "gut" gehen da Nvidia mit HDR im BFGD wirbt (die planen das ja nicht erst seit kurzem)...
Im Gegensatz zu dem Mitbewerber...
 
pilzsammler2002 schrieb:
HDR geht bei Nvidia laut Aussage seit Maxwell (kann auch auf Kepler möglich sein, müsste man testen), bei AMD seit GCN1 (7970 z.B.)
Ich sagte ja auch nicht, dass es nicht geht, sondern kein echtes Thema war, mangels Spielen und Monitoren, die es konnten.
 
  • Gefällt mir
Reaktionen: Lübke82
Mustis schrieb:
Ich sagte ja auch nicht, dass es nicht geht, sondern kein echtes Thema war, mangels Spielen und Monitoren, die es konnten.
Die ersten Games mit HDR waren meistens mit Gameworks/TWIMTB :D:D:D
 
  • Gefällt mir
Reaktionen: ThePlayer
Die Überschrift hätte natürlich auch lauten können:
"HDR - nVidia verliert viel, AMD ein bisschen"

Warum nicht?
 
  • Gefällt mir
Reaktionen: nagus, LukS, bad_sign und 2 andere
ist das jetzt eigentlich gut wenn die HW zum Kauf hinter ihrer Leistung zurückbleibt oder eher schlecht? Klar, wenn zum Kauf Tag das P/L gleich ist und die Leistung mit der Zeit steigt ist das erstmal gut (außer das geht so langsam dass man wieder 3 Gens weiter is bis es signifikant ist)...

Ich für meinen Teil hätte lieber lieber ne zum Release schnellere Karte die der Mehrleistung entsprechend auch mehr kosten darf. Und AMD hätte das mit Sicherheit auch gern, den "FineWine" ist für AMD eher das Gegenteil von dem was man gerne hätte. Nämlich frisch gezapftes Fassbier.
 
  • Gefällt mir
Reaktionen: Khalinor, Lübke82, R00tMaster und eine weitere Person
Da kommt kein Treiber und wenn einer kommt der da was ändert (zumindest an den Benchmarkzahlen) wird irgendwas an HDR usw. beschnitten, die NV Karten sind gut hab selber eine aber technich meist nicht für die Zukunft ausgelegt, sondern für das hier und jetzt. Ist ja klar Marktwirtschaft man will halt verkaufen. Als Kunde würde ich es auch oll finden wenn die Karte zumindest nicht viel Leistung verliert wenn Features implementiert werden oder langsam durchdringung erlangen die es aber zum Release der Hardwaregeneration aber schon vorhanden waren. Aber ein ähnlichen Quatsch gabs bei AMD auch mit H265 Unterstützung. Nobody!!!!!!!!!!! is perfect.
 
  • Gefällt mir
Reaktionen: Smartcom5 und Lübke82
ja die überschrift ist mal wieder absoluter käse, wenn man sich mal den durchschnitt von den ergebnissen anschaut.

Krautmaster schrieb:
ist das jetzt eigentlich gut wenn die HW zum Kauf hinter ihrer Leistung zurückbleibt oder eher schlecht?

was hat das in diesem thema verloren? anscheinend waren die radeonkarten schon vor 2 jahren besser in hdr als nvidia. ich weiß nicht wo hier der "finewine" zu finden ist?!
 
  • Gefällt mir
Reaktionen: nagus, LukS und DannyA4
Krautmaster schrieb:
Ich für meinen Teil hätte lieber lieber ne zum Release schnellere Karte die der Mehrleistung entsprechend auch mehr kosten darf. Und AMD hätte das mit Sicherheit auch gern, den "FineWine" ist für AMD eher das Gegenteil von dem was man gerne hätte. Nämlich frisch gezapftes Fassbier.
Japp, deshalb haben sie auch angekündigt, das zu ändern und schon am Releasetag höhere Leistung zu liefern.
 
Die Überschrift wiederspiegelt aber nicht den Test.
Manchmal denke ich man möchte hier bei der CB nichts negatives über Nvidia schreiben. Eventuell angst Nvidia würde keine Karten mehr schicken?

Eure Ergebnisse zeigen doch eindeutig dass die Vega 64 fast nichts an Leistung verliert.
Ich kann die Ergebnisse übrigens auch bestätigen, meine TI verliert im Gegensatz zur Vega 64 10% an Anleistung, im Worst Case sogar 18% (Mass Effect Andromeda).
 
  • Gefällt mir
Reaktionen: Smartcom5, nagus, Thraker und 5 andere
Krautmaster schrieb:
Ich für meinen Teil hätte lieber lieber ne zum Release schnellere Karte die der Mehrleistung entsprechend auch mehr kosten darf.
Ist zwar Offtopic:
Aber anhand der Ergebnisse der letzten "Jahre" kaufst du zum Release die gleichschnelle aber (meistens abseits Mining) teurere Karte die später "underperformed"... Dafür darfst du dann sogar häufiger wechseln da die Hardware weniger macht/kann und fast alles per Treiber gelöst wird... Win-Win, für Nvidia...
 
  • Gefällt mir
Reaktionen: Thraker und Haldi
Xood schrieb:
Was mir fehlt, oder wurde das bereits mal irgendwo im Detail erklärt, ist der visuelle Unterschied.
Ich finde es ok wenn HDR Performance kostet, genau so kostet eine höhere Auflösung ja auch Performance.
Aber was bekomme ich denn dafür, ist es besser, was ist schlechter?
Wenn z.B. im Artikel steht das üblich RGB 8 Bit und nun 4:2:2: 10 Bit übertragen werden dann sagt das einmal das wir mehr Farbabstufungen haben, aber gleichzeitig eine Komprimieren. Wie wirkt sich das ganze dann aus?

Man hat zumindest bei 10bit 4:2:2 im Helligkeitskanal "4:" statt 256 bei 8bit dann 1024 Abstufungen. In den Farbkanälen wird durch die Farbunterabtastung bei "2:2" ca 33% der Farbinformationen über das Bild eingespart, entsprechend auch Bandbreite und später dann wieder (durch die umliegenden Pixel) interpoliert was am Ende zu einer gewissen (nicht unbedingt sichtbaren) Farbverschiebung führt. Auch Farbsäume an Schriften oder gröbere Farbverläufe sind möglich, sollten sich aber dank der 10bit in Grenzen halten. Denn rechnerisch hätte man auch durch die 33% Verlust noch mehr Farbabstufungen als bei 8bit RGB. Selbst auch bei 10bit 4:2:0, wo ca. 50% der Farbinformationen eingespart werden.
Optimal wären aber natürlich 10/12bit RGB, denn die Umwandlung in YCbCr sowie Rückwandlung im TV für das RGB Panel sind technisch gesehen für mich ne Krücke, die aber dann mit HDMI 2.1 behoben sein sollte.
 
Thx für den Test. Kann mir vorstellen dass Nvidia das Problem irgendwann via Treiber-Update hinkriegt.
 
Simanova schrieb:
Ich denke Nvidia wird einen Treiberfix nachreichen sobald das Public wird.


Naja NV bricht gerade in dem Spiel ein wo sie deutlich schneller als AMD sind, eventuel manipuliert da NV irgendwas und sparen dadurch Rechenzeit ein was bei HDR aber dann nicht mehr Möglich ist.
( Solange die Manipulation keine Bildqualität kostet spricht da ja auch nix dagegen )


Verstehe nicht wieso CB mit keinem Wort erwähnt das eben in Destiny 2 NV normalerweise deutlich vor AMD ist und mit HDR dann mit AMD gleichauf. Bei Shadow Warrior 2 ist NV in SDR ebenso deutlich vor AMD mit HDR dann aber nur mehr gleichauf.
Versteh echt nicht wie das nicht auffallen kann...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thraker, -> m1 <-, Smartcom5 und eine weitere Person
Simanova schrieb:
Ich denke Nvidia wird einen Treiberfix nachreichen sobald das Public wird.
Dabei sind doch nvidias Treiber per se toll und fehlerfrei

estros schrieb:
Aus meiner Sicht ein völlig falsches Fazit!

Dass AMD und NV verlieren, hängt also von der Spiele Engine oder anderen Teilen der Software und im Zusammenspiel mit dem Treiber ab. Hier wurde offensichtlich noch nicht viel für HDR optimiert.
Kurzes Offtopic. Pauschale oder pro Beitrag?
 
  • Gefällt mir
Reaktionen: derSafran, 9Strike und DannyA4
GUN2504 schrieb:
An einer plötzlichen Steigung (HDR) sollte ein 6l V8 (AMD) einfach mehr Reserven wie ein 2l Turbo (Nvidia) haben...

Das haben die Amis '87/'88 auch gedacht...Autovergleiche hinken immer (!).
 
  • Gefällt mir
Reaktionen: Lübke82 und Asghan
pilzsammler2002 schrieb:
Aber anhand der Ergebnisse der letzten "Jahre" kaufst du zum Release die gleichschnelle aber (meistens abseits Mining) teurere Karte die später "underperformed"
Also zum einen war die Vega zum Release eben nicht gleich schnell. Zum anderen kostete sie seit dem sie raus ist durchweg mehr als die 1080. und wo underprferomed die 1080 hier? Die einbrechende Leistung in HDR lässt sich auf 2-3 Games zurückführen. Wie kommt man jetzt bitte drauf, dass das kein Treiberproblem sein wird? Bei der Vega zu Release wurde die miese Leistung ausschließlich auf die Treiber geschoben...
 
  • Gefällt mir
Reaktionen: Lübke82 und R00tMaster
@stoneeh
Das Problem kennt nVidia mindestens seit 2 Jahren. Die wissen an was es liegt aber ein Treiber kann daran nichts richten. Also nein, mit an Sicherheit grenzender Wahrscheinlichkeit kommt da kein Update welches das fixt.

Ich denke auch das nV in den meisten Titel eher mit SDR rechnet und deshalb bei HDR einbricht. Aber das ist kein manipulieren oder tricksen. nV ist nicht verpflichtet alles in HDR zu berechnen.
Das würde nur zeigen, das Performancevergleiche zwischen AMD und nV eigentlich nur unter HDR wirklich Sinn ergibt. Solange nicht bekannt ist was der wirkliche Grund ist, ich denke das erfahren wir leider nie, kann man weder nVidia noch AMD irgendwie anprangern.
 
  • Gefällt mir
Reaktionen: 9Strike
Mustis schrieb:
Also zum einen war die Vega zum Release eben nicht gleich schnell. Zum anderen kostete sie seit dem sie raus ist durchweg mehr als die 1080. und wo underprferomed die 1080 hier? Die einbrechende Leistung in HDR lässt sich auf 2-3 Games zurückführen. Wie kommt man jetzt bitte drauf, dass das kein Treiberproblem sein wird? Bei der Vega zu Release wurde die miese Leistung ausschließlich auf die Treiber geschoben...
Es ging ja nicht reineweg "nur" um aktuelle Karten wie Vega...
670 vs 7970
780ti vs 290x
960 vs 380x
970 vs 390
Und so weiter...

Vega hat in den letzten Test schon bedeutend besser abgeschnitten als zu Release (im Vergleich zu 1080)...

X-Bow schrieb:
Das Problem kennt nVidia mindestens seit 2 Jahren. Die wissen an was es liegt aber ein Treiber kann daran nichts richten. Also nein, mit an Sicherheit grenzender Wahrscheinlichkeit kommt da kein Update welches das fixt.
Hast du da ne Quelle für?
Würde mich schon interessieren :/
 
Wie sieht die Leistung in niedrigeren Auflösungen aus?
 
Zurück
Oben