Test Schöner Spielen mit HDR: Benchmarks zeigen geringere Leistung auf AMD und Nvidia

Krautmaster schrieb:
ist das jetzt eigentlich gut wenn die HW zum Kauf hinter ihrer Leistung zurückbleibt oder eher schlecht? Klar, wenn zum Kauf Tag das P/L gleich ist und die Leistung mit der Zeit steigt ist das erstmal gut (außer das geht so langsam dass man wieder 3 Gens weiter is bis es signifikant ist)...

Ich für meinen Teil hätte lieber lieber ne zum Release schnellere Karte die der Mehrleistung entsprechend auch mehr kosten darf. Und AMD hätte das mit Sicherheit auch gern, den "FineWine" ist für AMD eher das Gegenteil von dem was man gerne hätte. Nämlich frisch gezapftes Fassbier.

Wenn ich mich für eine Graka entscheide dann lese ich davor Tests und kaufe damit was dahin getestet worden ist. Wenn die Karte zukünftig besser wird warum soll das wieder ein Nachteil sein? Beim Kauf bekomme ich das was getestet worden ist wenn ich als Sahnehäubchen mehr Leistung zukünftig bekomme ist doch toll oder nicht?

Dieses schlechtreden von allem ist echt übel.
 
  • Gefällt mir
Reaktionen: Thraker
duskstalker schrieb:
nvidia kann nicht alles mit einem "treiberfix" regeln.
Doch doch, das sagt nVidia selber! Alles kann man mit einem kleinen Hotfix beheben.
Wenn nicht, dann gibt's halt einen ihrer sagenumwobenen Wundertreiber. ☺

Ich nehme an, daß ist auch der kausale Grund, weswegen die Leute bis heute, Jahre später, noch immer auf ihren Treiber-Fix warten (müssen), durch den nVidia versicherte, Asynchronous Compute/-Shaders für Fermi und Kepler nach zu liefern. … oh warte mal!

Ein bei Kepler wie·der¹ Fehlendes Hardware-Featureset – einfach just mit einem Treiberupdate, yay!


In diesem Sinne

Smartcom

¹ Nachdem Fermi in der Tat über in Hardware vorhandene entsprechende Scheduler verfügte – und jene bei Kepler wieder fallen gelassen wurden (um entsprechende Effizienz-Verbesserungen zu erreichen). Ironischerweise ist Fermi glaube ich die aktuellste Architektur, die keinen DirectX 12/Vulkan-Support erhielt …
 
  • Gefällt mir
Reaktionen: TechFA, Thraker, LukS und 4 andere
R00tMaster schrieb:
Also weil AMD unter HDR besser dasteht, ergibt nur ein HDR Test Sinn?

Das ergäbe nur Sinn wenn alles und jeder nur noch HDR nutzen könnte. Ich zocke nur in SDR, und damit ist Nvidia für mich die bessere Graka in Sachen Performance.

Nein Du hast einfach nicht verstanden was ich meinte. Wenn man die Performance was ein Chip aufgrund seiner Architektur leisten zu vermag, dann darf man nur mit gleichen Waffen kämpfen. Da wir aber nicht wissen ob Pascal einfach Kacke ist in HDR, oder nVidia Pascal eben nicht wie ausgesagt auch in SDR mit höherer Präzision rechnen lässt.
Sprich um es nochmal deutlich zu sagen: Wenn nV in SDR nur mit niederer Präzision rechnet, dann ist ein Vergleich der Architekturen nur in HDR Aussagekräftig unter der Voraussetzung das AMD unter SDR mit höherer Präzision rechnet.
 
Ist bei dem Mittleren Preset in Andromeda nicht die Auflösungsksalierung an?
Kann CB was dazu sagen?
Im 3dcenter Forum wurde damals auch bei Andromeda ein ca. 20% Verlust genannt... (1080ti)
 
  • Gefällt mir
Reaktionen: Colindo
Ist das nicht Logisch dass die AMD weniger Leistung verliert? Hat ja auch wesentlich mehr Rohleistung als die Nvidia

RX Vega 64 = 12664 GFlops
GTX 1080 = 8873 GFlops

Die AMD Karte hat ja auch knapp 43% Mehr Rohleistung.
 
Nureinnickname! schrieb:
Ist das nicht Logisch dass die AMD weniger Leistung verliert? Hat ja auch wesentlich mehr Rohleistung als die Nvidia
Eigentlich sollten beide nix verlieren wenn sie eh schon lange in der gleichen Präzision Arbeiten...
 
Wieso ist da das neue Hitman nicht auf der Liste?

@Wolfgang
Wenn man in Shadow Warrior 2 den HDR modus aktiviert wird das komplette game bleich/trüb/farblos.
Besonders einfach zu erkennen am Gelben Hauptmenu.
Passiert das immer noch mit AMD Karten? Mit nVidia sollte es nicht passieren.

DannyA4 schrieb:
Sind die aufgeführten Spiele eigentlich die einzigen, welcher derzeit HDR unterstützen, oder gibt es da noch weitere?
Tadaa
https://pcgamingwiki.com/wiki/Speci...Feature-2Fintro/outrotemplate=Feature-2Foutro
 
  • Gefällt mir
Reaktionen: DannyA4
So zeigt sich die GeForce GTX 1080 in Mass Effect: Andromeda unbeeindruckt davon, ob SDR oder HDR genutzt wird. Auch in Far Cry 5 ist die Differenz sehr klein.
Da würde sich mir die Frage stellen, ob in diesen Spielen HDR überhaupt funktioniert. Habt ihr bei den Spielen jeweils auch überprüft ob HDR erkennbar ist?

Zotac2012 schrieb:
Klar ist das für User die jetzt schon HDR nutzen ärgerlich, aber ehrlich, glaubt wirklich Jemand das juckt Nvidia oder AMD im Moment, wenn gerade mal aktuell 1 Promille User gibt die davon betroffen sind? Sicherlich nicht!
Wie viele hier schreiben, juckt mich nicht, ich habe kein HDR. Wen juckt das?
Solche Tests dienen im allgemeinen nicht dazu 2 Jahre alte Hardware zu beweihräuchern sondern über die aktuelle Marktlage zu berichten. Und Personen, die sich nun einen neuen Monitor kaufen machen sich sicher schon zu einem höheren Prozentsatz über 4K oder HDR Gedanken, wie viele Leute noch eine 1024x768 Röhre auf ihrem Tisch stehen haben, spielt dafür keine Rolle.
Was bei euch auf dem Tisch steht besitzt für diesen Test keine Relevanz. Und mit einem schnellen Treiberfix kann man wohl auch eher nicht rechnen, da wie der Gamestar-Test zeigt das Thema schon seit 2016 bekannt ist.


Zotac2012 schrieb:
Weiß ich nicht, ob es zu den Praktiken passt, aber wenn betrifft es beide Hersteller und nicht nur Nvidia, denn AMD verliert auch Leistung, wenn es auch etwas weniger ist als bei Nvidia!
[…]
Nochmal, warum wird hier jetzt auf Nvidia draufgehauen, wenn auch AMD Leistung verliert, dass zeigt doch nur, bei beiden Herstellern spielt HDR noch eine untergeordnete Rolle.
Hast du mehr als die wirklich irreführende Überschrift gelesen? Wenn man die Destiny 2 rausnimmt, welches bei Nvidia sogar noch mehr Probleme mit HDR hat, ist der Leistungsverlust bei AMD bei 1%, das ist nicht Erwähnenswert.
Oder anders betrachtet, 7 aus 12 Spielen haben bei AMD keine Abweichung oder eine Abweichung im Nachkommabereich, das passiert bei Nvidia genau 1 mal.
 
  • Gefällt mir
Reaktionen: Thraker, LukS, unspektakulaer und 2 andere
mace1978 schrieb:
Oder anders betrachtet, 7 aus 12 Spielen haben bei AMD keine Abweichung oder eine Abweichung im Nachkommabereich, das passiert bei Nvidia genau 1 mal.
Und genau dort kann unter Umständen eine auto-skalierung an sein. Das müsste man jetzt mal schauen/klären :/
 
Das wäre neben nicht funktionierendem HDR natürlich eine andere Option, warum es hier für Nvidia positiv ausreisst.
 
Nureinnickname! schrieb:
Ist das nicht Logisch dass die AMD weniger Leistung verliert? Hat ja auch wesentlich mehr Rohleistung als die Nvidia

RX Vega 64 = 12664 GFlops
GTX 1080 = 8873 GFlops

Die AMD Karte hat ja auch knapp 43% Mehr Rohleistung.

Diese Milchmädchenrechnung wird oft angewendet, ist aber völlig Falsch.

Der typische Boost der RX Vega 64 liegt bei 1400-1450 MHz, ergibt:
11 469 - 11 878 GFLOPS
Bei der GTX1080 haben wir in der Regel einen effektiven Boost von 1900-1950 MHz, ergibt:
9 728 - 9 984 GFLOPS

Die Differenz beträgt also:
14,9 - 22%, und nicht die von dir genannten 43%.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran und Baal Netbeck
estros schrieb:
Aus meiner Sicht ein völlig falsches Fazit!

Dass AMD und NV verlieren, hängt also von der Spiele Engine oder anderen Teilen der Software und im Zusammenspiel mit dem Treiber ab. Hier wurde offensichtlich noch nicht viel für HDR optimiert.


Was genau nun Schuld ist wurde doch garnicht gesagt. Das kann alles sein. Treiber, Spiel oder die Hardware weil mehr eventuell mehr Bandbreite benötigt wird.
 
Alphanerd schrieb:
Gegen was soll man seine 1-2 Jahre alte 1080 denn tauschen?


Garnicht? Nen super billiges Angebot von OLED 1080p?

Wenn man seinen tv wie ich 5jahre + nutzt bleibt eigentlich nur warten.

Warten bis HDMI 2.1 flächig verbaut wird. Ggfs die samsung tv anschauen weil man bei denen glaub die Anschlüsse/anschlussbox wechseln kann?

Oder eben es hinnehmen und in 2-4jahren neu kaufen.

Oder auf dvi setzen, sofern das beim tv möglich ist.
 
Zotac2012 schrieb:
Aber egal, Nvidia böse, weil zuviel Leistungsverlust bei einem so wichtigen Feature derzeit, wie HDR. Also schnell die Grafikkarte verkaufen und AMD holen, die Frage ist nur, wer zahlt den Monitor mit HDR?

Naja, bei AMD kann man die hohe HDR Performance schon seit der HD7XXX Reihe kaufen, wann liefert endlich mal nVidia??!?!!11

Fakt ist, nVidia hat einen 10fachen Leistungsverlust gegenüber AMD in HDR. Egal ob es viele HDR Bildschirme auf den Schreibtischen stehen, Benchmarks werden auch in 4K angefertigt obwohl keine gigantische Verbreitung.
 
  • Gefällt mir
Reaktionen: Thraker, Excel, Iscaran und eine weitere Person
Zotac2012 schrieb:
Echt jetzt? Und es wissen bestimmt auch alle, das Du auschließlich nur Pro AMD bist!

er hat sich erst heute mittag hier angemeldet. den gamestar test mit mehr ergebnissen zu posten ist schon extrem amd-biased. :rolleyes: das getrolle ist doch lächerlich.

Zotac2012 schrieb:
Ändert aber nichts an der Wahrheit, wenn Du es auch nicht wahrhaben willst, das beide Hersteller an Leistung verlieren und schaut man sich die Games an, liegt es wohl nicht nur an den Herstellern, sondern auch an den Games und der Programmierung.

die wahrheit, wie du es nennst, ist, dass nvidia in jedem spiel, außer in einem (ME:A), leistung verliert, im schnitt 10%, je nach spiel aber auch 25%. der zweite teil der wahrheit ist, dass vega in 7 von 12 spielen absolut keine leistung verliert, in 4 weiteren bis 5%, und in destiny 2 sind die verluste bei der gtx 1080 zweieinhalb mal so groß.

die überschrift suggeriert, dass HDR auf nvidia und amd leistung kostet. aber das ist bei vega 64 in über der hälfte aller benches nicht der fall. hier kann man einfach nicht hergehen und das ergebnis der 1080 (quasi überall verluste) und das ergebnis von vega 64 (überwiegend keine verluste) über einen kamm scheren - zumindest nicht, wenn man etwas wert auf journalistische qualität oder neutralität legt.

dann könnte man auch titeln: "HDD vs SSD: Beide booten Windows in unter einer Minute!" oder "Wärmeleitpaste vs. Verlöten: Last auf CPU erhöht Temperatur bei Intel und AMD dramatisch!"

deine argumentation "aber vega verliert doch auch mal leistung, also ist die überschrift technisch nicht falsch, also ist sie richtig" zieht einfach nicht. die überschrift beschreibt nicht das ergebnis dieses tests - da kannst du dich auf den kopf stellen und noch weiterhin "wahrheit" proklamieren, es ist einfach nicht der fall.

Zotac2012 schrieb:
Aber egal, Nvidia böse, weil zuviel Leistungsverlust bei einem so wichtigen Feature derzeit, wie HDR. Also schnell die Grafikkarte verkaufen und AMD holen, die Frage ist nur, wer zahlt den Monitor mit HDR?

jetzt ist auf einmal HDR nicht wichtig. wie wichtig ist gameworks? wie wichtig ist physx? jeder bencht den kram, keiner wills. HDR gibt endlich mal sichtbaren nutzen, und das soll unwichtig sein, weils nvidia nicht gebacken bekommt?
soweit wie ich mich erinnern kann ist der aktuellste monitor mit HDR ein nvidia gsync modell für 2600€.
den schuh kannst du dir schön selbst anziehen.
 
  • Gefällt mir
Reaktionen: Thraker, stevefrogs, Excel und 7 andere
Unabhängig von diesem Test, frage ich mich immer.
Warum wird in fast allen Tests immer eine Founders Edition benutzt. Custom Karten sind "deutlich" mehr verbreitet und dann auch ~15%+ schneller.
 
Ko3nich schrieb:
Die Überschrift hätte natürlich auch lauten können:
"HDR - nVidia verliert viel, AMD ein bisschen"

Warum nicht?
Hätte sie denn wirklich …
Dann hätte es ja dem von @Iscaran erwähnten möglichen Grund zuwider gelaufen; Dieser vielzitierte Passus der NDA sagt ja (sinngemäß), »Der Empfänger verwendet vertrauliche Informationen ausschließlich zu Gunsten von Nvidia«.

Ja, warum wohl liest sich die Überschrift eines Artikels wie sie sich liest?!
Die Frage darfst Du dir gern selbst beantworten …

Aber, man sollte nicht vorschnell urteilen, nicht wahr?
Deswegen nehme ich es mit den Worten von Frank Hübner und Anderen;
„Wir wollen und werden uns an unseren Taten messen lassen. Sollte es hier an konkreten Beispielen Diskussionsbedarf geben, stellen wir uns sachlicher Kritik dann gerne erneut.“
— Frank Hübner et al., Geschäftsführer der ComputerBase GmbH, in „In eigener Sache: Stellungnahme zum Nvidia-NDA

@ComputerBase
Deshalb, und bevor dieser Beitrag aus unerfindlichen unbequemen Gründen wieder einmal baden geht, möchte ich meine konstruktive Kritik hier nicht vorenthalten;

→ Ändert bitte den tendenziös bis unlauter auffassbaren Titel des Artikels in den von @Ko3nich vorgeschlagenen ab.
Dieser ist deutlich weniger missverständlich, kein bisschen tendenziös und wirkt erheblich seriöser, objektiver und weniger parteilich. Der jetzige Titel ist (ob beabsichtigt oder nicht) dazu geeignet, die Quintessenz der Tests zu verwässern.

Dankeschön!
rico007 schrieb:
Die Überschrift wiederspiegelt aber nicht den Test.
Manchmal denke ich man möchte hier bei der CB nichts negatives über Nvidia schreiben. …
… und das wundert Dich jetzt?


In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: Thraker, Excel, Marflowah und 5 andere
Simanova schrieb:
Ich denke Nvidia wird einen Treiberfix nachreichen sobald das Public wird.

Ich würde das nicht mehr "Fix" nennen.
Sie müssen seid Maxwell jedesmal ihren Software-Schleuder erweitern....
Ansoten läuft der im "Default" und ist crap.
An sich ist das ein gutes Konzept, aber nur solange wie man seine Produkte Supporten will. xD
 
Man kann also sagen, dass auch Pascal eine eklatante HDR Schwäche aufweist. Mal sehen ob NVidia das jemals in den Griff bekommt.
 
duskstalker schrieb:
deine argumentation "aber vega verliert doch auch mal leistung, also ist die überschrift technisch nicht falsch, also ist sie richtig" zieht einfach nicht. die überschrift beschreibt nicht das ergebnis dieses tests - da kannst du dich auf den kopf stellen und noch weiterhin "wahrheit" proklamieren, es ist einfach nicht der fall.
Auch AMD Grafikkarten verlieren Leistung, da brauch ich mich nicht auf den Kopf stellen, sondern nur den Test lesen. Nvidia verliert mehr Leistung, ja!

duskstalker schrieb:
jetzt ist auf einmal HDR nicht wichtig. wie wichtig ist gameworks? wie wichtig ist physx? jeder bencht den kram, keiner wills. HDR gibt endlich mal sichtbaren nutzen, und das soll unwichtig sein, weils nvidia nicht gebacken bekommt? soweit wie ich mich erinnern kann ist der aktuellste monitor mit HDR ein nvidia gsync modell für 2600€. den schuh kannst du dir schön selbst anziehen.
Ach jetzt wird auf einmal HDR schon mit Gameworks und PhysicX verglichen? Gameworks und PhysicX kann man aber nutzen [ob man es braucht, muss jeder selber Wissen!], sofern die Features im Game implementiert sind. Aber wer hat HDR, ein Feature das doch im Moment nur den Kunden/Usern vorbehalten ist, bei denen Geld keine Rolle spielt und denen auch egal ist, ob da ein Lüfter im HDR Monitor [bei einem Preis von über 2500,00 Euro] werkelt, der an einem Helikopter gleichkommt [mal übertrieben das Lüfter Geräusch dargestellt!].

Klar ist HDR unwichtig, weil es ein Feature ist, welches erst in den nächsten 3. bis 5. Jahren [wenn überhaupt!] eine Rolle spielen wird. Im Moment gibt es kaum Monitore mit diesem Feature, kaum Spiele mit diesem Feature, von daher interessiert es auch aktuell nicht, man nimmt es zur Kenntnis, ja! Aber bis die meisten User/Kunden es nutzen können, sind wir doch schon ein bis zwei Grafikkartengenerationen weiter und da wird man dann sehen, was die Grafikkarten von beiden Herstellern diesbezüglich leisten können.

Also ganz ruhig bleiben und den Puls runterfahren und das sage ich, als Betroffener, der ja eine Nvidia Grafikkarte besitzt. Aber warum sich dann gerade die AMD Grafikkartenbesitzer hier besonders über die Leistung von den Nvidia Grafikkarten in Bezug auf HDR aufregen, hat schon etwas von Comedy!
 
Zurück
Oben