Test Schöner Spielen mit HDR: Benchmarks zeigen geringere Leistung auf AMD und Nvidia

pilzsammler2002 schrieb:
Vega hat in den letzten Test schon bedeutend besser abgeschnitten als zu Release (im Vergleich zu 1080)...
Ja toll, die Leistung hab ich aber mit der 1080 seit fast 2 1/2 Jahren.... Mit der Vega seit nem halben? Und das für mehr Geld? Was juckt es mich wenn KArten nach 2-3 Jahren dann aufgeholt haben? Da liegt teils bereits die übernächste Generation vor...

Grad bei Mittelklassekarten ist es eh unerheblich, weil diese dann Leistungstechnisch nicht mehr nach kommen in aktuellen Titeln.
 
  • Gefällt mir
Reaktionen: mar-gt, Lübke82 und R00tMaster
SavageSkull schrieb:
Was muss den ein Fernseher können, damit man mit dem PC als Quelle HDR nutzen kann?
Kann man HDR einfach so bei den Spielen anschalten, oder muss das Spiel das unterstützen?


Das ist nicht so einfach mit TV...leider.

Willst du für die Zukunft gerüstet sein muss alles in der Kette von der Grafikkarte ausgehend bis zum tv, avr, Kabel usw. mind den HDMI 2.1 Standard einhalten (das will man garnicht googlen).Ist natürlich auf einen tv bezogen, bei dvi ist es sicher anders.

Ohne HDMI 2.1, ist am tv kein dynamisches HDR möglich, kein 120hz 4k und sicher noch andere Dinge wie farbumfang werden niedriger sein.

Egal du es drehst Zukunftssicher ist man nur mit HDMI 2.1 .... dummerweise gibts Geräte mit dieser Schnittstelle erst ab 2019

Was bleibt? Wahrschnlich nur dvi(hab ich keine Ahnung von) oder sinniger 2-3jahre warten.
 
X-Bow schrieb:
@stoneehDas würde nur zeigen, das Performancevergleiche zwischen AMD und nV eigentlich nur unter HDR wirklich Sinn ergibt.

Also weil AMD unter HDR besser dasteht, ergibt nur ein HDR Test Sinn?

Das ergäbe nur Sinn wenn alles und jeder nur noch HDR nutzen könnte. Ich zocke nur in SDR, und damit ist Nvidia für mich die bessere Graka in Sachen Performance.
 
  • Gefällt mir
Reaktionen: Lübke82
Das bisher hier in dem Bereich mit HDR nichts aufgefallen ist, liegt wohl daran, dass dieses Feature so gut wie nicht genutzt wird, weil zum einen die meisten User noch gar keinen Monitor mit HDR haben und zum anderen, es ja noch sehr wenig Spiele gibt, die ein solches Feature überhaupt anbieten.

Als Nvidia Benutzer interessiert mich persönlich daher der Test recht wenig, da bis ich mal HDR irgendwann in Zukunft nutzen kann, mit Sicherheit keine Pascal Grafikkarte mehr in meinem PC werkelt. Ich vermute, dass man bisher bei Nvidia und AMD [auch wenn der Leistungsverlust hier weniger ist!], noch nicht wirklich sich intensiv mit dem Feature auseinandergesetzt haben, sollte sich das in Zukunft ändern, wird man das wohl auch im Treiber mehr berücksichtigen.

Klar ist das für User die jetzt schon HDR nutzen ärgerlich, aber ehrlich, glaubt wirklich Jemand das juckt Nvidia oder AMD im Moment, wenn gerade mal aktuell 1 Promille User gibt die davon betroffen sind? Sicherlich nicht!
Klar unterstützen beide Hersteller AMD wie auch Nvidia derzeit bei ihren Grafikkarten HDR, aber man schein das Feature noch nicht wirklich zu beherrschen, weil es einfach noch nicht wirklich Relevant ist und der Fokus noch auf zu vielen anderen und wichtigeren Themen liegt!
 
  • Gefällt mir
Reaktionen: Lübke82
Zotac2012 schrieb:
Das bisher hier in dem Bereich mit HDR nichts aufgefallen ist, liegt wohl daran, dass dieses Feature so gut wie nicht genutzt wird, weil zum einen die meisten User noch gar keinen Monitor mit HDR haben und zum anderen, es ja noch sehr wenig Spiele gibt, die ein solches Feature überhaupt anbieten.

Als Nvidia Benutzer interessiert mich persönlich daher der Test recht wenig, da bis ich mal HDR irgendwann in Zukunft nutzen kann, mit Sicherheit keine Pascal Grafikkarte mehr in meinem PC werkelt. Ich vermute, dass man bisher bei Nvidia und AMD [auch wenn der Leistungsverlust hier weniger ist!], noch nicht wirklich sich intensiv mit dem Feature auseinandergesetzt haben, sollte sich das in Zukunft ändern, wird man das wohl auch im Treiber mehr berücksichtigen.
Nvidia released BFGD... Klar ist HDR da nicht wichtig...
Vielleicht wollen sie dann mit next-gen einfach HDR 100% "Support" einbauen. Dann können alle beruhigt nen BFGD und ne neue Nvidia kaufen. Würde sehr gut zu den bisherigen Praktiken passen... :):):):)


Mustis schrieb:
Grad bei Mittelklassekarten ist es eh unerheblich, weil diese dann Leistungstechnisch nicht mehr nach kommen in aktuellen Titeln.
Was ist denn dann mit der alten 7970... Du kannst/konntest sie bedeutend länger benutzen als die nvidia Karten...
Jetzt ist AMD erstmals ne Zeitlang ohne High-End gefahren und schon wird "hart" darauf rumgeritten...
Früher war es doch auch schon so das AMD zwar besser war (weniger Verbrauch, Lautstärke etc.) und trotzdem Nvidia gekauft wurde...
Also ist diese Diskussion doch auch Witzlos...
 
  • Gefällt mir
Reaktionen: Thraker, Smartcom5, Efaniel und eine weitere Person
@Zotac2012

Ob es AMD oder Nvidia juckt geht es doch gar nicht.
Man sieht ja dass es Nvidia seit über 1 Jahr nicht juckt daran was zu ändern. Mir persönlich geht es um die Überschrift vom Test, der so gar nicht zu den Ergebnissen passt.
Hier hat man versucht um den heißen Brei herum zu schreiben, was ich schade finde.
 
Ko3nich schrieb:
Die Überschrift hätte natürlich auch lauten können:
"HDR - nVidia verliert viel, AMD ein bisschen"

Warum nicht?

Möglicherweise ein Grund:
https://heise.cloudimg.io/width/401...2/4/5/0/4/2/7/Nvidia_NDA-6b8840b7d8e1a040.png
https://www.computerbase.de/2018-06/stellungnahme-nvidia-nda/

Ich finde es auch etwas "verhohlen" hier im Titel darauf zu verweisen dass BEIDE "verlieren"...obwohl eigentlich nur nVidia hier DEUTLICH Performance liegen läßt.

Ein "neutraler" Titel der die Ergebnisse besser widerspiegelt ist das nicht !

Ich denke Nvidia wird einen Treiberfix nachreichen sobald das Public wird.

Nein werden sie nicht. nVidia weiss das mindestens seit dem Gamestar-Test: (Danke @pilzsammler2002)
https://www.gamestar.de/artikel/was-ist-high-dynamic-range-hdr-auf-dem-pc-ausprobiert,3271227.html
Datiert auf den 8.12.2016
Das Ergebnis damals war quasi identisch zu hier:
AMD -1 bis -2%
nVidia -10% und mehr.

In 2 Jahren und nun deutlich mehr testbaren Games hat sich im Mittel genau gar nichts verändert.
=> Vergesst "magic driver fixes". Die Arch bringt das einfach nicht.

Schaut euch auch mal genau die Bilder an aus dem Gamestar artikel:
https://5images.cgames.de/images/ga...sion-1-amd-rgb-8-bit-voll-hdr-aus_2780584.jpg
https://4images.cgames.de/images/ga...nsion-2-nv-rgb-8-bit-voll-hdr-aus_2780583.jpg
https://8images.cgames.de/images/ga...nsion-3-amd-rgb-8-bit-voll-hdr-an_2780727.jpg
https://3images.cgames.de/images/ga...ansion-4-nv-rgb-8-bit-voll-hdr-an_2780582.jpg
https://2images.cgames.de/images/ga...mansion-5-amd-422-8-bit-hdr-anjpg_2780581.jpg
https://1images.cgames.de/images/gamestar/204/hdr-yakuza-mansion-6-nv-422-8-bit-hdr-an_2780580.jpg

Nvidias Bildausgabe speziell mit vollem HDR weicht z.T. schon deutlich ab.
Von der fehlende Arm-Textur bei non-HDR sogar noch ganz zu schweigen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thraker, Averomoe, LukS und 8 andere
StefVR schrieb:
Irgendwie traurig das windows und spiele sowie die monitore bzgl hdr jetzt erst langsam aufwachen. Dolby Vision Material auf meinem lg oled sieht sowas von super aus...

Stimmt, aber die maximale Helligkeit fehlt dir leider. Und du kannst Dolby Vision nicht von außen Zuspielen sondern einzig und allein über integrierte Apps etc. bereitstellen.

Die aktuellen Kabel und Anschlüsse können kein dynamisches HDR übertragen.

Die OLED tv bekommen auch nur die Dolby Vision Zertifikate weil sie einen perfekten schwarzwert haben und damit wird sich der Kontrast solange schöngerechnet bis es passt.

In einer hellen Szene sagen wir einen Sonnenaufgang in der Wüste erfüllt kein OLED die Anforderungen von Dolby Vision.

Aber ja das beste bild(da auch viele Filme dunkel gehalten sind) aktuell bietet für mich auch ein OLED, Ggfs. Ein Sony Panel mit local dimming und 1000nits sollte im HDR Bereich aber sogar besser aussehen. Hab ich aber noch nicht sehen dürfen
 
  • Gefällt mir
Reaktionen: Lübke82
pilzsammler2002 schrieb:
Nvidia released BFGD... Klar ist HDR da nicht wichtig...
Vielleicht wollen sie dann mit next-gen einfach HDR 100% "Support" einbauen. Dann können alle beruhigt nen BFGD und ne neue Nvidia kaufen. Würde sehr gut zu den bisherigen Praktiken passen... :):):):)
Weiß ich nicht, ob es zu den Praktiken passt, aber wenn betrifft es beide Hersteller und nicht nur Nvidia, denn AMD verliert auch Leistung, wenn es auch etwas weniger ist als bei Nvidia!

Aber der Test ist dennoch nicht zu gebrauchen, denn wie ich es richtig weiß, gibt es doch verschiedene Standards von HDR, die Monitore anbieten, wie sieht es denn da aus? Ist der Leitungsverlust überall gleich, oder ist der Leistungsverlust bei einem niedrigerem Standard auch bei beiden Herstellern niedriger, das wurde ja leider nicht getestet! :heul:

rico007 schrieb:
@Zotac2012
Ob es AMD oder Nvidia juckt geht es doch gar nicht.
Man sieht ja dass es Nvidia seit über 1 Jahr nicht juckt daran was zu ändern. Mir persönlich geht es um die Überschrift vom Test, der so gar nicht zu den Ergebnissen passt.
Hier hat man versucht um den heißen Brei herum zu schreiben, was ich schade finde.
Nochmal, warum wird hier jetzt auf Nvidia draufgehauen, wenn auch AMD Leistung verliert, dass zeigt doch nur, bei beiden Herstellern spielt HDR noch eine untergeordnete Rolle.

Natürlich juckt beide Hersteller HDR noch nicht wirklich, es gibt einfach zu wenige Monitore mir diesem Feature und zu wenig User, die das Feature verwenden. Man hat es jetzt getestet und das Feature [oh Wunder!] verbraucht Leistung und dann auch noch mehr, als Nvidia und AMD zunächst mitgeteilt haben [oh dass ist aber nicht schön! :evillol:].

Man hat es jetzt gelesen und notiert, mehr aber auch nicht, interessant wird das Thema aber erst in Zukunft, wenn Monitore auch im bezahlbaren Bereich für alle ein solches Feature anbieten! Warum sollte man sich da jetzt aufregen!
 
Zuletzt bearbeitet:
[Laut AMD und Nvidia sollten Spiele im HDR-Modus eigentlich nicht langsamer laufen als mit SDR. Denn intern rechnen Grafikkarten bereits seit langem mit einer höheren Präzision, als für die reine Bildausgabe benötigt wird. Damit sollte HDR in der Theorie eigentlich keinen Mehraufwand für eine moderne GPU darstellen.

Der Unterschied ist, dass die höhere Genauigkeit im Framebuffer gespeichert, und bei der Übertragung zum Monitor aus ihm gelesen werden muss.

Es könnte also sein, dass hier AMD den HBM2-Trumpf ausspielen kann, und beim Gamestar-Vergleich den 256Bit-Bus (GTX1060: 192 Bit).
 
Zotac2012 schrieb:
Nochmal, warum wird hier jetzt auf Nvidia draufgehauen, wenn auch AMD Leistung verliert, dass zeigt doch nur, bei beiden Herstellern spielt HDR noch eine untergeordnete Rolle.
Vielleicht weil die eine Firma HDR "promotet" und bis zu 20+% nicht gerade wenig ist...
Deine Argumentation AMD verliert ja auch ist genauso wie die von Intel als es um Spectre/Meltdown geht... Kurios :)
 
  • Gefällt mir
Reaktionen: Smartcom5, Thraker, nille02 und eine weitere Person
Schöner Test, allerdings wird mich dieser nicht dazu verleiten mein Equipment panikartig rauszuwerfen und mir den G-Sync Asus PG27UQ nebst einer Vega 64 zu kaufen.
Denn eins zeigt der Test ebenso - auch wenn Vega64 besser mit HDR umgehen kann als die 1080, flüssiges 4K Gaming um die 60 FPS kann sie immer noch nicht.
Aber vielleicht muss der Wein ja einfach nur noch etwas mehr reifen, mir schmeckt er immer noch etwas verkorkt.
Ich befürchte nur dass das bis zum Nachfolger von Turing dauern wird.
 
pilzsammler2002 schrieb:
Vielleicht weil die eine Firma HDR "promotet" und bis zu 20+% nicht gerade wenig ist...
Deine Argumentation AMD verliert ja auch ist genauso wie die von Intel als es um Spectre/Meltdown geht... Kurios :)
Ach bis zu 10% Verlustleistung ist OK bei AMD und die Werben [Promoten] ja nicht mit HDR, sondern bieten das Feature nur Zufällig an? :evillol:
Also Kurios ist Deine Argumentation und zeigt nur, welchem Lager man angehört!
 
Nochmal, warum wird hier jetzt auf Nvidia draufgehauen, wenn auch AMD Leistung verliert, dass zeigt doch nur, bei beiden Herstellern spielt HDR noch eine untergeordnete Rolle.

1% bei AMD (wenn wir mal Destiny 2) ausklammern würde ich fast schon als Messtoleranz nehmen.
11% bei nVidia ist hingegen ein im Mittel deutlicher Verlust....bei 10% Rückstand in den mittleren FPS wurde sonst z.B. immer die 1060 vor einer RX580 "empfohlen" obwohl weniger VRAM und meist auch leicht teurer.

Die 10% holt eine RX580 aber wie man sieht z.B. "leicht" wieder rein wenn man HDR nutzt.

Insofern sind also die 10% schon ein deutlicher Verlust an Leistung. Dass es sich um keine Ausreißer handelt zeigt ja der Test in allen bis 2 Spiele ist der Verlust ca 10% oder etwas darüber. Nur in ME:Andromeda ist er 0% und in FC5 ist er gering.

AMD hat nur in Destiny 2 wirklich einen Ausreisser drin mit noch nicht einmal 10% Verlust (es seind gerundet 9% und zwar in den Frametimes genauso wie in den AVG).
nVidia verliert dort aber sogar 23% (Frametimes) bis - 25% (Average) ! (und nicht "20%" wie der CB -Artikel ja auch noch schönredend darstellt.

CB aus dem Artikel schrieb:
Ganz anders die GeForce GTX 1080. Auch dort ist Destiny 2 am problematischsten. Hier beträgt der Geschwindigkeitsverlust auf der Nvidia-Grafikkarte hohe 20 Prozent.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, unspektakulaer, Excel und 5 andere
Zotac2012 schrieb:
Ach bis zu 10% Verlustleistung ist OK bei AMD und die werben ja nicht mit HDR, sondern bieten das Feature nur Zufällig an? :evillol:
Also Kurios ist Deine Argumentation und zeigt nur, welchem Lager man angehört!
Wir wissen alle das du nicht nur hier Pro-Nvidia bist...


1. Sind es im Worstcase 9% gegen 25% (ich habe bewusst wie CB 20%+ geschrieben)
2. Natürlich bietet AMD auch HDR an, aber nicht im großen Stile mit Speziellen Monitoren so wie Nvidia und die BFGD
3. Ich bin eigentlich recht Neutral, nur kann man einige Aussagen der immer auffallenden "Influencer" (nicht auf diesen Thread bezogen) irgendwann nicht mehr Ignorieren...
 
  • Gefällt mir
Reaktionen: Thraker, Axzy, Kalsarikännit und 6 andere
Toni_himbeere schrieb:
Wer heutzutage einen guten HDR Bildschirm mit sagen wir 1000nits in der Spitze besitzt, der nutzt doch seine Grafikkarte auch nicht länger als 1-2Jahre

Gegen was soll man seine 1-2 Jahre alte 1080 denn tauschen?
 
Manchmal muss ich bei diesen Konkurrenzkampf immer an das denken

 
pilzsammler2002 schrieb:
Wir wissen alle das du nicht nur hier Pro-Nvidia bist...
Echt jetzt? Und es wissen bestimmt auch alle, das Du auschließlich nur Pro AMD bist! Ändert aber nichts an der Wahrheit, wenn Du es auch nicht wahrhaben willst, das beide Hersteller an Leistung verlieren und schaut man sich die Games an, liegt es wohl nicht nur an den Herstellern, sondern auch an den Games und der Programmierung.

Aber egal, Nvidia böse, weil zuviel Leistungsverlust bei einem so wichtigen Feature derzeit, wie HDR. Also schnell die Grafikkarte verkaufen und AMD holen, die Frage ist nur, wer zahlt den Monitor mit HDR?
 
Zurück
Oben