Test Schöner Spielen mit HDR: Benchmarks zeigen geringere Leistung auf AMD und Nvidia

Wadenbeisser schrieb:
Du wolltest doch keine UHD Ausflösung, warum bestehst du auf einmal darauf?
Deswegen:
Genau ein NV HDR Monitor kostet zum gluck ja nur 2500€ klar läuft bei AMD zahle ich 500€ mh was nehme ich dann wohl.

Wadenbeisser schrieb:
Hat bei der Konkurrenz doch auch nicht interessiert. Woher der Sinneswandel?
Wenn das die Konkurrenz nicht interessiert, ist das doch deren Sache. Ich als Besitzer ein Nvidia Grafikkarte, mich würde das schon interessieren, da braucht es keinen Sinneswandel!

Wadenbeisser schrieb:
Es geht wohl eher darum das es bei nvidia schon Tradition hat das man trotz des vergleichbaren oder höheren Preises der Produkte erst was neues kaufen muss um ohne größere Einbrüche etwas neues nutzen zu können. Bei der Konkurrenz bekommt man das eher als Bonus oben drauf. Also sparen auf kosten des Users und der User klatscht Beifall.
Seltsame Argumentation, muss man nicht verstehen!

MaLow17 schrieb:
Doch. Du suggerierst doch schon, dass es andere Fehlerquellen beim Testen hätte geben können.
Ich suggeriere gar nichts, sondern habe eine Feststellung gemacht! Natürlich können auch andere Fehlerquellen zu solchen Leistungseinbußen führen nur wurde hier nicht ausführlich getestet, das muss nicht Zwangsläufig an der Hardware liegen. Aber ich habe nicht behauptet, das beim Testen ein Fehler gemacht wurde, sondern einfach nicht genug in die Tiefe/Breite getestet wurde unter verschiedenen Szenarien, das ist etwas ganz anderes!
 
Zotac2012 schrieb:
Aber ich habe nicht behauptet, das beim Testen ein Fehler gemacht wurde, sondern einfach nicht genug in die Tiefe/Breite getestet wurde unter verschiedenen Szenarien, das ist etwas ganz anderes!
Wie gesagt, 3dcenter und Gamestar... Das Ergebniss ist das gleiche. Ausser das auch Andromeda bei Nvidia mehr verliert wenn man es (wahrscheinlich) ohne Auto-skaling testet...

Dieses Verhalten ist reproduzierbar (auch unter Maxwell oder mit anderen Pascal Karten) und wurde seit 2016 nicht gepatcht... Wie dx12 async für Maxwell...
 
  • Gefällt mir
Reaktionen: unspektakulaer
@Zotac2012
War klar das der Beifall klatschende User das nicht versteht. :D

Zudem war im von dir zitierten Abschnitt recht eindeutig erkennbar das sich die Aussage mit dem Sinneswandel auf dich bezieht. Warst du nicht einer der ersten die mit dem Finger auf die Konkurrenz zeigen sobald sich ein Problem auch nur andeutet?

Zudem schrieb Mcr-King nur von dem Preis eines HDR Monitors, du musstest also den Rest dazu erfinden um den Preis zu rechtfertigen. Wie gesagt, für die Vergleichbarkeit wäre das OK aber wer auf den Rest keinen Wert legt für den ist es herzlich egal das der Bildschirm so viel kostet weil das und das noch mit drin ist. Was bleibt wäre dann nur der 5 fache Preis.

Du denkst und argumentierts aus der Sichtweise des Herstellers... ;)
 
  • Gefällt mir
Reaktionen: Thraker und Mcr-King
Auch bei Pascal da ist es nur deaktiviert weil es der selbe Chip ist genau wie Turing alles Maxxwell.
 
Wadenbeisser schrieb:
für die Vergleichbarkeit wäre das OK aber wer auf den Rest keinen Wert legt für den ist es herzlich egal das der Bildschirm so viel kostet weil das und das noch mit drin ist. Was bleibt wäre dann nur der 5 fache Preis.
Das ist das gleiche wie bei den Fernsehern, wie gerne würde ich mir einen 1080p HDR TV holen, da ich bei meinem Sitzabstand von 4K sowieso nicht so viel merken würde, es sei denn ich gehe auf 75 Zoll.
Aber nein, um HDR zu bekommen, wird man gezwungen 4K mitzunehmen, was das ganze wieder teurer macht obwohl man es nicht braucht.
 
@Taxxor
Das sehe ich aber zumindest den tieferen Sinn das es nur bei UHD Filmen HDR gibt, zumindest bei den Datenträgern. Ich habe allerdings keine Ahnung wie das bei den Streaming Diensten ausschaut.
 
Mcr-King schrieb:
Auch bei Pascal da ist es nur deaktiviert weil es der selbe Chip ist genau wie Turing alles Maxxwell.

Auf die Quelle bin ich mal gespannt.

Interessanter Test, auch wenn ich mir einen Bildvergleich gewünscht hätte, sowohl zwischen HDR an/aus als auch zwischen AMD und Nvidia.
Weil sollte es in keinen Spielen eine Auffälligkeit bzgl. Bildqualität geben, frag ich mich schon, warum die 1080 dann bei anderen Spielen mehr einbricht.
 
@Wadenbeisser Also bei Netflix scheint HDR auch mit 4K verknüpft zu sein, blieben nur noch die Spiele, dort wird es auch ohne 4K gehen
 
Wadenbeisser schrieb:
Zudem war im von dir zitierten Abschnitt recht eindeutig erkennbar das sich die Aussage mit dem Sinneswandel auf dich bezieht. Warst du nicht einer der ersten die mit dem Finger auf die Konkurrenz zeigen sobald sich ein Problem auch nur andeutet?
Keine Ahnung wo Du das her hast, ich hatte selber schon eine AMD Grafikkarte wie auch eine AMD CPU in meinem Rechner. In der Regel interessiert mich in erster Linie die Hardware, die in meinem System werkelt und nicht welche Probleme die Konkurrenz hat!

Wadenbeisser schrieb:
Zudem schrieb Mcr-King nur von dem Preis eines HDR Monitors, du musstest also den Rest dazu erfinden um den Preis zu rechtfertigen. Wie gesagt, für die Vergleichbarkeit wäre das OK aber wer auf den Rest keinen Wert legt für den ist es herzlich egal das der Bildschirm so viel kostet weil das und das noch mit drin ist. Was bleibt wäre dann nur der 5 fache Preis.


Das was User Mcr King schrieb war das hier:
Genau ein NV HDR Monitor kostet zum gluck ja nur 2500€ klar läuft bei AMD zahle ich 500€ mh was nehme ich dann wohl.
Da muss ich doch nichts dazu erfinden, wenn man das liest, bedeutet das nichts anderes, als das ich das gleiche Produkt bei AMD für 500,00 Euro bekomme und das ist eben nicht der Fall!

Wadenbeisser schrieb:
Du denkst und argumentierts aus der Sichtweise des Herstellers... ;)
Das ist Blödsinn, Sorry! Ich argumentiere und sehe das aus der Sicht eines Besitzers einer Nvidia Grafikkarte. War klar das der Beifall klatschende User das nicht versteht. :D
 
Taxxor schrieb:
@Wadenbeisser Also bei Netflix scheint HDR auch mit 4K verknüpft zu sein, blieben nur noch die Spiele, dort wird es auch ohne 4K gehen

Amazon erlaubt 1080p HDR. Dazu muss man aber den 4k Stream auswählen, aber nicht genügend Bandbreite für 4k haben:daumen:
 
Zotac2012 schrieb:
Da muss ich doch nichts dazu erfinden, wenn man das liest, bedeutet das nichts anderes, als das ich das gleiche Produkt bei AMD für 500,00 Euro bekomme und das ist eben nicht der Fall!
Natürlich hast du das 4K dazu erfunden, seine Aussage war lediglich "HDR Monitor" und sonst nichts.
Du hast dann daraus nicht nur "4K HDR Monitor" gemacht, sondern direkt noch "4K 144Hz IPS HDR Monitor"

Autovergleich:
Hersteller A hat als günstigstes Auto mit Matrix LED Scheinwerfern ein Auto mit 300PS, Allrad und adaptivem Fahrwerk für 70.000€
Hersteller B bietet ein Auto mit Matrix LED, 150PS, Frontantrieb und normalem Fahrwerk für 25.000€

Wenn ich jetzt einfach ein Auto mit Matrix LED Scheinwerfern möchte, dann ist Hersteller B meine Wahl, weil mich die zusätzlichen Sachen die Hersteller A bietet nicht interessieren.

Zotac2012 schrieb:
Das ist Blödsinn, Sorry! Ich argumentiere und sehe das aus der Sicht eines Besitzers einer Nvidia Grafikkarte.
Der dann als Besitzer einer 1060 einen 4K 144Hz Monitor kaufen soll, nur um HDR nutzen zu können?
Okay, bringt ihm zwar nichts, weil er mit der 1060 meist sowieso nur 1080p 60fps nutzen kann, vor allem mit dem Leistungsverlust durch HDR noch dazu, aber wenigstens ist der Hersteller seinen teuren Monitor losgeworden, weil der Nutzer einfach nur HDR haben wollte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran
Taxxor schrieb:
@Wadenbeisser Also bei Netflix scheint HDR auch mit 4K verknüpft zu sein, blieben nur noch die Spiele, dort wird es auch ohne 4K gehen
Oneplusfan schrieb:
Amazon erlaubt 1080p HDR. Dazu muss man aber den 4k Stream auswählen, aber nicht genügend Bandbreite für 4k haben:daumen:
Interessant, dann dürfte das wohl auch dem Video Angebot geschuldet sein. Wenn entsprechendes Material ohnehin nur im UHD Format angeboten wird wäre der Nutzen in geringeren Auflösungen eher gering. :)
Ergänzung ()

Zotac2012 schrieb:
Keine Ahnung wo Du das her hast, ich hatte selber schon eine AMD Grafikkarte wie auch eine AMD CPU in meinem Rechner. In der Regel interessiert mich in erster Linie die Hardware, die in meinem System werkelt und nicht welche Probleme die Konkurrenz hat!
Ich hatte auch schon beides und kenne deshalb die Vor- und Nachteile beider Anbieter.
Nvidia ist hier wie Apple. Solange man sich in deren geschlossener Welt aufhält ist alles Friede, Freude, Eierkuchen aber sobald man sich dort raus bewegt droßen Verlußte die einen wieder rein drücken sollen, gerade weil sie nur mit ihren Produkten nutzbar sind.
Bei den Radeons ist das eher wie die PC Welt. Offen für alle und nutzbar für jeden der will.

Das was User Mcr King schrieb war das hier:

Da muss ich doch nichts dazu erfinden, wenn man das liest, bedeutet das nichts anderes, als das ich das gleiche Produkt bei AMD für 500,00 Euro bekomme und das ist eben nicht der Fall!
Und wie jeder lesen kann hast du zumindest 144 Hz und IPS dazu gedichtet, UHD setze ich mal mit HDR gleich. ;)

Das ist Blödsinn, Sorry! Ich argumentiere und sehe das aus der Sicht eines Besitzers einer Nvidia Grafikkarte. War klar das der Beifall klatschende User das nicht versteht. :D
Das hier diverse Geforce User hier Beifall klatschen wenn sie für den gleichen Preis eine geringere Nutzungsdauer aufgrund des höheren Leistungseeinbruchs haben und letztendlich mehr zahlen weil sie eher nachkaufen müssen ist mir auch schon aufgefallen. ;)
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: unspektakulaer, s0UL1 und Suteki
Zotac2012 schrieb:
Kannst Du mir den UHD Monitor mit 144 Hz / IPS mit HDR für AMD zeigen, der 500,00 Euro kostet, Danke!

uhd nicht, aber wie wärs mit:

WQHD, 144hz, Freesync, VA, 32", HDR, ~500€

https://geizhals.de/lg-electronics-32gk650f-b-a1850785.html

https://geizhals.de/benq-ex3203r-9h-lgwla-tse-a1846236.html?hloc=at&hloc=de

https://geizhals.de/viewsonic-xg3240c-a1759365.html?hloc=at&hloc=de

32:9, 49"~1000€

https://geizhals.de/samsung-c49hg90-lc49hg90dmuxen-a1640134.html?hloc=at&hloc=de

zwar nicht auf dem level von dem nvidia monitor für 2600€, aber das kann sich erstens kaum einer leisten, und zweitens kann man 4k 144hz vorallem mit nvidia HDR nichtmal mit turing anständig befeuern.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Natürlich hast du das 4K dazu erfunden, seine Aussage war lediglich "HDR Monitor" und sonst nichts.
Du hast dann daraus nicht nur "4K HDR Monitor" gemacht, sondern direkt noch "4K 144Hz IPS HDR Monitor"
Lesen und dann verstehen, ich bezog mich hier auf diese Aussage von Ihm:
Genau ein NV HDR Monitor kostet zum gluck ja nur 2500€ klar läuft bei AMD zahle ich 500€ mh was nehme ich dann wohl.
Bei dem 2500,00 Euro Monitor handelt es sich um einen Asus UHD 144 Hz IPS Monitor, bei AMD zahlt er 500,00 Euro, da steht nichts von einem 1080p Monitor und nichts von einem 1440p Monitor. Ich beziehe mich nur auf das was er schreibt und wenn er Bezug zu dem 2500,00 Euro Monitor nimmt, dann antworte ich auch so darauf. Er hat nämlich nicht differenziert, deshalb habe ich Stellung dazu genommen. Wenn man aber immer alles aus dem Zusammenhan reißt, dann versteht man das nicht, deshalb auch immer lesen!

Taxxor schrieb:
Autovergleich:
Hersteller A hat als günstigstes Auto mit Matrix LED Scheinwerfern ein Auto mit 300PS, Allrad und adaptivem Fahrwerk für 70.000€
Hersteller B bietet ein Auto mit Matrix LED, 150PS, Frontantrieb und normalem Fahrwerk für 25.000€
Wenn ich jetzt einfach ein Auto mit Matrix LED Scheinwerfern möchte, dann ist Hersteller B meine Wahl, weil mich die zusätzlichen Sachen die Hersteller A bietet nicht interessieren.
Und wenn man keine vernünftigen Argumente hat, dann kommen immer diese Sinnlosen Autovergleiche!

Wadenbeisser schrieb:
I
Ich hatte auch schon beides und kenne deshalb die Vor- und Nachteile beider Anbieter.
Nvidia ist hier wie Apple. Solange man sich in deren geschlossener Welt aufhält ist alles Friede, Freude, Eierkuchen aber sobald man sich dort raus bewegt droßen Verlußte die einen wieder rein drücken sollen, gerade weil sie nur mit ihren Produkten nutzbar sind.
Bei den Radeons ist das eher wie die PC Welt. Offen für alle und nutzbar für jeden der will.
Naja, Deine rein subjektive und einseitige Sichtweise, ich sehe das etwas anderst. Als wenn alle Nvidia Grafikkartenbesitzer in einer eigenen Welt leben und nicht wissen, was in der realen Welt passiert, das könnte man aber auch genauso für AMD anwenden. Allerdings bringt das nichts, weil es nichts ändern würde!
 
Zuletzt bearbeitet:
Zotac2012 schrieb:
Kannst Du mir den UHD Monitor mit 144 Hz / IPS mit HDR für AMD zeigen, der 500,00 Euro kostet, Danke!

OK 528€ ?
https://www.computerbase.de/preisvergleich/samsung-c27hg70-lc27hg70qquxen-a1620984.html?v=l&hloc=de

Nichts, ich würde nur gerne einen Test lesen, der nicht kurz über die Oberfläche des Themas streift, sondern auch in die Tiefe geht, an dem CB Test lassen sich für mich keine Rückschlüsse auf die Hardware ziehen!

Der CB-Test könnte besser sein gebe ich dir Recht. In Kombination mit dem Gamestar test von vor fast 2 Jahren hingegen lässt sich hier schon einiges daraus schliessen.

Genau das meine ich, da sind noch viel zu viele Spekulationen im Raum, was denn genau die Ursache für die schlechtere Performance ist. Aber den Test hier von CB als Maßstab zu nehmen und zu sagen, es liegt an der Hardware, in dem Fall der Nvidia Grafikkarte, halte ich doch etwas zu verfrüht!

Klar liegts nicht an der Hardware. Muss der Treiber sein oder die Engines. Es sind ja nicht alle Games NICHT betroffen - nur einzelne scheinen "normal" zu funktionieren.
Ist bestimmt der Treiber ! /Ironie Off

Ich mein beim Gamestar test aus 2016 mit genau 1 Game. KÖNNTE man tatsächlich noch anderes vermuten. Aber hier bei CB mit 12 Games von denen faktisch >80% nahezu identisches Verhalten zeigen. Da KÖNNTE man schon eher auf allgemeine Hardware-Schwächen tippen. Klar ganz ausgeschlossen sind andere Ursachen damit nicht - zumal CB ja auch das ganze noch sehr Oberflächlich gestreift hat. Was man ja auch an der Kürze dieses Übersichtsartikels (2 Seiten) sieht. Ein handfestes Review mit Tests und Experimenten, verschiedenen Settings etc. ist das noch nicht das ist mal klar.
Aber vielleicht kommt da ja noch mehr - ich hoffe jedenfalls das man das ganze mal sehr viel detaillierter betrachtet.
 
Zotac2012 schrieb:
Naja, Deine rein subjektive und einseitige Sichtweise, ich sehe das etwas anderst. Als wenn alle Nvidia Grafikkartenbesitzer in einer eigenen Welt leben und nicht wissen, was in der realen Welt passiert, das könnte man aber auch genauso für AMD anwenden. Allerdings bringt das nichts, weil es nichts ändern würde!
Er bezieht sich dort ja nicht auf die Sichtweise... Eher Treiber etc. Und da ist Nvidia nunmal wie Apple...
Man muss jetzt auch nicht mit Argumenten kommen wie einige Gameworks teile sind offen... Das ist ja alte nicht mehr genutzte "Software".
Nvidia macht für alles ein geschlossenes System (Cuda, Gameworks, G-Sync) das ist also 1zu1 wie Apple...
 
  • Gefällt mir
Reaktionen: unspektakulaer
@Zotac2012
Ich habe ne einseitige Sichtweise weil ich die Karten beider Hersteller schon hatte und einen riesen Bogen um den propretiären Kram von nvidia machen um die mit bezahlten Funktionen nicht in den Wind schiessen zu müssen wenn ich mal zur Konkurrenz wechsel? Zudem sind "diverse Geforce User hier" deiner Meinung nach alle?
Das ist doch mal ein Wort oder auch zwei. ;)

PS:
Vielleicht wird es mal wieder Zeit meinen WoW Account zu reaktivieren, mal schauen was sich so verändert hat.
 
Ziemlich interessanter Test. Hätte mir nicht gedacht das es da so große unterschiede zwischen AMD und Nvidia gibt.
 
Btw. der 2500€ Asus ROG hat nur 8bit +FRC Farbraum....das ist kein "echtes" HDR.
https://www.computerbase.de/preisve...7uq-90lm03a0-b01370-a1571346.html?v=l&hloc=de

Mit vollem 10bit HDR gibt es aktuell weder einen FSync noch einen GSync monitor mit mehr als 60Hz.

Allerdings gibt es immerhin 12 FSync Monitor-Modelle ab 278€ (mit Ranges zw. 24-75Hz):
https://www.computerbase.de/preisvergleich/?cat=monlcd19wide&xf=11959_10bit+(1.07+Mrd.+Farben)~11992_Adaptive+Sync/AMD+FreeSync&asuch=&bpmin=&bpmax=&v=l&hloc=de&plz=&dist=&sort=p#productlist

Und nur 2 GSync Modelle ab 800€:
mit 24-60Hz bzw 30-60Hz:
https://www.computerbase.de/preisvergleich/?cat=monlcd19wide&xf=11959_10bit+(1.07+Mrd.+Farben)~11992_NVIDIA+G-Sync&asuch=&bpmin=&bpmax=&v=l&hloc=de&plz=&dist=&sort=p#productlist

Da ist also auch preislich schon eine Differenz feststellbar. Und nicht unbedingt zugunsten von G-Sync.
 
  • Gefällt mir
Reaktionen: unspektakulaer
@pilzsammler2002
Damit meinte ich Soft- und Hardware.
Auf der Seite der Hardware hätten wir G-Sync und letztendlich auch CUDA, auch wenn das eine Software Schnittstelle für ihre Hardware ist.
Bei der Software wäre der direkte und indirekte Einfluss bei den Programmen durch PhysX, Gameworks, einseitig optimierte Spiele und letztendlich auch das Monopol die Verbreitung der CUDA Software. Sie versuchen alles um sich von einen direkten Vergleich zur Konkurrens abzuschirmen und es dem Kunden so verlußtreich wie möglich zu machen zur Konkurrenz zu wechseln.

Apple nutzt letztendlich auch nur die gleiche Hardware wie im PC Bereich, deren Software ist aber dennoch dazu inkompatibel und wenn ich mich recht erinnere musste man selbst mit dem Einsatz von Windows per Boot Camp auf Funktionen der Hardware verzichten.
 
  • Gefällt mir
Reaktionen: unspektakulaer
Zurück
Oben