Test Schöner Spielen mit HDR: Benchmarks zeigen geringere Leistung auf AMD und Nvidia

@Iscaran
Das dürfte auch mit der Bandbreite der Bildschirm Anschlüsse zu tuen haben. Mehr bekommt man einfach nicht über den Zwirn.
Gehe ich nach den Angaben von Geizhals dann muss man für die 144 Hz den Display Anschluss bereits übertakten.
Bildwiederholfrequenz: 120Hz (144Hz OC)
Den Bildschirm kann man trotzt DisplayPort 1.4 also nur ausfahren wenn man gegen bestehende Standards verstößt.
 
Aber wenn ich eine Summe von 2500,00 her nehme und eine von 500,00 Euro, dann hinkt der Monitor hier im Link doch weit hinterher!

Nicht wenn er das "gleiche" kann - oder eben zumindest das geforderte.

G-Sync ist unnötig teuer weil nVidia sich das bezahlen lässt. F-Sync ist in der Regel bei gleicher Technik deshalb billiger. Fakt ist aber auch das man bei F-Sync ein wenig besser aufpassen muss da die F-Sync Umsetzungen eben manchmal nicht ganz ran kommen an die G-Sync varianten. Speziell bei den ganz billigen Versionen.

Trotzdem gefordert war HDR Display...und selbst das für 2500€ von Asus ist kein natives HDR sondern nur ein 8bit +FRC "Flimmer"kasten.

Dann lieber natives HDR und nur 60Hz für 500€.
Ergänzung ()

@Wadenbeisser: Ja sicherlich ist hier die Anschlussbandbreite der limitierende Grund für 10bit

Für echtes 4k-UHD braucht man mind. 35.83 Gbps: https://k.kramerav.com/support/bwcalculator.asp

Selbst DP1.4 schafft nur 25.92 Gbps an datenrate ohne zusätzliche Kompressionsverfahren wie z.B. DSC !
https://en.wikipedia.org/wiki/DisplayPort
HDMI ist hier eher noch schlechter aufgestellt (nur HDMI 2.1 ist noch besser aktuell - seit Nov. 2017 aber erst spezifiziert). Also kein Wunder dass es entsprechende Monitore aktuell bis 144 Hz nicht gibt. Bis 60Hz ist aber HDR kein Hexenwerk.
 
Zuletzt bearbeitet:
@Iscaran
Klar kostet GSync mehr, das Modul kostet ja schon zwischen 150,00 bis 200,00 Euro und wenn ich es richtig gelesen habe, ist das Modul in diesem 2500,00 Euro Asus Monitor sogar noch teurer. Wobei ich mich schon gefragt habe, ob dieser Lüfter eigentlich hauptsächlich nur wegen dem speziellen GSync Modul in diesem Asus Monitor verbaut wurde. Ist gibt ja auch eine Menge anderer UHD Monitore auch wenn nicht mit 144 Hz, die keinen Lüfter brauchen.

Allerdings glaube ich auch nicht, das Nvidia auf die nähere Zukunft auf GSync verzichten wird, zumindest deutet bis heute nichts darauf hin.
 
@Zotac2012: und was ist daran gut für mich als Kunde das das Modul extra Geld kostet ?
Und was ist daran gut dass nVidia den Adaptive Sync Standard ohne ihre eigene proprietäre Lösung nicht unterstützen und auch nicht in der Zukunft unterstützen wollen ?

Eines ist für mich klar - ich kaufe mir lieber einen F-Sync Monitor und Upgrade vom gesparten Geld auf eine AMD GPU die schneller ist als meine aktuelle.
 
  • Gefällt mir
Reaktionen: unspektakulaer
So ein HDR G Mist Modul kostet mit 1080p 200€ nur dass Modul, bei 4K bist du bei 400€-500€ also wie sollte es da ein billigen Monitor mit G-HDR geben.

So rein auf HDR + F/G Sync bezogen ist AMD extrem billiger genauso wie die Xbox One X + HDR TV.

Ich habe keinen Bock mehr auf F-Sync zu verzichten witziger weise auf dem Notebook geht's ja vielleicht, kommt wirklich mal Intel mit Gaming GPUs um die Ecke, mich würde es freuen.
 
@Zotac2012
Die Display Controller der anderen Monitore sind weder kostenlos, noch umsonst.
Dem Geforce User kann es doch herzlich egal sein ob nvidia auf G-Sync verzichtet oder nicht, hauptsache sie unterstützen endlich mal den VESA Standard Adaptive Sync, womit auch die FreeSync Monitore uneingeschränkt nutzbar wären aber genau deshalb werden sie das nicht freiwillig machen. Sie verdienen an den G-Sync Thema schließlich kräftig mit und das nicht nur durch die Grafikkarte.
 
  • Gefällt mir
Reaktionen: unspektakulaer
in 3DC maulte ein NV mitarbeiter es liege an der neusten windows version das deren karten so schlecht mit HDR abschneiden... komisch nur das in der gamestar(oder wars pcgh?) bereits 2016 genau das gleiche problem bestand, wärend AMD kaum verluste hatte musste NV bei der performance mit HDR massiv federn lassen.... aber sind immer alle anderen schuld... NV style halt :rolleyes::freak:
 
  • Gefällt mir
Reaktionen: unspektakulaer und Smartcom5
Zotac2012 schrieb:
Lesen und dann verstehen, ich bezog mich hier auf diese Aussage von Ihm:
Genau wie ich.
Zotac2012 schrieb:
Bei dem 2500,00 Euro Monitor handelt es sich um einen Asus UHD 144 Hz IPS Monitor, bei AMD zahlt er 500,00 Euro, da steht nichts von einem 1080p Monitor und nichts von einem 1440p Monitor.
Genausowenig wie dort etwas von einem 4K Monitor steht. Es geht einzig und allein um einen HDR Monitor mit GSync/Freesync und sonst nix.

Zotac2012 schrieb:
Und wenn man keine vernünftigen Argumente hat, dann kommen immer diese Sinnlosen Autovergleiche!
Dieser Autovergleich ist nicht sinnlos sondern beschreibt exakt das Problem, und zwar dass man bei Nvidia eben HDR nur mit den ganzen anderen Features zusammen bekommt, die man nicht unbedingt braucht.
Noch dazu wie oben schon erläutert wurde, wenn das HDR dieses teuren Monitors auch noch schlechter ist als das der sehr viel günstigeren Konkurrenz.
 
  • Gefällt mir
Reaktionen: unspektakulaer
Die 2500€ legen doch die 4k fest oder welche monitore kosten aktuell 2500€? Das sind nur der eine asus und der acer und das sind 4k monitore. Hdr monis mit gsync gibt es für massiv viel weniger als 2500€

Was diskutiert hier also rum, 4k sei nicht gemeint gewesen? Natürlich war es das. Wenn es nur um hdr geht, stimmen die 2500€ nichts im ansatz.
 
Um mal konkret zu werden:
F-Sync, UHD, 60Hz:
https://www.computerbase.de/preisve...02u0-b01170-a1541663.html?v=l&hloc=at&hloc=de
590€ + AMD GPU für 300€ =

G-Sync, UHD, 60 Hz:
https://www.computerbase.de/preisve...992_NVIDIA+G-Sync~12066_gerade~13263_19201080

300€ bekommt man mittlerweile wieder 8GB RX580 für...und die ist dann IN HDR auch offensichtlich mindestens so schnell wie eine alternative GTX 1060 aus dem Preisrange. Die ich aber sogar noch EXTRA berappen müsste mit dem G-Sync panel.
https://www.computerbase.de/preisve...300&v=l&hloc=de&plz=&dist=&sort=p#productlist
 
  • Gefällt mir
Reaktionen: unspektakulaer
Mustis schrieb:
Die 2500€ legen doch die 4k fest oder welche monitore kosten aktuell 2500€? Das sind nur der eine asus und der acer und das sind 4k monitore. Hdr monis mit gsync gibt es für massiv viel weniger als 2500€
Ich würde sagen HDR und GSync legt die 2500€ fest, denn normale 60Hz 4K Monitore sind bereits bei unter 300€ angekommen.

Und wo findest du denn HDR Monitore mit Gsync? Eine kurze Suche brachte diesen Artikel
https://www.engadget.com/2018/05/21/acer-predator-x27-g-sync-hdr-monitor/

Das ist gerade mal 2 Monate alt und dort wird vom "ersten" Gsync HDR Monitor gesprochen und wir sind dort schon bei 2000$
 
Weder die 580 noch die 1060 könnten 4k versorgen. Hier zählt dann nicht mal mehr der einsatz der regler.

Gsync und HDR sind halt derzeit auf 4k Monis begrenzt. Ist ahlt so. Deswegen ist 4k ja auch festgelegt...

Ja es gibt Freesync HDR Monitore für 500€ Die sind aber in keinsterweise mit den Dingern für 2500€ vergleichbar. Punkt. Ebenso ist fast jeder der Meinung, dass die Dinger trotz 4k etc. überteuert sind. Halt Early Adopterpreise.

Der Vergleich, das die Monis für Amd nur 500€ und die für Nvidia 2500€ kosten ist aber dennoch Schwachsinn, weil hier Highend 4k HDR 1000 Monitore mit Einsteiger WQHD HDR 400 Monitore verglichen werden.
 
Zuletzt bearbeitet von einem Moderator:
Iscaran schrieb:
Um mal konkret zu werden:
F-Sync, UHD, 60Hz:
https://www.computerbase.de/preisve...02u0-b01170-a1541663.html?v=l&hloc=at&hloc=de
590€ + AMD GPU für 300€ =

G-Sync, UHD, 60 Hz:
https://www.computerbase.de/preisvergleich/?cat=monlcd19wide&v=l&hloc=at&hloc=de&sort=t&xf=11939_23~11940_27~11951_176~11952_176~11959_10bit+(1.07+Mrd.+Farben)~11992_NVIDIA+G-Sync~12066_gerade~13263_19201080

300€ bekommt man mittlerweile wieder 8GB RX580 für...und die ist dann IN HDR auch offensichtlich mindestens so schnell wie eine alternative GTX 1060 aus dem Preisrange. Die ich aber sogar noch EXTRA berappen müsste mit dem G-Sync panel.
https://www.computerbase.de/preisvergleich/?cat=gra16_512&xf=132_6144~9808_11704+-+RX+580+(XTX)&asuch=&bpmin=&bpmax=300&v=l&hloc=de&plz=&dist=&sort=p#productlist
Wenn es immer so einfach wäre alles Gegenzurechnen, die Rechnung geht hier schon nicht auf, weil wenn ich einen UHD Monitor kaufen würde, ich sicherlich nicht mit einer RX 580 in UHD spielen wollte. Wer sich einen UHD Monitor kauft und auch in UHD spielen will, ob mit oder ohne HDR, das lassen wir jetzt mal außen vor, der braucht auch schon den entsprechenden Pixelschubser in Form einer GTX 1080Ti oder Vega64!
 
@Zotac2012 Dann rechne es eben so, dass du für deine 1080Ti 750€ zusätzlich zum Monitor bezahlen musst, während du für die Vega64 theoretisch nur noch 250€ bezahlen musst, da du die restlichen 300€ beim Monitor gespart hast. Vorausgesetzt in beiden Fällen ist das Budget für den Monitor das gleiche.
 
Zum Thema verschiedene Monitore testen würde ich gerne mal fragen wie überhaupt die Berechnung /Übertragung stattfindet? ich hätte jetzt vermutet wenn man HDR auswählt, dann berechnet die Grafikkarte HDR und was der Monitor macht, ist damit Sache des selbigen - also unabhängig von echten 10 Bit, 8Bit+FRC oder (eben 6+FRC bei SDR). Ich stelle mir das ein wenig wie bei HD-ready vor. Der Monitor kann erstmal mit dem Signal umgehen und was dargestellt wird ist ein ganz anderes Problem.

Entsprechend wäre es doch auch relativ egal oder der Monitor jetzt HDR 10, 400/600/1000, Dolby Vision oder sonstwas darstellt, da der Rechenaufwand für die Grafikkarte gleich bleibt. Ich bin mir dahingehend nicht einmal sicher ob Chroma Subsampling auf 4:2:2 (wie bei den neuen teuren UHD HDR Monitoren) einen Unterschied in der Berechnung macht da vermutlich die Signale in voller genauigkeit berechnet und dann für die Übertragung komprimiert werden. AFAIK ist die 4:2:2 weniger ein Panel- als mehr ein Bandbreitenproblem aufgrund der Übertragungsstandards.

Im Übrigen finde ich den Test in UHD zielführend, da dieser ja im GPU Limit läuft. wenn unter 1080 ein CPU Limit vorliegen würde, würde die FPS sicher nicht weiter einbrechen sondern nur die Auslastung ansteigen. Daher ein Testvorschlag: 720p und die Auslastung der Grafikkarte anschauen. Steigt diese unter HDR an dann wäre entsprechend ein Einbruch der FPS unter Volllast zu erklären. Das wiederrum könnte dann darauf deuten, dass AMD und Nvidia unterschiedliche Genauigkeiten unter SDR benutzen oder zumindest unterschiedliche dedizierte Hardware ressourcen verwenden.

PS: Wenn noch jemand hier auf die Idee kommt zu sagen "1% ist aber auch Verlust" packe ich die große Statistikkeule aus und vergleiche ob es innerhalb der Tests Gruppenunterschiede gab und wenn ja, welche Gruppen sich signifikant unterscheiden. Bei diesen großen Aussagen die hier jedes mal projeziert werden, ist eigentlich eine rudimentäre Statistik seitens CB Pflicht.
 
  • Gefällt mir
Reaktionen: Smartcom5, Iscaran und Dittsche
Ironisch ist auch mega Stromsparende NV Karten kaufen und dann einen Monitor der 180-200 verbrät läuft bei NV.

Auch Lüfter im Monitor nicht mit mir die haben doch ein laufen.
 
  • Gefällt mir
Reaktionen: Ginmarr
1. Danke @pilzsammler2002 !

2.
Weder die 580 noch die 1060 könnten 4k versorgen. Hier zählt dann nicht mal mehr der einsatz der regler.

So pauschaul ist die Aussage leider einfach nur falsch.

Nur mal so als "Gedankenspiel"

Vega 64 = 60% schneller als RX580
https://www.computerbase.de/artikel...487/#diagramm-performancerating-fps-1920-1080

Vega 64 in UHD in BF 1 mit MAX DETAILS hat 54 FPS (siehe hier im Test)
=> Polaris mit MAX DETAILS in BF1 ca 33 FPS

Mit Mittel Details sähe das sicherlich nicht so viel schlechter aus dafür aber mit HDR....
Mittel relativ zu MAX details sind ca genau die benötigten 60% Leistungsdifferenz.
Siehe: https://www.computerbase.de/artikel/grafikkarten/battlefield-1-benchmark.57047/seite-2

Du bist dran...deine pauschale Aussage gilt also schonmal nur eingeschränkt und das für einen absoluten Blockbuster wie BF1...ein RPG das mit 30 FPS klarkommt ist nochmals deutlich interessanter für HDR und läuft dann vermutlich erst Recht ganz OK auf einer RX580.

Man könnte natürlich auch ein FullHD moni nehmen - aber ich wollte beim UHD beispiel bleiben. Bei "nur FullHD" ist die "ersparnis" von F-Sync gegenüber G-Sync auch nicht mehr ganz so groß - so dass man dann zumindest noch Geld drauflegen müsste um sich auch die GPU noch leisten zu können. Aber man würde immer noch deutlich sparen gegenüber eine nVidia-Kombo.
 
Zurück
Oben