News G-Sync HDR: Neue Monitore vereinen HDR-Funktionalität mit G-Sync

BookerDeWitt schrieb:
@Laphonso:

Das es Lizenzkosten gibt ist bestätigt. Des weiteren muss man zu dem Aufpreis, den Hersteller für GSync verlangen noch die höheren Entwicklungskosten im Gegensatz zu normalen Monitoren mit hineinrechnen.

Das von dem GSync-Aufpreis noch recht viel beim Hersteller hängen bleibt kann wirklich angezweifelt werden. Vor allem bei der schlechten Qualitätskontrolle und der allgemein schlechten Qualität vieler Modellreihen mit GSync (Stichwort Panellotterie). Anscheinend wird nämlich bei dieser sehr gespart, wie auch Asus in schöneren Worten zugegeben hat. Die Tatsache, dass man bei den normalen High-End-Panels bessere Qualität bekommen hat als bei GSync-Exemplaren gibt etwas zu denken.

Die Aussage von Petersen steht aber im Raum, und ich kenne nicht einen Monitoranbieter, der das öffentlich widerlegt hat oder als falsche Aussage dargestellt hat. Mit anderen Worten, die Hersteller machen dort mit GSync zusätzlich ihre Marge.
Deine Zweifel sind also komplett substanzlos.
Im übrigen bestätigst Du die nvidia Aussagen, weil die Produktion der Geräte und damit die Asuwahl der Komponenten ja nicht in der Hand von nvidia ist. Als anectoal evidence habe ich meinen ASUS aus der 2014er Sommer/Herbstmarge und null Probleme und mein Bruder und sein Kumpel auch nicht.
Da grübele ich jetzt, was Deine eigentliche Aussage ist. G-Sync Monitore haben eine im Schnitt schlechtere Qualität?
Ergänzung ()

Dai6oro schrieb:
@Laphonso
Frag doch mal deine Freunde ob sie das cool gefunden hätten das gleiche Erlebnis für ein paar hundert Euro weniger zu haben.
Habe ich ihnen im übrigen vorgeschlagen ("man MUSS nicht nvidia kaufen!"), und dann kam DIE Frage: "Haben wir 1:1 dann das was Du hast in Sachen fps und smoothness und lag+ruckelfrei". Da sprachen wir noch gar nicht über den nativen Windowmode, den Freesync noch immer nicht beherrscht.
Zudem macht eine Recherche in den Foren ein bissel die Augen auf, den Probleme mit Freesync und microstutter etc gibt es nach wie vor, und dann geht die Suche los, ist es das Spiel, der Monitor oder der Treiber?
Diese Probleme hatte ich mit Gsync nie, nullikommanull.

Die Antwort darauf führt zum Thema zurück: Solange das G-Sync Feature stabiler und beständiger und umfangreicher ist, verkauft sich das und inbesondere als "premium feautre", und sei der Unterschied noch so marginal.
 
Zuletzt bearbeitet:
Laphonso schrieb:
Da grübele ich jetzt, was Deine eigentliche Aussage ist. G-Sync Monitore haben eine im Schnitt schlechtere Qualität?

Nein und ja. Die Panels haben eine schlechte Qualität gehabt, als reguläre Monitore. Wie es auch Asus bestätigt hat. Das lag in deren Falle auch an geringerer Qualitätskontrolle (und das bei einem Premiumprodukt mit extra Marge?).
 
Google: Ungefähr 98.700.000 Ergebnisse zu FREESYNC PROBLEMS
Google: 3.360.000 Ergebnisse zu G-SYNC PROBLEMS

Das ist kein (!) Beweis (!) für irgendetwas, aber nur mal ein Blick auf die Grundgesamtheit und ein Indiz dessen, was ich angedeutet habe.
Ergänzung ()

BookerDeWitt schrieb:
Nein und ja. Die Panels haben eine schlechte Qualität gehabt, als reguläre Monitore. Wie es auch Asus bestätigt hat. Das lag in deren Falle auch an geringerer Qualitätskontrolle (und das bei einem Premiumprodukt mit extra Marge?).
Haben gehabt = (Plusquam)perfekt, also aus der rumpeligen Startzeit von G-Sync, okay, das war bekannt. Aus diesem Grunde haben ich auch erst Ende 2014 zugeschlagen und 2013 nur beobachtet.
 
Zuletzt bearbeitet:
Zum Ausgleich mal etwas pro Freeesync:

https://www.pcper.com/news/Graphics...ings-Latency-LFC-and-Color-Space-Requirements

"This combination of latency, LFC and color space additions to FreeSync 2 make it an incredibly interesting standard. Pushing specific standards and requirements on hardware vendors is not something AMD has had the gall to do the past, and honestly the company has publicly been very against it. But to guarantee the experience for Radeon gamers, AMD and the Radeon Technologies Group appear to be willing to make some changes."

Wenn das nvidia unter Druck setzt, recht so. Kilngt ja nach einer Perspektive und Karten neu mischen!
Ergänzung ()

Dai6oro schrieb:

Nein, nicht borderless, sondern Fenstermodus, also "mit Rändern"
 
Nein, nicht borderless, sondern Fenstermodus, also "mit Rändern"

Bei was braucht man das? Ich hab noch nie mit nem Fenster gezockt.

Wenn das nvidia unter Druck setzt, recht so. Kilngt ja nach einer Perspektive und Karten neu mischen!

Ich bin da skeptisch. Wenn das wieder ne AMD only Initiative ist werden sich viele Entwickler die Implementierung schenken und das Feature wird kaum zur Anwendung kommen wie schon so oft. Und genau das ist ja die Krux. Oftmals werden gute Ideen nicht umgesetzt oder verlaufen im Sande weil sie von der Konkurrenz kommen.
 
Idon schrieb:
Das G-Sync in Notebooks ist aber auch technisch schlechter als G-Sync an Desktop-PCs.

Das G-Sync in Notebooks ist aber auch kein G-Sync was du an Monitoren mit G-Sync finden kannst, weil G-Sync in Notebooks nichts anderes ist als ein stinknormaler Adaptive Sync, also das ohne Zusatzmodul. Nvidia unterstützt Adaptive Sync damit also. Aber nicht für die normale Monitore mit Adaptive Sync. Eine kleine Änderung im Code (beim Nvidia Treiber) und diese Diskussion würden wir nicht mehr haben.
 
BookerDeWitt schrieb:
Nein und ja. Die Panels haben eine schlechte Qualität gehabt, als reguläre Monitore. Wie es auch Asus bestätigt hat. Das lag in deren Falle auch an geringerer Qualitätskontrolle (und das bei einem Premiumprodukt mit extra Marge?).


Gibt es da einen Link?
 
Dai6oro schrieb:
Bei was braucht man das? Ich hab noch nie mit nem Fenster gezockt.
Ich habe das laufend, in meiner Steam Sammlung gibt es tonnenweise Titel davon, die ich Windowmode spiele, z.B. Osiris New Dawn (geht gar nicht anders), CLickergames, Grim Dawn, Fifa17, WoW, Heartstone, Diablo 3 etc. Ich muss immer die Taskleiste sehen können.
 
Dai6oro schrieb:
Nein ist er eben nicht. Normales Freesync funktioniert auch ohne Anpassung. Für die Imputlagreduktion die aber bei klassischen HDR immer da ist (sie Erläuterungen von CB) braucht man eine extra Implementierung über eine API.

Wieso ist das immer da? Das steht doch dort gar nicht... man stelle sich nur mal vor, das seitens dem GPU Hersteller bekannten Daten die GPU hinten genau das ausspuckt, was der Monitor versteht, denn schließlich sollte der Hersteller der GPU auch die Monitore kennen, wo G-Sync implementiert ist... Das erneute Umrechnen im Monitor wird damit unnötig, da die GPU weis, was hinten rauskommen muss -> je Monitor halt. Denkt man das mal einen Schritt weiter, so kommt schnell ein (potentieller) Vorteil einer Ein-Hersteller-properitären Lösung zum tragen... denn genau DAS geht so ohne weiteres mit einem Standard so nicht, wenn nicht explizit vorgegebenen. Der Standard sieht das im Moment so nicht vor und die Monitore müssen hinten Tricksen weil sie es im Moment gar nicht stemmen können...

Damit wäre G-Sync HDR von Haus aus ohne das Lag, während der Standard vorsieht, vollen Umfang hinten darzustellen, man dies aber nicht kann und in Software den Spaß dann ensprechend einkürzt an der Quelle. Technisch wäre sicher auch ein Treiberimplementation möglich, nur müsste dann AMD die Daten pflegen für einen Standard, wo Dritte alle Nase lang ihr eigenes Süppchen kochen -> und das natürlich auch nur AMD based funktioniert (und nicht bspw mit Intel oder Matrox)

Dai6oro schrieb:
Keiner hält Nvidia davon ab Async ebenfalls zu nutzen. Nvidia will die Technik nicht nutzen (Async) AMD kann nicht (Gsync). Ein Unterschied imo. Nvidia nutzt hier schlicht seine Marktmacht aus.

Es hält NV vllt keiner ab, aber es zwingt sie auch keiner dazu... Wo kommen wir bitte hin, wenn die Hersteller nicht mehr das anbieten dürfen, was diese für richtig halten? AMD und Dritte könnten genau so G-Sync lizensieren. Das Argument geht in beide Richtungen. Und ja, sie könnten das! Denn nirgends wird dies verhindert. Ganz im Gegenteil, denn NV kann sich damit ne "goldene Nase" verdienen. Viel eher ist es so, das AMD es nicht will, mit exakt dem selben Grund, warum es NV andersrum mit Freesync nicht will.

PS: was ihr hier vllt übersehen habt, AdaptiveSync ist "nur" optionaler Bestandteil bei DP1.2a... gilt soweit ich weis auch für 1.3/1.4. Solange das so ist/bleibt bekleckern sich BEIDE Hersteller nicht mit Ruhm, nämlich genau an dem Punkt, das man für den Endkunden keine allgemeingültige Lösung findete.
So was funktioniert idR. auch nur dann mit "Erfolg" für den Endkunden, wenn der Standard von Dritten definiert wird und nicht vom Hersteller selbst. Das "freie" FreeSync ist vllt auf Basis eines Standards, aber genau solange ohne Vorteil, wie es sich nicht durchsetzt...

Dai6oro schrieb:
Warum ist Nvidia überhaupt Mitglied der VESA. Ach richtig. Weil sie auf einige Standards angewiesen sind. Displayport zum Beispiel. Aber wozu ein offener Standard bei den Monitoranschlüssen? Nvidia sollte am besten einen eigenen Geport rausbringen ... nur nutzbar mit einer Nvidia Karte. Welchen Sinn hat es schon dass man einen einheitlichen Stecker hat. Also mir wird das echt zu blöd hier.

Das ist doch nur die halbe Wahrheit, ein "Standard" wird erst dann zu einem solchen, wenn er entsprechend genutzt wird. Zumal, wenn mich nicht alles täuscht, NV als Unternehmen auch nicht älter als die ersten Display-Verbinder-Standards ist. Das heist, man war gar nicht in der Lage, den Markt mit eigenen Sachen zu bedienen, weil der Markt dahingehend schon entschieden hat/hatte, damals mit dem "VGA" Stecker, diesem D-Sub irgendwas, später mit DVI. Als Unternehmen beugt man sich dort, wo es notwendig ist. Entgegen dieses unpassenden Beispiels war AdaptiveSync aber "nur" bei eDP standardisiert. Welcher Monitor hat das also genutzt??? Ich sehe da nahezu nix, was am embedded Markt vorbei geht. Man entschied sich also dafür, ein Feature zu bringen, was vorher so nicht möglich war... daraus einen Strick zu drehen ist schon reichlich verquert gedacht.

Nimmt man es genau, hat JEDER Standard mal proprietär angefangen, bis er soweit verbreitet war, das man nicht drum rum kommt. Und wie oben schon erwähnt, AdaptiveSync ist eben KEIN muss...

Laphonso schrieb:
Das "besser" ist wie üblich eine fps pro Euro Thematik, und in den Preisspannen low budget bis High End gibt es ohne Zweifel Bereiche, da ist AMD einfach die bessere Wahl als nvidia.

Nicht zwangsweise, warum sollte man sich Hardware nach FPS pro Euro kaufen, wenn für einen wichtige Features nicht verfügbar sind? Kurzum, wie wichtet man "gar keine Leistung" in einer reinen Preis pro Euro Rechnung?
Aus meiner Sicht ist FPS pro Euro völlig überbewertet. Jeder wird Sachen haben, die er unbedingt will, Features, Eigenschaften, Optik, Effizienz usw. all sowas. Wo findet man das im FPS pro Euro?
Möglicherweise zieht sogar das Argument, man war vorher zufrieden, warum aufs "ungewisse" wechseln? Nur als Stichwort, Markentreue bspw. bei Autos, erkläre mal dem geneigten Audi, BMW oder Benzkäufer, das das P/L nüchtern betrachtet mit nem 10k Dacia Neuwagen idR. weit besser ist... was in ALLEN Märken klappt, klappt definitiv auch bei GPUs... ;) warscheinlich handeln 99,99% auch exakt nach ihren eigen Vorlieben und nicht nach rational und nüchternen Zahlen. Sollte sich mal Jeder selbst fragen, ob ALLES was man bis dazu im Leben erstanden hat, nach reinem P/L angeschafft wurde... um so mehr vors Loch geschoben ist das Argument bei CPUs und Grafikkarten.
 
Laphonso schrieb:
G-Sync lohnt sich nach wie vor für nvidia, das ist die einfache Antwort, es ist ein technisch überlegenes Premium Feautre, das sie sich bezahlen lassen.

Also das mit dem Premium-Anspruch bin ich bei Dir, doch inwiefern Asus oder gar Acer diesem gerecht werden könnten, kann ich bei bestem Willen nicht nachvollziehen.

Ich verfolge sehnsüchtig jede Monitor-News, denn ich würde nur allzu gerne meinem alten Dell 2709W einen Nachfolger gönnen. Doch dieser sollte ihn übertreffen, nicht nur in der Größe sondern auch Auflösung und Qualität. Daher habe ich mir auch die Modelle von Asus bereits schon angeschaut. Der Test bei Prad war in meinen Augen vernichtend. Ich bin zwar Hardcore-Zocker, doch eben nicht nur. Bildqualität ist mir wichtig. Daher käme mir der Asus schon der Tatsache des IPS-Panels allein nicht ins Haus. Wenn Prad dann ungleichmäßige Hintergrundbeleuchtung, katastrophale Schwarzwerte (im Vergleich zu meinem Dell mit S-PVA Display z.B.) und heftigstes IPS-Glow dem Asus Monitor attestiert, dann sehe ich meine Vorurteile gegenüber Asus (zumindest als Monitorhersteller) bestätigt.

Wem solche Nachteile egal sind, der sollte das Wort Premium eigentlich gar nicht in Mund nehmen dürfen. Da muß man wohl von einem TN-Panel gewechselt sein, um so etwas als akzeptabel zu empfinden.

Um meine lästigen Auto-Vergleiche zu bemühen: Man kann einen Golf fahren, oder gar einen Fiat und denken, daß dies ein Auto ist, und vielleicht meinen absolut zufrieden zu sein, aber nur deswegen, weil man vorher nie ein "richtiges" Auto erlebt hat (mindestens ein Jahr gefahren, nicht bloß Probefahrt). Denn jeder der dies mal hat, würde nie wieder etwas anderes fahren wollen. Nun in dem Vergleich ist Asus ein Golf und Acer ein Fiat. Und egal wie toll ein 2017er Golf oder Fiat ist, wären sie niemals ein Ersatz zu meinem 7er von 2005.
 
Zuletzt bearbeitet:
Es ist richtig das es Panel Lotterie ist. Hat jedoch nichts mit dem Modul Gsync zu tun. Denn es tritt auch ohne Gsync Modul auf.
 
Freu mich schon sehr auf die GSync HDR Monitore. Mein naechster 1440p ultrawide oder 4k mit 144hz und IPS.
 
boncha schrieb:
Unverständlich warum man sich als Kunde auf so ein Drecksspiel einlassen sollte.
G-Sync Monitore haben oftmals bessere Specs als welche mit AdaptiveSync. Sie bekommen bewusst mehr Leistung,
damit Nvidia seinen teuren, proprietären Mist verkauft bekommt und Kunden an sich auf Jahre binden kann.
Die Monitor Hersteller können ebenfalls teurere Preise verlangen und sicher gibts da noch nen netten Bonus seitens Nvidia.

Hat man mal nen G-Sync Monitor, wieso würde man dann noch zu AMD greifen?
Das sind ganz dreckige Spielchen, die Nivida hier spielt. Mit einer der größten Gründe sich dagegen zu entscheiden.
Solange der Verein keine offenen Standards unterstützt ist er für mich gestorben.

..nein, genau das Gegenteil ist der Fall. Bisher schnitten G-Sync Geräte in der Gesamtqualität, dass heist zzgl. andere Features, Bildqualität und Verarbeitung immer schlechter ab, als ihre direkten und preislich identischen Konkurrenten mit Adaptive Sync.

z.B. die bisher besten Geräte im direkten Vergleich:
Dennoch bietet Eizo mit dem Foris FS2735 den derzeit besten FreeSync-kompatiblen Monitor an. Während der ROG Swift PG279Q aufgrund von G-Sync zwar über die bessere VRR-Technik verfügt, ist Eizos Foris FS2735 der bessere Monitor. Das Testexemplar weist nicht nur eine bessere Bildqualität und Kalibrierung auf, sondern überzeugt auch mit einem geringeren Backlight-Bleeding und dem Verzicht auf Pixelfehler.
https://www.computerbase.de/2016-01/eizo-fs2735-asus-pg279q-test/5/#abschnitt_fazit
G-Sync ist nur ein einziges Feature eines Monitors, der nicht selten über die gesamten negativen Eigenschaften "hinwegtäuschen" soll. Hinsichtlich der proprietären Technik, gebe ich dir Recht.
Ergänzung ()

Herdware schrieb:
Außerdem, solange es sowieso nur zwei Anbieter einer Funktion dieser Art gibt, ist es ja für den Kunden ziemlich wurscht, welcher davon auf einen propritären und welcher auf einen freien Standard aufsetzt. .

.. Nein, die neuen Qualcomm DPU werden Adaptive Sync unterstützen.
http://www.golem.de/news/bericht-qualcomms-snapdragon-835-im-detail-1701-125336-2.html

und auch Intel wird adaptive Sync unterstützen. Immerhin sind das alles Hersteller, die sich auch in die Entwicklung des Vesa Standard einbringen. Nvidia schippert da mit seinen G-Sync im eigenen trüben Wasser.
 
Zuletzt bearbeitet:
Dai6oro schrieb:
@Laphonso

Frag doch mal deine Freunde ob sie das cool gefunden hätten das gleiche Erlebnis für ein paar hundert Euro weniger zu haben. .

Nö keine Opfer aber wenn ich das Gleiche günstiger bekomme nehme ich das. .

Diese Gelddiskussion ist im Grunde immer wieder das selbe...

Wenn dein Arbeitgeber deine Leistung zukünftig woanders billiger bekommt bist du mit Sicherheit irgendwann weg vom Fenster. Ist es nicht auch dein Ziel das beste Zeit/Leistungsverhältnis zu haben? Würdest du für die gleiche Arbeit lieber 500€ netto weniger verdienen? Mit Sicherheit nicht.

Jeder von uns will für sich das optimale Kosten/Nutzenverhältnis. Wilkommen im Wirtschaftskarussell.

Nur wenn du etwas anbietest was einen vernünftigen Mehrwert für den Einzelnen bringt, kannst du dauerhaft zukunftssicher bleiben und das entscheiden dann am Ende die Kunden.
 
Tronx schrieb:
Erstes hinkt AMD niemanden hinterher (typisches Nvidia denken), siehe DX12 Performance und zweitens, ohne Mantle gebe es heute kein DX12 und und und....AMD ist mehr der Erfinder und bringt auch mal neue Sachen raus, Nvidia ist mehr der Kopierer und vor allem "ich verarsche mal den Kunden".
Na da sag ich mal. Typisches AMD denken, nicht wahr?
Die Grundlagen für all diese Behauptungen würde ich gerne mal sehen.
 
Rollkragen schrieb:
..nein, genau das Gegenteil ist der Fall. Bisher schnitten G-Sync Geräte in der Gesamtqualität, dass heist zzgl. andere Features, Bildqualität und Verarbeitung immer schlechter ab, als ihre direkten und preislich identischen Konkurrenten mit Adaptive Sync.

Dann verlinke mir mal mehrere Monitore der "preislich identischen" Konkurrenten im direkten Vergleichstest.
Spannend vor allem beim gleichen Hersteller für Freesync und Gsync, so dass man nicht Äpfel und Birnen vergleicht.

Die einschlägigen Top Gsync Modelle haben top Bewertungen. Er am Preis spart, verzichtet auf Qualität. Das gilt überall eigentlich.

Das ich meinen 27 Monate alten ASUS RoG Swift iiiirgendwann mal austauschen möchte, halte ich auch die Augen offen in der G-Sync Sparte.
Ergänzung ()

noxon schrieb:
Na da sag ich mal. Typisches AMD denken, nicht wahr?
Die Grundlagen für all diese Behauptungen würde ich gerne mal sehen.
AMD ist im Enthusiastensegment seit Jahren verschwunden. Wer ein Maximum an frames will bei hohen Auflösung, hat kein AMD Produkt zur Hand. Die Fury X ist nun wie alt, knapp 1,5 Jahre? Und hat auch nur 4 GB VRAM.
Leider lässt Vega auf sich warten, d.h. ich habe die 1070, 1080 und die TitanP, wenn ich die schnellsten GPUs auf dem Mark kaufen will.
 
Zuletzt bearbeitet:
Da das hier nur zu ner Schlammschlacht von einer bestimmten Gruppe ausgeartet ist, nur eins:

Adaptive Sync ist ein offener Standard den Nvidia ja sogar (in Laptops) schon unterstützt.

Mit jedem eurer Käufe entscheidet ihr mit wie beschissen diese Welt wird.

Wenn euch nur euer Spielgefühl wichtig ist und die Welt um euch herum kaputt gehen kann, dann nur weiter so.

Wenn ihr bewusst konsumieren wollt, überlegt euch ob ihr euch verarschen lassen wollt und ob ihr wollt, dass es noch schlimmer wird.
 
Zurück
Oben