News G-Sync HDR: Neue Monitore vereinen HDR-Funktionalität mit G-Sync

Dai6oro schrieb:
Haha also ist es besser eine Technik die einen Inputlag reduziert ganz rauszulassen? Ist das dein Ernst?
LoL wer sagt denn sowas. Mein Argument ist, dass Freesync 2 Monitore wesentlich schlechter dastehen als die neuen HDR Monitore mit G-Sync. Denn damit Freesync 2 korrekt funktioniert muss der Spieleentwickler extra eine Implementation der Lösung vornehmen während bei der G-Sync Variante der Entwickler keinen Finger Krümmen muss. Der Funktionsumfang ist wie ich verstehe am Schluss ja der Selbe?
 
Es wird sich mir wohl immer entziehen, warum gerade die Leute, die Fresync2 als neue Technologie wiedermal in den Himmel loben, NVidia für ihren "proprietären Müll" verteufeln.

Adaptive Sync ist ein offener Standard, ja. Freesync ist es nicht. Das wird immer nur mit AMD Karten funktionieren und wenn mit Freesync2 die Spiele dann auch noch eine Unterstützung implementiert haben müssen damit es läuft, wo ist da dann der achso große Unterschied zu NVidias G-Sync & Co?
Das wird niemals auf NVidia oder Intel GPUs laufen und zwar nicht (nur) weil NVidia/Intel das nicht wollen, sondern weil es proprietäre AMD Technologie ist.
 
Denn damit Freesync 2 korrekt funktioniert muss der Spieleentwickler extra eine Implementation der Lösung vornehmen während bei der G-Sync Variante der Entwickler keinen Finger Krümmen muss. Der Funktionsumfang ist wie ich verstehe am Schluss ja der Selbe?

Nein ist er eben nicht. Normales Freesync funktioniert auch ohne Anpassung. Für die Imputlagreduktion die aber bei klassischen HDR immer da ist (sie Erläuterungen von CB) braucht man eine extra Implementierung über eine API.

Darüber hinaus sollen FreeSync-2-zertifizierte Monitore einen geringeren Input-Lag haben als normale HDR-Monitore. Bei der klassischen HDR-Wiedergabekette auf dem PC werden zwei verschiedene Tone Mapper genutzt. Der erste ist das Spiel selbst, der die gerenderte Grafik zum Beispiel für den HDR10- oder den Dolby-Vision-Standard umsetzt. Da allerdings selbst kein zukünftiger Monitor auch nur annähernd komplett dem HDR10-Farbraum entspricht, muss der Monitor ein eigenes, zweites Tone Mapping nutzen, um das Bild den eigenen Fähigkeiten bezüglich des Farbraums anzupassen, was entsprechend Rechenzeit benötigt. Das Tone Mapping des Monitors erhöht daher den Input Lag. Genau dieser soll mit FreeSync 2 in HDR-Spielen deutlich geringer ausfallen.

Denn bei FreeSync-2-kompatiblen Monitoren wird das Monitor-eigene Tone Mapping komplett wegfallen. Dies ist möglich, da bereits der Spiel-eigene Tone Mapper genau nach den Anforderungen arbeitet, die das Display hat, sodass dieser die ankommenden Daten nicht mehr umwandeln muss, sondern sofort darstellen kann. Einen Haken hat diese Technik jedoch.
Das Spiel muss FreeSync 2 unterstützen


https://www.computerbase.de/2017-01/amd-freesync-2-hdr/

Das beste wäre also wenn beide die API unterstützen (könnten) damit möglichst viele Enwtickler das implementieren. Ansonsten wird es Niesche bleiben und der Gamer wird bei HDR mit höherem Imputlag leben müssen.
 
Zuletzt bearbeitet:
Schnitz schrieb:
Adaptive Sync wurde schon genannt, aber bei der Marktdominanz von NV ist ja Gsync bestimmt bald Standard, denn wenn es keine anderen Graka-Hersteller gibt kann man es mit allen verfügbaren Karten nutzen, kleingeld vorrausgesetzt :evillol:

Adaptive Sync allein ist ja noch keine Technik für dynamischen Frequenzabgleich. Der wesentliche Teil von FreeSync steckt in GPU und Treibern von AMD und ist genauso propritär wie Nvidias G-Sync. (AMD bezeichnete das selbst mal als "secret sauce".)

Außerdem, solange es sowieso nur zwei Anbieter einer Funktion dieser Art gibt, ist es ja für den Kunden ziemlich wurscht, welcher davon auf einen propritären und welcher auf einen freien Standard aufsetzt. Mit einen FreeSync-kompatiblen Monitor ist man genauso auf einer Insel, wie mit G-Sync.
Wenn Intel mit an Bord kommen würde und eine eigene, auch auf Adaptive Sync aufsetzende Lösung bringen würde, sähe die Sache schon etwas anders aus. Wobei Spiele halt nicht unbedingt in Intels Fokus sind. Jedenfalls wenn es um GPUs geht.

Insgesamt leidet das Ganze halt darunter, dass es nur noch zwei Hersteller von dedizierten und/oder spieletauglichen GPUs gibt. Wäre der Markt wie früher auf ein halbes Dutzend Hersteller verteilt, dann hätten propritäre Lösungen kaum eine Chance.
 
Keiner hält Nvidia davon ab Async ebenfalls zu nutzen. Nvidia will die Technik nicht nutzen (Async) AMD kann nicht (Gsync). Ein Unterschied imo. Nvidia nutzt hier schlicht seine Marktmacht aus.
 
Schnitz schrieb:
Die Einschränkung auf Grafikkarten eines Herstellers ist ja das anstößige, nicht das die Entwickler mehr arbeiten müssen.
Willkommen in der freien Wirtschaft. Um seine eigenen Produkte samt Zubehör zu verkaufen ist das nunmal der leichteste Weg zur Gewinnmaximierung. Siehe Apple.
Finde ich hier persönlich nicht unbedingt verwerflich, vorallem da AMD an der Situation selbst Schuld ist und ständig hinterherhinkt(e). Und da es nur zwei Hersteller von GPU's gibt, die somit gleichzeitig engste Konkurrenten sind, ist es sowieso extrem naiv zu denken das die bei irgendwas zusammenarbeiten oder Technologien verschmelzen.
 
Ich finds schade, dass keine der Techniken an Fernsehern Einzug hält. Ich zocke lieber am großen TV und war glücklich HDR10 Inhalte und Quantum Dots zu genießen, welche die ollen PC Monitore nicht können, dafür hatten sie aber die Synchronisation. Nun hat sich das verschoben.
 
JeverPils schrieb:
Sieht diese HDRfunktion so viel besser aus? Und wieso kann ein normaler Monitor das Farbenspiel eines HDR-Monitors nicht auch darstellen? Beide Monitore verfügen doch über das gleiche oder einem ähnlichem Farbspektrum.

In der Regel können non-HDR Schirme trotz gutem Farbraum die Helligkeitsdifferenz zwischen ganz dunkel und super hell nicht meistern, sprich zuwenig realer Kontrast. Zudem muss das ja auf unterschiedlichen Stellen auf dem Schirm gleichzeitig (in einer Szene) gemeistert werden. zB pechschwarzer Himmel oben und irgend ein super beleuchtetes Setting im unteren Bereich des Schirms und im pechschwarzen Bereich dann noch das mega UFO welches hervorleuchtet. Genau da dürften dann das Full-Array Local Dimming zum Zuge kommen.

Die Thematik FreeSync Gsync nervt mich richtig. Ich würde gerne dieses Jahr einen Schirm kaufen der das kann, aber ich hab einfach keine Lust mich 4-5 Jahre auf einen Grakahersteller festzulegen. Zudem mit dem ganzen neuen Kram wie HDR usw wird ein Bildschirm genauso wenig langlebig wie anderer Elektroschrott, solange es keine richtigen Standards gibt.
 
Aber welcher Grafikchip vorausgesetzt wird kann anscheinend niemand beantworten. Eine Angabe wie z.B. "ab GeForce GTX980" wäre super ... Monitore sind ja genug vorgestellt worden. Mich würde interessieren welche Grafikkarte ich dafür benötige.
 
UHD @ 144 Hz, HDR und G-Sync
Na wenn das mal nicht nach dem Monitor meiner Träume klingt.
Ich sehe schon wie ich meinen jetzigen bei eBay verticke.
 
kicos018 schrieb:
Willkommen in der freien Wirtschaft. Um seine eigenen Produkte samt Zubehör zu verkaufen ist das nunmal der leichteste Weg zur Gewinnmaximierung. Siehe Apple.

Deswegen wurde Microsoft damals so hart bestraft, siehe Internet Explorer, da war es noch nicht mal gesperrt um einen anderen Browser zu nutzen, also nicht wie bei G-Sync wo AMD mit ganz großer Sicherheit nicht mitmachen darf. Nun erkläre mir das mal bitte! Das hat mit Wettbewerb 0 zu tun, absolut 0. Was würde passieren wenn AMD vom Markt ist, etwa Wettbewerb? /ironie

kicos018 schrieb:
Finde ich hier persönlich nicht unbedingt verwerflich, vorallem da AMD an der Situation selbst Schuld ist und ständig hinterherhinkt(e). Und da es nur zwei Hersteller von GPU's gibt, die somit gleichzeitig engste Konkurrenten sind, ist es sowieso extrem naiv zu denken das die bei irgendwas zusammenarbeiten oder Technologien verschmelzen.

Erstes hinkt AMD niemanden hinterher (typisches Nvidia denken), siehe DX12 Performance und zweitens, ohne Mantle gebe es heute kein DX12 und und und....AMD ist mehr der Erfinder und bringt auch mal neue Sachen raus, Nvidia ist mehr der Kopierer und vor allem "ich verarsche mal den Kunden". Traurig das man so einen Verein unterstützt. Es wäre sicherlich besser wenn es endlich eine geregelte Norm für solche Sachen gibt, die gibt's doch komischerweise auch in anderen Bereichen, wieso nicht hier? Ein Wettbewerb ist erst dann möglich wenn alle die gleichen Möglichkeiten haben.
 
@Schnitz:
Wenn man Marktanteile hat - kann man das. Und die hat Nvidia. Gerade bei den Gamern ;)

@Tronx:
DX12 Performance, so what? Bei den paar AMD Evolved Titel, wo AMD in DX12 gewinnt, weil die Spiele genau die DX12-Features nutzen, die AMD helfen? DX12 ist eigentlich gar keine Technologie, die die GPU schneller machen soll, sondern das langsamere CPUs profitieren...

Yeah ya...

Und nun ja... Bei AMD hört es aktuell bei der 480 auf - der Gegenpart zur 1070/1080 (die ja selbst eigentlich nur Mittelklasse sind, auf den Chip bezogen) lässt auf sich warten. Doch. AMD hinkt hinterher. Der Marktanteil gibt NV recht und nicht AMD. Btw. auch im Bereich der 1060/1070 vs 480...

Und ja. Steam Zahlen sind durchaus aussagekräftig.


Btw.: Würde AMD auch machen, wenn sie könnten. Was NV macht, ist einfach markttechnisch sinnvoll. Man kann die GPUs wohl schon mit besseren Margen verkaufen und verdient auch noch an den Monitoren ;)
 
Zuletzt bearbeitet:
kicos018 schrieb:
Willkommen in der freien Wirtschaft. [...] Und da es nur zwei Hersteller von GPU's gibt, die somit gleichzeitig engste Konkurrenten sind, ist es sowieso extrem naiv zu denken das die bei irgendwas zusammenarbeiten oder Technologien verschmelzen.

Früher hatte man bei der Produktentwicklung tatsächlich noch an den Kunden gedacht. Die heutige "friss oder stirb" Ideologie ist schlicht widerlich und wird von mir wo es nur geht boykottiert.
Und Falls wer deswegen nen Spruch zu meiner Graka machen will, die hab ich für 100 gebraucht gekauft, da hat weder NV, der Staat, die Gema noch sonst wer dran verdient außer ein einfacher Mensch.
 
Ein zweiter Punkt ist der gegenüber SDR (Standard Dynamic Range) höhere Farbumfang.
Da stellt es mir aber meine Nackenhaare gewaltig auf!

Bei HDR geht es um den Dynamikumfang, nicht um die Farbe. Und nur weil nVidia - wenn ich es richtig verstanden habe - Mindestanforderungen an die Bildschirme stellt, damit sie G-Sync HDR drauf stehen haben dürfen, heißt dies noch lange nicht, dass dies mit HDR etwas zu tun hat.
Dies sollte einem Redakteur der über Monitore schreibt bekannt sein.

Und PCI-D3 aus 8-bit fällt wohl unter das Motto: Hauptsache bunt...
 
kachiri schrieb:
@Tronx:
DX12 Performance, so what? Bei den paar AMD Evolved Titel, wo AMD in DX12 gewinnt, weil die Spiele genau die DX12-Features nutzen, die AMD helfen? DX12 ist eigentlich gar keine Technologie, die die GPU schneller machen soll, sondern das langsamere CPUs profitieren...

Yeah ya...

Und nun ja... Bei AMD hört es aktuell bei der 480 auf - der Gegenpart zur 1070/1080 (die ja selbst eigentlich nur Mittelklasse sind, auf den Chip bezogen) lässt auf sich warten. Doch. AMD hinkt hinterher. Der Marktanteil gibt NV recht und nicht AMD. Btw. auch im Bereich der 1060/1070 vs 480...

Und ja. Steam Zahlen sind durchaus aussagekräftig.

Das kennst Du? https://www.computerbase.de/artikel...te.2487/#diagramm-performancerating-3840-2160

Die Masse bei Steam nutzt welches Grafikkarten Modell, etwa die 1080? mitnichten. Wo liegt die FuryX, genau 1 FPS hinter der 1070, preislich etwas günstiger. Ich nenn das nicht hinterherhinken. Und nur weil die Masse bei Nvidia ist, ist eine AMD nicht schlechter? Nvidia hatte damals einen guten Run und konnte sich Finanziell stärken, AMD hatte es da etwas schwieriger (siehe Intel mit ihrer aggressiven Art gegenüber der Konkurrenz). Gerade Du, der eine 960 hat, sollte doch ziemlich verärgert sein, nein?
 
Dai6oro schrieb:
Keiner hält Nvidia davon ab Async ebenfalls zu nutzen. Nvidia will die Technik nicht nutzen (Async) AMD kann nicht (Gsync). Ein Unterschied imo. Nvidia nutzt hier schlicht seine Marktmacht aus.

nVidia wird sicherlich keinen Standard unterstützen, den die Konkurrenz nach Belieben ändern und bestimmen kann. Am Ende lässt AMD das genauso fallen wie Mantle und nVidia könnte nichts dagegen tun.

Dasselbe gilt für die API.


Diese beiden entscheidenden Punkte sind von AMD nämlich nicht komplett freigegeben. Du könntest also auch die Frage stellen, warum AMD nicht einfach G-Sync unterstützt.


@ Tronx

Bei der letzten mir bekannten STEAM-Umfrage gab es jedenfalls deutlich mehr GTX 1080-Nutzer als RX 480-Nutzer.
 
In 4k - ist sicher sehr Mainstream. Genau wie die 1080. Wobei die 1080 mehr Nutzer hat als die 480. Was halt nicht für die 480 spricht. Die 470 steht auch nicht viel besser da...
Welche GPU nutzt die Masse? 960, 750 Ti, 970, 1060 und 1070 (und das obwohl 480 und 1060 ja etwa zeitnah kamen, wobei die 1060 direkt besser verfügbar war, als die 480 bzw. davon die Customs erst später kamen... Auch ein Fehler von AMD).

Die 1050 Ti ist direkt mit +0,24% Marketing Share eingestiegen. Schon jetzt die Hälfte von dem was die 480 in einem halben Jahr erreicht hat. NV verkauft aus irgendwelchen Gründen besser...

Das die Marktanteile sind, wie sie sind, hat seinen Grund. Und den sollte man nicht nur bei NV suchen, sondern auch bei AMD, die anscheinend in letzter Zeit zu viel falsch gemacht haben (oder noch machen, siehe aktuell Vega...)

Und wieso sollte ich verärgert sein. Ich habe lange überlegt, ob 380(x) oder 960 und habe mich am Ende für die 960 entschieden. Bewusst. Und vor einem Jahr war schon absehbar, dass die 380 wohl am Ende etwas mehr Leistung hat. Für das was ich spiele, reicht aber auch die 960 und die 10% mehr entscheiden häufig tatsächlich nicht einmal über "spielbar" und "nicht spielbar". Ich kann halt auch Regler bedienen.
 
Zuletzt bearbeitet:
Habe auch einen Gysnc Monitor mit zugehöriger GraKa. Es läuft sehr gut.

Das wichtigste Argument für mich ist:
Das es läuft.

Bevor AMD nicht mit einer angemessenen Obere Mittelklasse(CPU und GPU) kommt und die auch verfügbar ist, sieht AMD von mir kein Geld.
 
Zuletzt bearbeitet von einem Moderator:
nVidia wird sicherlich keinen Standard unterstützen, den die Konkurrenz nach Belieben ändern und bestimmen kann. Am Ende lässt AMD das genauso fallen wie Mantle und nVidia könnte nichts dagegen tun.

Erklär mir bitte mal wie AMD einen Standard den jeder frei nutzen kann ändern könnte? Das würde mich echt mal brennend interssieren. Das hat AMD doch gar nicht in der Hand. Nvidia könnte mit Async umsetzen was immmer sie wollen. Async (der Standard) gehört AMD nicht, die nutzen es nur als Basis für Freesync (das gehört AMD).

Du könntest also auch die Frage stellen, warum AMD nicht einfach G-Sync unterstützt.

Das ist echt lächerlich. Gsync kann AMD nicht nutzen. Dazu müsste die AMD GPU mit dem Gsync Modul zusammenarbeiten. Wie soll das funktionieren? Ich glaube du informierst dich besser mal was geht und was absolut nicht geht.
 
Zuletzt bearbeitet:
Zurück
Oben