Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News G-Sync: Nvidia unterstützt nun auch Monitore mit Adaptive-Sync
- Ersteller Frank
- Erstellt am
- Zur News: G-Sync: Nvidia unterstützt nun auch Monitore mit Adaptive-Sync
Yuuri
Fleet Admiral
- Registriert
- Okt. 2010
- Beiträge
- 13.928
Weil? GSync gibts seit 2014. Freesync existiert seit 2015 und exakt gleich mit Adaptive Sync in DP 1.2a. AMD muss hier nirgendwo leiden, denn u.a. die haben den offenen Standard mit kreiert/erweitert. NVIDIA muss hier leiden, denn die können ihr GSync nicht mehr für 200+ € verscherbeln. Bzw. werden es mit "Ultimate" natürlich trotzdem tun. Dass es aber nur Marketing für ihre bestimmte Spezifikation ist... Typisch NVIDIA.Sly123 schrieb:Wenn das Ganze auf fast jedem A-Sync Monitor/TV läuft wird AMD ganz schön leiden.
Das war, neben der underdog-Rolle, schon ein fettes Plus für AMD.
AMD hat gewonnen, weil sie u.a. nen offenen Standard vorangetrieben haben, der jetzt nicht mehr nur in DP Verwendung findet, sondern jetzt auch offiziell in HDMI. Notebooks konnten das ja bereits viel länger.
Das fette Plus bei AMD liegt nun darin, dass es DP und HDMI offiziell unterstützen und somit jeder was davon hat. Und deswegen mag ich AMD und werde mir viel eher ein Produkt von diesem Hersteller kaufen, statt mein Geld in Intel und NVIDIA zu stecken. Da interessieren mich 10 FPS nicht die Bohne, wenn dies nur durch Gängelung erkauft werden kann. Und Zusatzfeatures kosten dann nochmal nen Obulus, im Falle von GSync waren es gleich mehrere hundert Euro zusätzlich zum Monitor.
https://en.wikipedia.org/wiki/FreeSync#Adaptive-Sync schrieb:VESA announced Adaptive-Sync as an ingredient component of the DisplayPort 1.2a specification; FreeSync is a hardware–software solution that uses DisplayPort Adaptive-Sync protocols to enable smooth, tearing-free and low-latency gameplay.[5] FreeSync has also been implemented over HDMI.[6]
HDMI 2.1 unterstützt es nun offiziell via VRR und somit ist NVIDIA gezwungen es auch zu unterstützen.https://hexus.net/tech/news/graphics/88694-amd-announces-freesync-hdmi/ schrieb:On the graphics front any Radeon card outputting over HDMI 1.2, or later, will have the ability to support FreeSync over HDMI, albeit with an updated driver.
Mal wieder ne Glanzleistung von AMD, wie man richtig agieren kann. Nicht mal ein Jahr hat es gedauert bis Adaptive Sync offizieller Standard war und gar auch gleich verbaut wurde bzw. eh schon verbaut wurde.https://en.wikipedia.org/wiki/HDMI#Relationship_with_DisplayPort schrieb:DisplayPort supported some advanced features which are useful for multimedia content creators and gamers (e.g. 5K, Adaptive-Sync), which was the reason most GPUs had DisplayPort. These features were added to the official HDMI specification slightly later, but with the introduction of HDMI 2.1 these gaps are already leveled off (with e.g. VRR / Variable Refresh Rate).
M
Moriendor
Gast
Maine schrieb:Ich lehne mich mal aus dem Fenster und behaupte, dass nVidia das aufgrund des sinkenden Aktienkurses gemacht hat.
Tja, sorry, Du bist soeben aus dem Fenster gefallen

Der sinkende Aktienkurs von nVidia hat völlig andere Gründe. Erstens die Überbestände aus Zeiten des Kryptowahnsinns, zweitens die wegen erstens verfehlten Erwartungen an Umsatz/Gewinn (auf sehr hohem Niveau), drittens die Trumpschen Handelskriege mit Fernost, die besonders den Halbleiterherstellern zu schaffen machen könnten, viertens die Zinspolitik der Fed und fünftens die Tatsache, dass die nVidia Aktie extrem heiß gelaufen und eine Korrektur ohnehin mehr als überfällig war.
Die Unterstützung von AdapativeSync hätte nVidia spätestens mit der nächsten Kartengeneration bringen müssen, da HDMI 2.1 mit VRR so sicher kommt wie das Amen in der Kirche. Die nächsten nVidia Karten werden HDMI 2.1 Anschlüsse haben. Spätestens dann wäre G-Sync vorbei gewesen.
Sie haben jetzt einen geschickten Zeitpunkt gewählt, um das Ganze noch freiwillig aussehen zu lassen. Sie haben so selbst die Zügel in die Hand genommen und vermarkten diesen Schritt wie üblich offensiv.
Durch ihr angeblich rigoroses Testverfahren werden ja eigentlich alle 388 Bildschirme, die ihre natürlich sehr anspruchsvollen Qualitäts-Tests

Wer maximale Qualität will, soll bitte weiterhin G-Sync oder kommende G-Sync Ultimate Bildschirme kaufen, so die Message dieser Ankündigung.
Man macht per Treiber also die Tür auf, weil man den Siegeszug freier VRR (VESA HDMI 2.1) eh nicht verhindern kann, aber vermarktet G-Sync weiterhin als Premiumlösung.
Ich denke die 1Hz Angabe in der Liste dient "nur" dem marketing der "Überlegenheit" von G-Sync vs Adaptive Sync (das man hier auch noch als "G-Sync compatible" absetzt um nur nicht das VESA Wort zu gebrauchen).
AMD könnte wenn sie wollten mit LFRC auch 1Hz per Bild-Wiederholung syncen (so wie es nVidia bei Low-FPS ja auch macht). Aber wer will schon ein 60(120, 240 Hz)-Standbild ? ((EDIT: LFC heisst das "feature" nicht LFRC. https://www.amd.com/Documents/freesync-lfc.pdf )
Also ist der 1Hz "Support" nur Augenwischerei. Ein 1Hz Bild ist nunmal nicht flüssig. Da hilft keine Zauberei dagegen. Die unterste Grenze von "Flüssig" liegt irgendwo bei um die 24 FPS. Der Grund warum man Filme mit 24 FPS wiedergibt. Ein Kompromiss um die Datenmenge weitestgehend zu reduzieren.
Heute dennoch oft mehr, weil "flüssiger" besser ist als das absolute Minimum - gerade bei schnellen Szenen - und der Datentransport eben viel besser gelingt als nocht vor 30 Jahren. Allerdings filmen die wenigsten selbst heute noch immer nicht mit 60 Hz oder mehr.
AMD könnte wenn sie wollten mit LFRC auch 1Hz per Bild-Wiederholung syncen (so wie es nVidia bei Low-FPS ja auch macht). Aber wer will schon ein 60(120, 240 Hz)-Standbild ? ((EDIT: LFC heisst das "feature" nicht LFRC. https://www.amd.com/Documents/freesync-lfc.pdf )
Also ist der 1Hz "Support" nur Augenwischerei. Ein 1Hz Bild ist nunmal nicht flüssig. Da hilft keine Zauberei dagegen. Die unterste Grenze von "Flüssig" liegt irgendwo bei um die 24 FPS. Der Grund warum man Filme mit 24 FPS wiedergibt. Ein Kompromiss um die Datenmenge weitestgehend zu reduzieren.
Heute dennoch oft mehr, weil "flüssiger" besser ist als das absolute Minimum - gerade bei schnellen Szenen - und der Datentransport eben viel besser gelingt als nocht vor 30 Jahren. Allerdings filmen die wenigsten selbst heute noch immer nicht mit 60 Hz oder mehr.
Zuletzt bearbeitet:
DocWindows
Vice Admiral
- Registriert
- Mai 2013
- Beiträge
- 6.824
OZZHI schrieb:Was die Adaptyve Sync Unterstützung angeht hoffe ich, dass es den Monitorherstellern nicht erlaubt wird einen "Supports Nvidia G-Sync" Kleber auf jeden beliebigen FreeSync Monitor anzubringen, auch wenn er indirekt auf der Supportliste wäre.
Warum nicht? Das ist doch ein toller Werbehinweis. FreeSync auf die Monitorpackungen aufzubringen war eigentlich genau das gleiche. Man hätte von Anfang an Adaptive Sync als Begriff hernehmen müssen und nicht mit Herstellermarkennamen werben. Aber das ist nun zu spät.
Wenn Intel auch noch was in der Richtung bringt, werden wohl 3 Aufkleber fällig. FreeSync, G-Sync und I-Sync (Letzteres ist ausgedacht)
Du hast meinen Post falsch verstanden. Ich habe nicht geschrieben, dass die bislang fehlende Adaptive Sync-Unterstützung der Grund für den fallenden Aktienkurs war, das war, wie überall zu lesen und von dir korrekt zitiert, die Mining-Fehlplanung. Ich habe nur geschrieben, dass dies nVidia motiviert haben könnte, auch Adaptive Sync zu unterstützen, um ihre potentielle Kundenbasis zu erweitern und damit dem fallenden Aktienkurs durch potentiell mehr Verkäufe entgegen zu wirken.Moriendor schrieb:Tja, sorry, Du bist soeben aus dem Fenster gefallen.
Der sinkende Aktienkurs von nVidia hat völlig andere Gründe.
Bitte also genau lesen ;-)
ZeXes schrieb:Denke mit der News werden erstmal alle G-Sync Monitor Verkaufspreise ins bodenlose fallen.
Für diese Monitore gibts ja fast keine Argumente mehr.. .
Wenn das der Fall sein sollte, würde ich mir wohl noch ein WQHD Monitor mit TN-Panel, GSYNC und 165Hz dazu stellen. Aber ich glaube nicht, dass die Preise einfach so fallen werden.^^
Sly123
Lt. Commander
- Registriert
- Juli 2008
- Beiträge
- 1.656
c2ash schrieb:@CB Redaktion
Ich glaub da ist ein Fehler in der News
Das muss wohl minimale Helligkeit heißen, weil sonst würde ja jeder aktuelle Monitor dieses Kriterium erfüllen.
Ich glaube es ist gemeint, dass der Monitor eine max. Helligkeit von 1000 cd/m² unterstützen muss.
Es ist somit korrekt.
ZeXes
Banned
- Registriert
- Sep. 2017
- Beiträge
- 1.538
SKu schrieb:Wenn das der Fall sein sollte, würde ich mir wohl noch ein WQHD Monitor mit TN-Panel, GSYNC und 165Hz dazu stellen. Aber ich glaube nicht, dass die Preise einfach so fallen werden.^^
Ups.. ich meinte VerkaufsZAHLEN.. . Noch etwas früh am morgen..
P
PanzerHase
Gast
Der AOC Agon AG241QG ist ein Gsync Monitor. Die Freesync/Adaptive Sync Variante heißt AG241QX. Was soll ich mit dem AG241QG der Gsync unterstützt dann Adaptive Sync verwenden, wenn die Qualität von Gsync natürlich besser ist?
1
1Striker1
Gast
Das ist mal ne erfreuliche Nachricht auf die ich gewartet habe.

meintet Ihr sicher aber den AGON AG241QX, weil das ist der mit dem FreeSync-Modul. Der QG hat doch eh das G-Sync-ModulBtw. Beim AGON AG241QG

avalance
Ensign
- Registriert
- Feb. 2018
- Beiträge
- 181
SKu schrieb:Ich werde es definitiv mit meinem MG279Q mit Treiber-Hack (60Hz-144Hz) testen.
Wenn es funktionieren sollte, dann gut. Wenn nicht, dann ist es auch gut.
GSYNC 3 hört sich dennoch interessant an, wobei sich mir der Sinn nicht erschließen möchte einen Monitor bis auf 1Hz herunter betreiben zu wollen, weil mit einem Frame pro Sekunde hat man, egal ob GSYNC oder FreeSync, trotzdem nur noch ein Standbild.
Ich denke für die kleineren RTX Karten im raytracing Betrieb wäre irgendwas im unteren Bereich durchaus nicht so schlecht (aber keine Ahnung wie Raytracing in echten Spielen überhaupt performen wird).
Was ich nicht weiss ,ist ob man über 100Hz überhaupt irgendein SYNC braucht. Allerdings finde ich es sehr Begrüssenswert, wenn AdaptiveSync zeitnah G- und Freesync ablöst (vorallem wäre Klasse wenn die NV Karten alle FreeSync können, als auch die ganzen GSYNC Displays auch Freesync unterstützen würden).
Bible Black
Lieutenant
- Registriert
- Apr. 2011
- Beiträge
- 934
Geil, kann man sich die extra Kosten für einen G-Sync Monitor sparen und lieber in die bessere NV GPU investieren. /sarkasmus
Aber so wird's wohl wieder laufen. Die Einschränkung auf (ab) Pascal verwundert mich auch nicht.
Aber so wird's wohl wieder laufen. Die Einschränkung auf (ab) Pascal verwundert mich auch nicht.
Sehr gute Enscheidung von Nvidia! In erster Linie natürlich für sie selbst und auch für uns.
Für mich war es eine große Überraschung bei der CB-Nutzerumfrage, dass 23% (+7% zu 2017) der Nutzer einen FreeSync-Monitor haben und nur 14% (+3%) einen GSync-Monitor.
Und das bei 62% Nutzern, deren stärkste Grafikeinheit im System eine Nvidia Grafikkarte ist. Es sollte dementsprechend eine nicht unerhebliche Anzahl an Geforce-Nutzern mit FreeSync-Monitoren geben.
Die freuen sich jetzt aber richtig! Und nicht nur die.
Die überlegenen Anteile von FreeSync und vor allem der Trend zeigen deutlich, dass das Festhalten an GSync Nvidia mehr geschadet als geholfen hätte. FreeSync war im Begriff sich durchzusetzen und hat es sich jetzt sowieso mit dieser Entscheidung. GSync wird damit zum Nischen-Feature.
Die GPU Beratung hier im Forumläuft lief auch meistens so ab:
Hast Du einen FreeSync-Monitor, dann kaufst Du AMD. Hast Du einen GSync-Monitor, dann Nvidia. Es sei denn, Du benötigst eine GPU-Performance >Vega 64, dann muss es Nvidia sein.
Das ging oft soweit, dass selbst die Beschaffung größerer Netzteile, wegen der stromhungrigen Vegas, zur angeratenen Lösung wurden.
Für mich war es eine große Überraschung bei der CB-Nutzerumfrage, dass 23% (+7% zu 2017) der Nutzer einen FreeSync-Monitor haben und nur 14% (+3%) einen GSync-Monitor.
Und das bei 62% Nutzern, deren stärkste Grafikeinheit im System eine Nvidia Grafikkarte ist. Es sollte dementsprechend eine nicht unerhebliche Anzahl an Geforce-Nutzern mit FreeSync-Monitoren geben.
Die freuen sich jetzt aber richtig! Und nicht nur die.
Die überlegenen Anteile von FreeSync und vor allem der Trend zeigen deutlich, dass das Festhalten an GSync Nvidia mehr geschadet als geholfen hätte. FreeSync war im Begriff sich durchzusetzen und hat es sich jetzt sowieso mit dieser Entscheidung. GSync wird damit zum Nischen-Feature.
Die GPU Beratung hier im Forum
Hast Du einen FreeSync-Monitor, dann kaufst Du AMD. Hast Du einen GSync-Monitor, dann Nvidia. Es sei denn, Du benötigst eine GPU-Performance >Vega 64, dann muss es Nvidia sein.
Das ging oft soweit, dass selbst die Beschaffung größerer Netzteile, wegen der stromhungrigen Vegas, zur angeratenen Lösung wurden.
avalance schrieb:Was ich nicht weiss ,ist ob man über 100Hz überhaupt irgendein SYNC braucht.
Deshalb will ich es ja testen.
Ich hatte damals lediglich FreeSync mit einer R9390 und einer Range 35-90Hz erleben dürfen und ich empfand die 144Hz trotzdem als bessere Lösung.
Wenn jetzt Adaptive Sync zusammen mit den 144Hz funktionieren sollten, sage ich natürlich nicht nein. Wobei ich nicht davon ausgehe, dass ich irgendeinen Unterschied sehen werde. Für Tearing bin ich nicht wirklich anfällig bzw. wenn es nur im unteren Bereich auftritt, interessiert es mich in der Regel nicht.
Mir geht es da eher darum, ob ein nicht von Nvidia getesteter Monitor mit IPS-Panel problemlos funktioniert oder nicht. Die meisten Modelle, die Support erhalten haben, setzen alle auf TN. Hinzu kommt noch, dass der MG279Q nur per Treiber-Modifikation mit einer größeren FreeSync Range betrieben werden kann.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 34
- Aufrufe
- 2.363
- Antworten
- 4
- Aufrufe
- 1.291
- Antworten
- 12
- Aufrufe
- 1.375
- Antworten
- 6
- Aufrufe
- 581
- Antworten
- 3
- Aufrufe
- 1.007