Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News „Adaptive Sync“ wird Teil von DisplayPort 1.2a
- Ersteller Jan
- Erstellt am
- Zur News: „Adaptive Sync“ wird Teil von DisplayPort 1.2a
Krethi & Plethi
Banned
- Registriert
- Feb. 2014
- Beiträge
- 2.105
Mantle, DirectX, OpenGL,... haben ja auch so rein garnichts mit G-Sync oder FreeSync zutun^^

http://vr-zone.com/articles/death-spiral-nvidias-g-sync-begun/77368.html

http://vr-zone.com/articles/death-spiral-nvidias-g-sync-begun/77368.html
Zuletzt bearbeitet:
SavageSkull
Fleet Admiral
- Registriert
- Mai 2010
- Beiträge
- 14.961
Mittlerweile ist ja viel dazu geschrieben worden und keiner weiß so richtig was jetzt überhaupt Sache ist.
Ich schreibe jetzt mal was ich Verstanden habe und hoffe ihr könnt mich kurz aufklären/korrigieren:
1. keine Technik hat was mit der Wiederholrate im Allgemeinen zutun, 60Hz bleiben 60Hz
2. Das VBLANK verschiebt nur die Refresh Zeiten vom Bildaufbau, so dass ein neues Bild nicht zwingend bei 60Hz alle 16ms kommt, sondern Situationsbedingt wenn die Grafikkarte fertig ist, eben auch mal nach 20ms oder eben 10ms
3. Man kann die Refresh Zeit nur bedingt verschieben und so kann trotzdem Tearing/Shuttering auftreten, da man immer noch an eine fixe Wiederholrate/Anzahl Bilder hängt.
4. G-Sync hat zusätzlich einen Bildpufferspeicher der zusätzlich zu der Synchronisation den Effekt von Vsync übernimmt nur ohne Inputlag
5. Adaptive Sync ist nur eine technische Grundlage im Display Port Standard der ohne proprietäre Lösung von AMD "FreeSync" nichts bringt (also auch nicht für Intel oder Nvidia)
6. Adaptive Sync ist jetzt im Standard definiert, es wird nicht vorgeschrieben, dass ein DP1.2a Monitor das können muß, sondern nur, wenn er es kann, wie es gelöst ist, damit die GPU das ansprechen kann.
Ich schreibe jetzt mal was ich Verstanden habe und hoffe ihr könnt mich kurz aufklären/korrigieren:
1. keine Technik hat was mit der Wiederholrate im Allgemeinen zutun, 60Hz bleiben 60Hz
2. Das VBLANK verschiebt nur die Refresh Zeiten vom Bildaufbau, so dass ein neues Bild nicht zwingend bei 60Hz alle 16ms kommt, sondern Situationsbedingt wenn die Grafikkarte fertig ist, eben auch mal nach 20ms oder eben 10ms
3. Man kann die Refresh Zeit nur bedingt verschieben und so kann trotzdem Tearing/Shuttering auftreten, da man immer noch an eine fixe Wiederholrate/Anzahl Bilder hängt.
4. G-Sync hat zusätzlich einen Bildpufferspeicher der zusätzlich zu der Synchronisation den Effekt von Vsync übernimmt nur ohne Inputlag
5. Adaptive Sync ist nur eine technische Grundlage im Display Port Standard der ohne proprietäre Lösung von AMD "FreeSync" nichts bringt (also auch nicht für Intel oder Nvidia)
6. Adaptive Sync ist jetzt im Standard definiert, es wird nicht vorgeschrieben, dass ein DP1.2a Monitor das können muß, sondern nur, wenn er es kann, wie es gelöst ist, damit die GPU das ansprechen kann.
BookerDeWitt
Lieutenant
- Registriert
- Jan. 2014
- Beiträge
- 1.017
Und Punkt 5 ist schon mal komplett falsch. Intel und Nvidia basteln sich ihre eigene Software-Lösung die proprietär ist und dennoch den Standard in DP 1.2a gleichermassen wie FreeSync ansprechen kann. Daraus folgt: Jeder kanns machen, ergo es ist ein OFFENER Standard. Dabei kann Nvidia wenn sie es wollen 99% von AMD ab/umschreiben und nur anpassen und diese Lösung wie auch immer nennen (sicher das Gsync 2.0, mit "hochverbesserter Technik", denn "We [...] support what matters to our customer" (as long it's proprietary
)

HOOKii
Banned
- Registriert
- Feb. 2009
- Beiträge
- 1.269
Waro245 schrieb:Ja, Computerbase ist voll parteiisch und so, das übliche Lied ...
Oh nein, nein, ähhhh.... nicht wirklich....*amKopfKratzUndÜberleg*...nein, nicht wirklich....

- Registriert
- Jan. 2011
- Beiträge
- 2.628
SavageSkull schrieb:3. Man kann die Refresh Zeit nur bedingt verschieben und so kann trotzdem Tearing/Shuttering auftreten, da man immer noch an eine fixe Wiederholrate/Anzahl Bilder hängt.
4. G-Sync hat zusätzlich einen Bildpufferspeicher der zusätzlich zu der Synchronisation den Effekt von Vsync übernimmt nur ohne Inputlag
5. Adaptive Sync ist nur eine technische Grundlage im Display Port Standard der ohne proprietäre Lösung von AMD "FreeSync" nichts bringt (also auch nicht für Intel oder Nvidia).
Zu 3. Tearing nicht aber Stutter/Lags. Es gibt eine Mindestfrequenz, bei G-Sync sind es 30Hz also muss spätestens nach 33,3ms ein Refresh erfolgen. Laut Vesa ist das min. ~10Hz also spätestens nach ~100ms ein Refresh.
Zu 4. Der verbaute Speicher ist nicht viel mehr als was ein normaler Monitor eh hat. Da man das komplette PCB im Monitor ersetzt muß man auch den Speicher mit ersetzen.
Zu 5. Jeder GPU Hersteller kann Adaptive Sync nutzen. Free-Sync ist nur AMDs Software/Harwarelösung dazu. Wenn Intel will könnte man seine eigenen Treiber so anpassen, dass Adaptive Sync unterstützt wird. Die Hardware müßte es schon können (durch den schon vorhandenen eDP Support).
[F]L4SH
Rear Admiral
- Registriert
- Aug. 2008
- Beiträge
- 5.337
Der verbaute Speicher ist nicht viel mehr als was ein normaler Monitor eh hat.
Oh? Wirklich? Das wusste ich wirklich noch nicht. Waren in LCDs schon immer flüchtige Speicher verbaut und hat sich die Menge im Laufe der Zeit verändert?
Es interessiert mich wirklich sehr, weil ich es mir gar nicht vorstellen kann.
Dachte, der Monitor gibt nur wieder, was er just in time vom Kabel bekommt. Ohne Buffer.
Pat
Commander
- Registriert
- Jan. 2003
- Beiträge
- 2.255
@CB:

Ich denke hier hat sich ein Fehler eingeschlichen? "Active" soll wohl "Adaptive" heissen?Grafikkarten, die Active Sync nutzen werden können

Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.327
Krethi & Plethi schrieb:das sind fakten, brauchst ja nur schaun was man hier über gewisse hersteller schreiben darf und was bei anderen entfernt wird...
echt, las mal sehn. Alles was entfernt wird landet im Aquarium.
@ NV Stellungsnahme
Ich meine, dass Nvidia von Anfang an gesagt hat, dass GSync eine Zwischenlösung bis zu einem verfügbaren Standard ist, oder irr ich mich da? Alles andere gäbe auch wenig Sinn, also Gsync parallel zu etwas offenem zu vermarkten - außer GSync würde weit besser technisch dastehen und den Alleingang neben einem Vesa Standard in gewisser Weise rechtfertigen.
@ Mantle Vergleich
Dieser ist in sofern wohl eher vertretbar, wenn man anders an die Argumentation herangeht. So wie AMD mit Mantle MS und Nvidia in Arsch getreten hat - tritt Nvidia mit Gsync Vesa und anderen in den Arsch.
Heißt, es kommt erstmal allen zu Gute, denn ohne Nvidias Gsync hät AMD gar nichts von Freesync angefangen. Schaut man sich die Freesync Demo damals von AMD hat - weiß man, dass das binnen weniger Tage auf die Beine gestellt wurde und eher ne Schnellschussaktion war.
Umso besser ist, dass jetzt Mantle quasi DX12 gepushed hat und Gsync den Vesa Standard. Und ne, Mantle is sicher nicht so offen wie es ein DX12 ist. Mantle ist in AMDs Interesse und die werden Nvidia das Leben wohl kaum so dermaßen leicht machen, dass die mal eben ihre GPU Treiber auf Mantle trimmen wie sie lustig sind und Mantle selbst anpassen können. Wer das glaubt glaubt auch an den Weihnachtsmann

Wenn AMD sagt Nvidia kann Mantle nutzen, dann bedeutet das wohl soviel wie dass im Falle Nvidia Karten die Mantle API nen Fallback auf DX machen würde. Damit rennt es auf Nvidia Karten und AMD is fein raus.
Wie gesagt, Mantle und Gsync sind für den Endkunden gut - vor allem dadurch, dass sie der Anstoß für diverse Techniken gegeben haben.
Ergänzung ()
[F]L4SH schrieb:Dachte, der Monitor gibt nur wieder, was er just in time vom Kabel bekommt. Ohne Buffer.
wenn ich da an den InputLag denke ist es eig nur logisch dass jeder Monitor ja auch min 1 Bild vorhalten muss. TVs die dann noch mit 200hz + werben entsprechend mehr Bilder (zwischenrechnen) und dazu ja auch mehr als ein Bild vorhalten müssen.
Zuletzt bearbeitet:
- Registriert
- Jan. 2011
- Beiträge
- 2.628
[F]L4SH schrieb:Waren in LCDs schon immer flüchtige Speicher verbaut und hat sich die Menge im Laufe der Zeit verändert?
...
Dachte, der Monitor gibt nur wieder, was er just in time vom Kabel bekommt. Ohne Buffer.
Hier mal ein Bild von meinem kaputten 9 Jahre alten BenQ TFT mit 1280 x 1024 Auflösung.

Unschwer zur erkennen sind die 4 Samsung RAM-Bausteine um den großen VTI Chip.
Tulol
Vice Admiral
- Registriert
- Jan. 2004
- Beiträge
- 6.935
Wer schließt denn bitte schön seinen PC Monitor per HDMI an? oOEuathlus schrieb:Ja, aber wahrscheinlich bei den meisten Endkunden dank HDMI nicht ankommt.
Tulol
Vice Admiral
- Registriert
- Jan. 2004
- Beiträge
- 6.935
Wenn das so wäre wären funktionen wie "Overdrive" welche die Schaltzeiten beeinflussen gar nicht möglich. Anderes bsp ist das upscaling von reinkommenden Bildern wenn diese niedriger als die Physikalische Auflösung des Panels sind.[F]L4SH schrieb:Oh? Wirklich? Das wusste ich wirklich noch nicht. Waren in LCDs schon immer flüchtige Speicher verbaut und hat sich die Menge im Laufe der Zeit verändert?
Es interessiert mich wirklich sehr, weil ich es mir gar nicht vorstellen kann.
Dachte, der Monitor gibt nur wieder, was er just in time vom Kabel bekommt. Ohne Buffer.
Das sind alles Techniken die einen gewissen Pufferspeicher benötigen.
@PiPaPa
OK, ein Notebook fällt bei mir ehrlich gesagt nicht in die Kategorie des klassischen "PC".

Hab mich ehrlich gesagt schon lange nicht mehr damit beschäftigt, ist es denn tatsächlich so das an Notebooks eher HDMI als DP oder DVI verbaut wird? (SubD/VGA fällt hier mal total flach weil absolut nicht empfehlenswert)
Zuletzt bearbeitet:
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.901
Bei Consumer-Notebooks ist HDMI am verbreitetsten. Bei Business-Notebooks vielleicht schon eher DisplayPort, aber auch noch sehr oft VGA, weil es da draußen in Besprechungsräumen immer noch von alten Beamern wimmelt, die nur damit funktionieren (und andersherum kaum einen, der gar kein VGA mehr hat). Man kann ja schlecht seinen Kunden sagen, dass es die Präsentation nicht gibt, weil VGA veraltet ist. 
Ansonsten ist es bis hoch zu FullHD@60Hz ja eigentlich egal, ob HDMI, DP oder DVI. Meist wird es wohl davon abhängen, was für Kabel man zufällig rumliegen hat, bzw. was dem Monitor beiliegt.
Natürlich ist so ein DisplayPort-Kabel mit seiner Verrastung (oder auch DVI mit seinen Schrauben) viel hochwertiger und sicherer, als ein labberiges HDMI-Kabel, aber wenn es erstmal steckt und man es nicht mehr anfasst, ist das ja letztendlich egal.

Ansonsten ist es bis hoch zu FullHD@60Hz ja eigentlich egal, ob HDMI, DP oder DVI. Meist wird es wohl davon abhängen, was für Kabel man zufällig rumliegen hat, bzw. was dem Monitor beiliegt.
Natürlich ist so ein DisplayPort-Kabel mit seiner Verrastung (oder auch DVI mit seinen Schrauben) viel hochwertiger und sicherer, als ein labberiges HDMI-Kabel, aber wenn es erstmal steckt und man es nicht mehr anfasst, ist das ja letztendlich egal.
deathscythemk2
Commander
- Registriert
- Jan. 2013
- Beiträge
- 2.430
Vor allen Dingen sind HDMI Kabel afaik nur bis 5m spezifiziert...
chithanh
Commodore
- Registriert
- Okt. 2013
- Beiträge
- 4.164
Nein, NVidia hat G-Sync von Anfang an als ihre eigene proprietäre Technologie angesehen und keine Pläne gehabt, einen offenen Standard für Variable Refresh zu machen. Das hier schriebst du selbst zum Thema:Krautmaster schrieb:@ NV Stellungsnahme
Ich meine, dass Nvidia von Anfang an gesagt hat, dass GSync eine Zwischenlösung bis zu einem verfügbaren Standard ist, oder irr ich mich da? Alles andere gäbe auch wenig Sinn, also Gsync parallel zu etwas offenem zu vermarkten - außer GSync würde weit besser technisch dastehen und den Alleingang neben einem Vesa Standard in gewisser Weise rechtfertigen.
Krautmaster schrieb:http://techreport.com/news/25878/nvidia-responds-to-amd-free-sync-demoWhen asked about a potential VESA standard to enable dynamic refresh rates, Petersen had something very interesting to say: he doesn't think it's necessary, because DisplayPort already supports "everything required" for dynamic refresh rates via the extension of the vblank interval. That's why, he noted, G-Sync works with existing cables without the need for any new standards. Nvidia sees no need and has no plans to approach VESA about a new standard for G-Sync-style functionality—because it already exists.
Waro245 schrieb:Und warum reagieren hier so viele mit soviel Hass auf Nvidia? Bei Mantle wird AMD gelobt Vorreiter gewesen zu sein, bei G-Sync wird Nvidia dafür gehasst Vorreiter zu sein. Beides sind herstellerexklusive Features die jeweils ein anderes nach sich ziehen, dass wahrscheinlich allen zur Verfügung steht. Nur das eine ist rot, das andere grün.
1. Hass ist ein starkes Wort, sagen wir lieber Abneigung
2. Mantle ist ein zusätzlicher Standart AMD unterstütz weiter Opengl und will dort auch alle bestrebungen es in richtung Mantle zu verbessern mit machen.
3. und es ist eine Ausnahme das AMD mal was proprietär Herstellerspezifisch an bietet, bei Nvidia ist es die Regel, daher reagiert man da genervter.
4. außerdem ist es was anderes wenn man eine reine Treibernummer Software vorrübergehend nicht öffnet ein Standart der vielleicht auch wieder verschwindet, nach Linux wird er veraussichtlich wohl nicht portiert, als wenn man versucht Monitore inkompatibel oder nur noch teilkompatibel zu Grafikkarten anderer Hersteller zu machen.
5. die bisher Marktdominierende Technik (mal für spiele) war ja kein offener Standard der jetzt verbessert wird, sondern (bei mantle gehts soweit ich weiß ausschließlich um spiele, hab noch nicht gelesen das photoshop, 3dmax oder sonstwas das unterstützen will), sondern eine proprietäre Hersteller-spezifische (OS) Schnittstelle Directx. Also ist es nicht vergleichbar da hier nicht amd eine proprietäre Schnittstelle an bietet und Nvidia als großer Held eine offene Plattform pushen will, da das DX nunmal nicht ist. Opengl ist doch nur ein Feigenblatt, alle "Designed for Nvidia" spiele oder wie das heißt, sind wohl zu 100% DX Only Titel.
Zuletzt bearbeitet:
SavageSkull
Fleet Admiral
- Registriert
- Mai 2010
- Beiträge
- 14.961
Wie kann es dann zu Tearing kommen? Wenn da ein Buffer drin ist, ist doch immer ein komplettes Bild vorhanden?Matzegr schrieb:Der verbaute Speicher ist nicht viel mehr als was ein normaler Monitor eh hat. Da man das komplette PCB im Monitor ersetzt muß man auch den Speicher mit ersetzen.
Jesterfox
Legende
- Registriert
- März 2009
- Beiträge
- 44.484
Das Tearing entsteht schon bei der Ausgabe des Bildes aus der Grafikkarte (weil wärend des pixelweißen Auslesens der Buffer im VRAM der GPU gewechselt wird). Der Monitor weiß gar nichts davon das der Frame aus mehreren Teilbildern besteht.
Ähnliche Themen
- Antworten
- 34
- Aufrufe
- 2.365
- Antworten
- 24
- Aufrufe
- 2.002