News „Adaptive Sync“ wird Teil von DisplayPort 1.2a

Herdware schrieb:
Bei Consumer-Notebooks ist HDMI am verbreitetsten. Bei Business-Notebooks vielleicht schon eher DisplayPort, aber auch noch sehr oft VGA, weil es da draußen in Besprechungsräumen immer noch von alten Beamern wimmelt, die nur damit funktionieren (und andersherum kaum einen, der gar kein VGA mehr hat). Man kann ja schlecht seinen Kunden sagen, dass es die Präsentation nicht gibt, weil VGA veraltet ist. ;)

Also wenn ich öfters Präsentationen halten müsste hätte ich ja ein Akku betriebenes (mit Stromkabel, sicher ist sicher) WiDi /MiraCast Gerätchen welches DVI, VGA, DP und HDMI Output hätte.
Glücklicherweise muss ich mich aber maximal 1 -2 x im Jahr damit rum schlagen das die vorhandenen DP Kabel gar nicht am Beamer angeschlossen sind ^^

@SavageSkull
Jester hats schon gesagt. Der Monitor ist mit 60 Hz an der GPU angeschlossen, alle 16 ms wird von der GPU ein Bild an den Monitor gesendet. Wenn da nun Tearing drin ist liegt das Bild auch mit Tearing im Framebuffer der GPU.

Btw, Logisch hat jeder Monitor ein Puffer! Das Bild wird schneller empfangen als es dargestellt werden kann. Ein Vertical refresh dauert bei einem 60 Hz Monitor 16 ms bis es wieder oben anfängt.
Ich bezweifle das diese 5m Kupferleitung eine SignalLatenz von weniger als 0.5ms hinkommt. (Aber ich bin kein Spezialist auf dem Gebiet!) Ansonsten wäre da ja eine gewaltige Schwankung in der Wiederholungsrate.
 
Zuletzt bearbeitet:
SavageSkull schrieb:
3. Man kann die Refresh Zeit nur bedingt verschieben und so kann trotzdem Tearing/Shuttering auftreten, da man immer noch an eine fixe Wiederholrate/Anzahl Bilder hängt.
Matzegr schrieb:
Zu 3. Tearing nicht aber Stutter/Lags. Es gibt eine Mindestfrequenz, bei G-Sync sind es 30Hz also muss spätestens nach 33,3ms ein Refresh erfolgen. Laut Vesa ist das min. ~10Hz also spätestens nach ~100ms ein Refresh.
Ist das denn sicher? Denn laut so gut wie allen Newsseiten wird Adaptiv Sync als Ruckler- & Tearingkiller beworben.
 
Nun wenn man ein 120 Hz Monitor hat und dem 150 FPS gibt, dann hat man trotz Free/G-Sync Tearing.

Man muss also immer noch nach oben Deckeln. Inkl der Nachteile des Zwischenspeichers.

10.png
 
so isses.
es wird quasi auf ein minimum reduziert. also fast nicht mehr sichtbar.
und es läuft nur bis zur maximalen bildwiederholrate des monitors.

mfg
 
TrueDespair schrieb:
Ist das denn sicher? Denn laut so gut wie allen Newsseiten wird Adaptiv Sync als Ruckler- & Tearingkiller beworben.

Free-/G-Sync funktioniert wie aktiviertes V-Sync. Der Unterschied ist, dass bei aktivierten V-Sync der Monitor immer nach x Millisekunden ein neues Bild aufbaut und wenn die GPU noch kein neues geliefert hat dann wird das alte nochmal dargestellt und somit kommt es zu Stutter/Lags. Free-/G-Sync verhindern genau dies indem der Monitor nicht mehr stur nach x Millisekunden ein neues Bild aufbaut sondern erst wenn ein neues Bild zur Verfügung steht -> kein Stutter/Lags. Free/G-Sync wird auch die max. Framerate auf die max. Bildwiederholrate des Monitors begrenzen -> kein Tearing.
 
3d-center beschreibt es schön :D

http://www.3dcenter.org/news/amds-freesync-wird-optionaler-bestandteil-von-displayport-12a

"Das klügste für nVidia wäre natürlich, ab einem gewissen Zeitpunkt DisplayPort 1.2a mit seinen Grafikkarten zu unterstützen – da steht momentan sicherlich das eigene Ego dagegen, aber irgendwann wird sich der allgemeine DisplayPort-Ansatz durchsetzen und dann muß nVidia reagieren."

was aber auch sehr interessant ist:
"
Auf nVidia-Seite sollten – wie bei G-Sync – alle Kepler- und Maxwell-basierten Grafikkarten die technische Fähigkeit zu Adaptive Sync besitzen – wieviel nVidia davon in späteren Treibern freischalten wird, ist natürlich noch ungewiß."

mfg
 
Warum sollte nVidia ein propritäres Feature von AMD unterstützen? Achja, Mantle soll ja auch von nVidia unterstützt werden. :evillol:

BTW: Es steht nichtmal fest, ob überhaupt andere Hersteller in nächster Zeit Adaptive-Sync unterstützen werden, wenn selbst AMD nur wenige GPUs angibt. Und die haben es im Alleingang entwickelt!
 
TrueDespair schrieb:
Ist das denn sicher? Denn laut so gut wie allen Newsseiten wird Adaptiv Sync als Ruckler & Tearingkiller beworben.
Gibt's denn überhaupt mal Infos zu der Technik an sich? Ich finde zwischen dem AMD<->Nvidia Gebashe und den halbherzigen "Bild-Niveau" Schlagzeilen leider nicht eine einzige technische Neuigkeit, die mal erklärt was da überhaupt passiert. Daher ja auch meine Aufzählung, was ich unter der Technik verstehe und mir dazu denke, aber anscheinend weiß da auch sonst kaum jemand mehr zu der Technik.
Irgendwie ist das ein schwaches Bild. Da wird so ein Hype schon jetzt gebildet und dabei kann es sogar sein, dass die Technik der nächste große Flop wird.
 
Sontin schrieb:
Warum sollte nVidia ein propritäres Feature von AMD unterstützen? Achja, Mantle soll ja auch von nVidia unterstützt werden. :evillol:
beides ist nicht proprietär...
 
@sontin

man merkt das du null plan hast und ein typischer hater bist, der jeden mist von sich gibt.
ein offener standard, der schon lange in Notebooks (auch mit nvidia grafik) verwendet wird kann nicht proprietär sein.
Und garantiert werden viele hersteller adaptive vsync implementieren.

mfg
 
die.foenfrisur schrieb:
Das klügste für nVidia wäre natürlich, ab einem gewissen Zeitpunkt DisplayPort 1.2a mit seinen Grafikkarten zu unterstützen – da steht momentan sicherlich das eigene Ego dagegen, aber irgendwann wird sich der allgemeine DisplayPort-Ansatz durchsetzen und dann muß nVidia reagieren."

Theoretisch würds auch genau anders herum gehen. Nvidia gibt die Nutzung der G-Sync-Funktion auch für die anderen GPU-Hersteller frei. Dann braucht man DP 1.2a erst gar nicht.
Das ist zugegebenermaßen eher noch unwahrscheinlicher, als das Nvidia auf Adaptive-Sync umsteigt.

Ich schätze, dass beides parallel am Markt existieren wird, wobei meiner Meinung nach auch ein recht großes Risiko besteht, dass die Monitorhersteller weder das eine noch das andere wirklich pushen. Könnte gut sein, dass "X-Sync"-Monitore kaum bis gar keine Verbreitung finden. Wäre nicht das erste Mal, dass viel Wind um ein Feature gemacht wird und am Ende nichts dabei rum kommt.
 
es wird jedenfalls mit sicherheit nur billigmonitore mit G-Sync geben, bei hochwertigen geräten die da der markt zu klein um ein teures modul das 99% der käufer nicht brauchen von der allgemeinheit zahlen zu lassen.
da würden die kunden einen anderen monitor kaufen.

ohne modul fallen keine mehrkosten an, das wird früher oder später den weg in alle monitore finden.
 
Krethi & Plethi schrieb:
ohne modul fallen keine mehrkosten an, das wird früher oder später den weg in alle monitore finden.

Allerdings dürfte sich auch da die Motivation der Monitorhersteller in Grenzen halten, denn schließlich wäre Free-Sync ein Feature, dass zumindest nach derzeitigem Stand der mit Abstand größte (Intel) und der zweitgrößte (Nvidia) GPU-Hersteller nicht nutzen. Unabhängig davon, ob das dafür benötige Adaptive-Sync nun offiziell spezifiziert ist oder nicht.
 
Das kommt wohl auch drauf an, was die Hersteller investieren müssen. Wenn das nur ein paar Euro sind und man im Gegenzug mit einem Feature werben kann, ist man sicher nicht abgeneigt, das mitzunehmen.
 
ob es intel nutzen wird steht noch nicht fest, also lieber mal abwarten!

da diese scaler massenware sind muß man wohl bald für die alten scaler sogar mehr zahlen.
 
Herdware schrieb:
Allerdings dürfte sich auch da die Motivation der Monitorhersteller in Grenzen halten, denn schließlich wäre Free-Sync ein Feature, dass zumindest nach derzeitigem Stand der mit Abstand größte (Intel) und der zweitgrößte (Nvidia) GPU-Hersteller nicht nutzen.

Gibt es neue Zahlen zum Marktanteil? Stand Q4 2013 lag Intel mit 65,1% vor AMD mit 18,3%, Nvidia mit 16,6% und Anderen mit 0,07%.

Adaptive Sync bietet ja nicht nur Vorteile beim Spielen. Es ermöglicht ja auch Judder freie Wiedergabe von Videos ganz egal welche Bildwiederholrate das Video hat. So könnte man es auch nutzen um Multimediamonitore zu bewerben.
 
Das wäre in der Tat etwas sinnvolles. Wobei man sagen muss, dass der Großteil der Menschen diese Ruckler wahrscheinlich bisher gar nicht aufgefallen ist.
Bei mir ist es so, dass ich erst seit PC Gaming diese Videoruckler sehe. Ein Vor-und Nachteil, wenn man auf dem PC zockt^^

GTA IV und Crysis 3 sind z.B. auch Spiele die auf den Konsolen sehr ruckelten. Irgendwie war ich in meinem Bekanntenkreis so ziemlich der Einzisgte der das überhaupt wahr genommen hat :D
 
Zuletzt bearbeitet von einem Moderator:
denen fällt sowas logischerweise nicht auf, weil sie keinen vergleich haben.
erst dann werden sie wach und wundern sich, wie sie das so lange aushalten konnten ^^

jeder ist dafür empfänglich, aber man muss es ihm zeigen.

und zu dem unsinn, das nv und intel adaptive vsync nicht unterstützen habe ich schon mal geschrieben,
dass alle es schon (mal) in ihren notebooks verbaut haben. intel, nv & amd.

das ist im desktop-bereich absolut null problem, nur die monitore müssen noch nachziehen.

und auch hier werden defintiv einige monitor-hersteller das anbieten (müssen), weil sie immer was neues und werbewirksames, als verkaufsargument brauchen ;)

es wäre ziemlich naiv zu glauben, dass es von den herstellern ignoriert wird.
zumal sie es ja in den notebook-displays auch einsetzen müssen.

​mfg
 
@Herdware
Und da sind wir wieder beim Henne Ei Problem.
Die Hersteller wollen keine Monitore damit herstellen weil es zu teuer ist und zu wenige potentiellen Kunden gibt. Und die anderen GPU Hersteller wollen den Standard nicht integrieren weil es zu wenig Produkte gibt die es unterstützen.

Sollte aber AMD wirklich so ein durchschlagender Erfolg erbringen wie viele behaupten wird sich das Problem mit der Zeit von alleine lösen.

Und Iwan gibt's dann vllt auch 120 Hz Monitore mit Blacklight strobing die das unterstützen. Dann werden wohl auch meine Dell U2311H ausgetauscht :)
 
Zuletzt bearbeitet:
desweeegen...

​mfg
 
Zurück
Oben