News Asus MG279Q: IPS-Monitor mit 144 Hz jetzt offiziell mit FreeSync

Danke für den Link Noxon. Ich denke Frameverdopplung sollte Treiberseitig lösbar sein. So sollten beide Technologien wieder gleich auf werden. Was mich aber verwundert ist, dass man sich nicht an die G-Sync 30Hz hält wie dauernd posaunt wird.
 
kisser schrieb:
Ja, genau so meinte ich das.:)
Ah ok. Dann habe ich das tatsächlich missverstanden. Stimmt. Die 37 Hz sind natürlich vom Panel abhöngig und sollte es irgendwann mal Panel geben, die andere Frequenzen erlauben, dann gelten natürlich auch andere Grenzen für Freesync.

Das wird mit bestehenden TFT Technologien aber recht schwer werden, denke ich. Da dürfen wir glaube ich keine Wunder erwarten. Genauso wenig, wie wir in diesem Bereich auch nicht auf einmal mit Reaktionszeiten im µS Bereich rechnen können.

Ich könnte mir eher vorstellen, dass die AdaptiveSync-Scaler Hersteller in Zukunft selbst ähnliche Maßnahmen wie eine Refreshratenverdoppelung vornehmen wenn die Framerate zu niedrig ist um das Panel noch schnell genug mit Bildern zu versorgen. Ich sehe keinen Grund, warum das nicht noch in den Monitor integriert werden sollte. Besonders kompliziert kann dieser Mechanismus nicht sein.


Elite_Warrior schrieb:
Was mich aber verwundert ist, dass man sich nicht an die G-Sync 30Hz hält wie dauernd posaunt wird.
Wie die beiden in dem Video gesagt haben hätte nVidia angeblich nie ein unteres Limit offiziell spezifiziert. Die 30 Hz kommen vielleicht von einem der ersten GSync Monitorhersteller oder sowas, aber in Wirklichkeit liegt das Limit von GSync weit weit darunter. Mehr als man es überhaupt gebrauchen könnte.

Wichtig sind diese Bereiche allerdings nur für Performancedrops im Spiel und das man dabei keine Ruckler spürt, falls es wirklich mal vorkommen sollte, wenn man unter die 30 fps Grenze rutscht. Es gibt ja durchaus spiele, die gerne mal bei durchschnittlichen 60 fps bei viel Action für eine Sekunde um 100% einbrechen. Gerade in diesen Situationen sollte es dann natürlich nicht zu Microrucklern kommen und deswegen sind diese Tests auch recht wichtig auch wenn man sich ansonsten nciht unbedingt in den Bereichen <30 fps aufhält.
 
hey..und wann gibt es sowas als 24", 16:10 und 4k Auflösung? ich fand ja 4:3 immer besser und mit 16:10 konnte ich mich gerade noch so abfinden, aber 16:9 finde ich einfach zum kot***
 
noxon schrieb:
Ich könnte mir eher vorstellen, dass die AdaptiveSync-Scaler Hersteller in Zukunft selbst ähnliche Maßnahmen wie eine Refreshratenverdoppelung vornehmen wenn die Framerate zu niedrig ist um das Panel noch schnell genug mit Bildern zu versorgen. Ich sehe keinen Grund, warum das nicht noch in den Monitor integriert werden sollte.

Das setzt voraus, dass die Scaler-Hersteller sich für ein paar verwöhnte Gamer-Nerds interessieren, woran ich meine Zweifel habe. Für die ist Adaptive Sync vermutlich hauptsächlich ein Öko-Buzzword, um Geschäftskunden und grüne Politiker zu beeindrucken.
 
steeve_hgw schrieb:
Ich verstehe den ganzen Rummel nicht. Seit 7 Jahren zocke ich an LED TVs,
Hast du garantiert nicht :)
Was du jedoch offensichtlich hast ist die Gewissheit von der Marketingabteilung des einen oder anderen Blödmarktes für dumm verkauft worden zu ein.
 
JMP $FCE2 schrieb:
Das setzt voraus, dass die Scaler-Hersteller sich für ein paar verwöhnte Gamer-Nerds interessieren, woran ich meine Zweifel habe. Für die ist Adaptive Sync vermutlich hauptsächlich ein Öko-Buzzword, um Geschäftskunden und grüne Politiker zu beeindrucken.
Für AdaptiveSync müssen die Scaler sowieso speziell angepasst sein. Wenn also schon angepasste "Adaptive-Sync-ready scalers" dafür benötigt werden, warum also nicht noch ein paar weitere Änderungen daran vornehmen?
 
noxon schrieb:
Die Panels an sich haben aus technischen Gründen immer eine minimale Refreshrate die eingehalten werden muss und Freesync kann diese von der hardwareseite aus halt nicht verdoppeln oder verdreifachen wie GSync das tut, weil es halt ohne zusätzliche Hardware im Monitor auskommt.
GSync hingegen steht das GSync Modul zur Verfügung und kann daher bei niedrigen Frameraten zusätzliche Refrehsignale einfügen, wenn die Framerate zu niedrig ist.
Das ist technisch falsch. Hast du dafür Quellen?

Sharky99 schrieb:
Hast was falsch gelesen. Die Grenze bei NVidia ist 30 Hz für alle Monitore, bei 29 Hz wird das bild mit 58Hz dargestellt, also Frames doppelt angezeigt. Je nach Panel kann es aber schon darüber hinaus passieren, bei LG z.b. schon bei 37 fps. Bei AMD hast unter 40 Hz immer Tearing. Es ist also eine Ecke schlechter. Nur brauchbar wenn man dafür nicht extra bezahlt.
Auch das ist technisch falsch. Nvidias GSync hat zu keiner Zeit einen Monitor der 30Hz Frequenz bietet. Wenn ab 37 FPS die Frames doppelt so oft gezeigt werden bedeutet das z.B. bei 30 FPS, dass der Monitor 60Hz Frequenz bieten muss.
Hz!=FPS
Elite_Warrior schrieb:
Danke für den Link Noxon. Ich denke Frameverdopplung sollte Treiberseitig lösbar sein. So sollten beide Technologien wieder gleich auf werden. Was mich aber verwundert ist, dass man sich nicht an die G-Sync 30Hz hält wie dauernd posaunt wird.
Eben - das sind lediglich EDID Einstellungen der Monitore - dort kann für jedes Hertz die Anzahl der Refreshes definiert werden. Und AMDs GPUs sind eben mit diesen EDID-Standards kompatibel. Das benötigt deutlich mehr Feintuning für jeden einzelnen Monitor. Im Gegensatz zu Nvidia, die ja überall ein und das selbe Modul verbauen lassen und daher immer das selbe EDID Profil erhalten für die GPU. Hier hat Nvidia einfach eine gute Lösung gefunden die Panel-Defizite zu mindern. Völlig flickerfrei ist es trotzdem nicht geworden.
 
Bei ordentlichen Tests und Preisen ab 500 Euro (auch für B-Ware) werde ich zuschlagen. Ich bin zudem gespannt, wie der Stromverbrauch bei kalibrierter Helligkeit aussieht.
 
Hmm, ich liebäugle ja ohnehin mit einem Zweitmonitor neben dem P2715Q. Könnte interessant werden :)
 
Daedal schrieb:
Das ist technisch falsch. Hast du dafür Quellen?
Was genau soll von meiner Aussage falsch sein?
Panels müssen nach einer gewissen Zeit neu refresht werden, da sonst die Kristalle ihre Ausrichtung verlieren. TN Panels werden ohne Refresh zum Beispiel wieder komplett weiß. Deswegen kommt es ja auch zu einem Flacker-Effekt, wenn die refreshes nicht schnell genug hintereinander erfolgen. Die Farben der Pixel werden dann immer regelmäßig verblassen und anschließend wieder neu aufgefrischt und das erscheint einem dann wie ein flackern. Panels haben also grundsätzlich ein Minimum von 30-40 Hz wo so ein neues Refresh benötigt wird, damit die Kristalle neu ausgerichtet werden.

Jetzt ist es aber bei FreeSync/AdaptiveSanc so, dass die Refreshes nur durchgeführt werden, wenn die Grafikkarte ein neues Bild liefert und wenn die Framerate des Spiels bei lediglich 20 fps liegt oder so etwas, dann kommen die Refreshes halt nicht schnell genug. Daher das Problem. Die FreeSync Monitore sind nicht in der Lage sich selbst zu refreshen. Das ist ja der Sinn der ganzen AdaptiveSync Geschichte. Das Ganze soll dynamisch von der Grafikkarte gesteuert werden. Daher muss der Treiber bei der Untergrenze von 40 fps sagen, dass hier Schluss ist und von nun an nicht weniger als 40 Bilder pro Sekunde geschickt werden dürfen, da sonst zu wenig refreshes ausgeführt werden.

Bei Gsync funktioniert das Ganze etwas anders. Dort begrenzt der Treiber das Ganze nicht und schickt durchaus lediglich 20 Bilder pro Sekunde zum Monitor.
Da dort allerdings das G-Sync Modul im Monitor verbaut ist sorgt das dafür, dass die Refreshes immer in ausreichend häufiger Geschwindigkeit durchgeführt werden.
Bei 20 Bildern pro Sekunde würde es also zwischen jedem Bild drei Refreshes einfügen und so das Panel insgesamt wieder mit 60 Hz betreiben anstatt lediglich mit 20.

Guck dir am besten mal das Video in dem Artikel an. Da wird das Ganze eigentlich recht klar.


Naja. Nicht unbedingt. Hz und FPS sind beides Einheiten der Frequenz. Beides steht für 1/Sekunde. Hertz steht nur für etwas Beliebiges pro Sekunde während FPS für Frames pro Sekunde steht. FPS ist also nur etwas spezifischer. Mehr nicht. Eine Framerate kann man also durchaus auch in Hz angeben.

Völlig flickerfrei ist es trotzdem nicht geworden.
Ach ja. Wo stand das noch einmal? Ich habe ja jetzt einen Gsync Monitor und möchte das doch gerne mal überprüfen, denn bisher habe ich davon rein gar nichts feststellen können.
 
noxon schrieb:
Jetzt ist es aber bei FreeSync/AdaptiveSanc so, dass die Refreshes nur durchgeführt werden, wenn die Grafikkarte ein neues Bild liefert und wenn die Framerate des Spiels bei lediglich 20 fps liegt oder so etwas, dann kommen die Refreshes halt nicht schnell genug. Daher das Problem. Die FreeSync Monitore sind nicht in der Lage sich selbst zu refreshen.
Das ist technisch falsch. Hast du eine Quelle dafür, dass Adaptive Sync Monitore sich nicht selbst refreshen?
Denn in den VESA-Spezifiaktionen ist Panel Self Refresh seit 2011 Teil des Adaptive Sync Standards und Nvidia nutzt die selbe Technik:
[Update] GSync als grosser Bluff entlarvt - Nvidia nutzt AdaptiveSync der VESA für GSync

Quelle zu Vesas eDP-Spezifikation:
http://www.vesa.org/wp-content/uploa...ec-2010-v3.pdf

Ab Seite 24 wird spezifisch die Funktion für Adaptive Sync erläutert.
attachment.php
 
Da könnte doch Asus mal nen schönes Bundle anbieten: Monitor + R9 390X = ?€ :evillol:
 
Für 1000€ glatt würde ichs nehmen :D
Muss ich die nur noch auftreiben.
Mit dem Bundle wird man schon viel Spaß haben dann.

Aber ob es 1000€ wert sind, ob ne 220€ R9 280X und ein 1080p Monitor es nicht genau so gut tun...wer weiß.
 
noxon schrieb:
Naja. Nicht unbedingt. Hz und FPS sind beides Einheiten der Frequenz. Beides steht für 1/Sekunde. Hertz steht nur für etwas Beliebiges pro Sekunde während FPS für Frames pro Sekunde steht. FPS ist also nur etwas spezifischer. Mehr nicht. Eine Framerate kann man also durchaus auch in Hz angeben.

Natürlich ist es etwas völlig anderes. Das eine ist die Monitor Frequenz und das andere die Anzahl der Frames, welche die GPU in der selbe Zeit rendert.

Kein GSync Monitor kann bei 30 FPS 30 Hz. Der Monitor legt 60 Hz an. Und ebenso bei 35 FPS-> 70 Hz. Erst ab 40 FPS liegt auch die selbe Hz-Frequenz auf dem TFT-Panel wie FPS von der GPU ausgegeben werden.

Das einzige das Nvidia hier besser macht ist eben zwischen 30-40 FPS die Hz in Schritten zu verdoppeln:
zwischen 20 FPS und 30 FPS liegen 40-60 Hz an (das doppelte der FPS). Da 19 FPS hier wiederum unterhalb der 40 Hz fallen würden wird die Frequenz nun verdreifacht. So liegen hier nun 57 Hz an, für 18 FPS 54 Hz etc... bis eben wieder die 40 Hz Grenze erreicht wird bei 13 FPS (39 Hz) wo es nun zu einer vervierfachung kommt ab hier.

Das steht doch alles so in der von dir verlinkten Quelle von PCper inkl Bildchen, dass man dies sieht. GSync kommt ebenfalls zu keinem Zeitpunkt unter die 40 Hz Monitorfrequenz wie Freesync.
gsync2.png
 
Daedal schrieb:
Das ist technisch falsch. Hast du eine Quelle dafür, dass Adaptive Sync Monitore sich nicht selbst refreshen?
Was verstehst du denn hier unter selbst refreshen?
Natürlich führt die Elektronik des Monitors den refresh durch, allerdings nur, wenn es von außen durch die Grafikkarte getriggert wird und ein neues Bild anliegt.
Der Monitor kann nicht selbstständig zu beliebigen Zeitpunkten eigenständige Refreshes durchführen. Das geht definitiv nicht. Das kann nur ein GSync Monitor mit G-Sync Modul, der das Bild in seinem Zwischenpuffer gespeichert hat. Der kann selbst entscheiden, mal zu einem beliebigen Zeitpunkt einen refresh durchzuführen auch wenn noch kein neues Bild von der Grafikkarte vorliegt. Wird unter anderem auch gut in dem Video erklärt.

GSync als grosser Bluff entlarvt - Nvidia nutzt AdaptiveSync der VESA für GSync
Ja klar. Voll der Bluff. Der von mir oben beschriebene Prozess würde ja auch so super funktionieren ohne verbauten Buffer im Monitor. Natürlich kann ich mir vorstellen, dass Gsync auch viele der selben Features nutzt wie Freesync um die synchronisation zu realisieren, aber GSync ist halt deutlich mehr als nur die synchronisation. GSync wäre ansonsten ja genauso kacke wie Freesync und hätte die gleichen Probleme. Hat's aber nicht.
GSync kommt besser mit den Grenzbereichen klar, es hat keine Ruckler beim Überschreiten der Grenzen, es ermöglicht einen ULMB Modus, es nutzt den Framebuffer mit großer Wahrscheinlichkeit für Overdrivetechniken und sorgt für schärfere Bilder, es stellt sich vielleicht noch raus, dass es zu Input-Lag Optimierungen verwendet wird und so weiter und so fort.
Besonders auf Tests zum letzteren Thema bin ich noch gespannt. Der Acer Predator XB270HU hat jedenfalls einen nahezu nicht existierenden Input Lag von lediglich einer viertel ms + Pixelswitching Delay.

lag.jpg

Die Verarbeitung der Bilder geschieht also rasend schnell, was durchaus am Gsync Modul liegen könnte.

Daedal schrieb:
Natürlich ist es etwas völlig anderes. Das eine ist die Monitor Frequenz und das andere die Anzahl der Frames, welche die GPU in der selbe Zeit rendert.
Er hat ja auch nie gesagt, dass Hz = FPS sind und die GPU kommt hier ja überhaupt nirgendwo in's Spiel. Er sagte:

Die Grenze bei NVidia ist 30 Hz für alle Monitore, bei 29 Hz wird das bild mit 58Hz dargestellt, also Frames doppelt angezeigt
-- Ein Gsync Monitor stellt sein Bild mit einer variablen Bildwiederholrate dar. Sollte diese unter 30 Hz fallen, dann wird diese verdoppelt und wieder auf 58 Hz angehoben. Jedes Frame aus dem Buffer wird somit auch doppelt dargestellt. --

Das ist sinngemäß das war er gesagt hat und das ist bis auf die Tatsache mit den 30 Hz auch korrekt. Die Verdopplung fängt schon bei 37 Hz an, aber sein Beispiel ist auch so noch gültig.

Und ich habe dir nur gesagt, dass Hz und FPS nicht unbedingt zwei unterschiedliche Einheiten sind. Du kannst sie beide für Bildwiederholraten verwenden. Beides steht für 1/Sekunde. Wenn man also unbedingt möchte, dann kann man durchaus Hz und FPS durcheinanderwürfeln. Macht die Wikipedia Page zum Thema FPS übrigens auch so.


zwischen 20 FPS und 30 FPS liegen 40-60 Hz an (das doppelte der FPS). Da 19 FPS hier wiederum unterhalb der 40 Hz fallen würden wird die Frequenz nun verdreifacht. So liegen hier nun 57 Hz an, für 18 FPS 54 Hz etc... bis eben wieder die 40 Hz Grenze erreicht wird bei 13 FPS (39 Hz) wo es nun zu einer vervierfachung kommt ab hier.
Musst du mir nicht erzählen.

Das steht doch alles so in der von dir verlinkten Quelle von PCper inkl Bildchen, dass man dies sieht. GSync kommt ebenfalls zu keinem Zeitpunkt unter die 40 Hz Monitorfrequenz wie Freesync.
Ja, aber Freesync bleibt bei 40 Hz stehen. Das ist das Problem. Bei 40 Hz Vsync fallen dir die Ruckler extrem stark auf. Noch stärker als bei 60 Hz oder aber 144 Hz.
Und wenn man Vsync deaktviert, dann fallen dir die Tearing-Effekte bei 40 Hz extrem stark auf. Außerdem soll es beim überschreiten der Grenze immer einen spürbaren Ruckler geben, den du bei Gsync nicht spürst.
 
Zuletzt bearbeitet:
Edit:
Übrigens bietet AMDs Freesync bei Videoausgabe das selbe Feature: bei 24 FPS Video werden 48 Hz vom Monitor ausgegeben. Das ist lediglich eine Frage des Treibers und der Fimware. Wird das EDID Profil entsprechend programmiert ist bei AMD die selbe Technik mit dem nächsten Treiber mit dabei für die Spielausgabe.
Ergänzung ()

noxon schrieb:
Was verstehst du denn hier unter selbst refreshen?
Natürlich führt die Elektronik des Monitors den refresh durch, allerdings nur, wenn es von außen durch die Grafikkarte getriggert wird und ein neues Bild anliegt.
Der Monitor kann nicht selbstständig zu beliebigen Zeitpunkten eigenständige Refreshes durchführen. Das geht definitiv nicht.

Das ist falsch. Bitte lies die verlinkte VESA Spezifikation dort ist deutlich beschrieben das du dich irrst. Ohne Panel Self Refresh gibt es kein Adaptive Sync. Denn die Frametimes sind nicht konstant und der Monitor muss unter Umständen zwischen den gelieferten Frames der GPU das selbe Bild nochmals anzeigen. In welchem Anstand dies geschieht bestimmt alleinig die niedrigst mögliche Panel Frequenz in Hz welche wierum sich an der Qualität der Kristalle orientiert und wie lange sie ihren Zustand halten können ohne zu weit zu faden um ein flimmern zu verursachen.

Panel Self Refresh gibt es in zig Notebooks seit Jahren und das völlig ohne Gsync. Das einzige was man braucht ist eDP als Panel-Anbindung. Dies geschieht nun bei DP 1.2a Monitoren und verdrängt die LVDS-Anbindung die bisher üblich war.

Die Spezifikationen von eDP sehen auch schon weitere Verbesserungen bei den Adaptive Sync Fähigkeiten mit eDP 1.4a unter DP 1.3 - siehe Computerbase Artikel: https://www.computerbase.de/2015-02/edp-1.4a-unterteilt-display-panels-in-segmente/

Hier wird im nächsten Schritt sogar einzelne Segmente des Panels mit eigenem Frambuffer ausgestattet und seperates PSR ermöglicht - plötzlich hast du im Monitor 4 verschiedene Frequenzen und FPS je nachdem ob sich in dem Bildausschnitt etwas ändert. Wer weiss wie weit das runter skalierbar ist.

1-1080.871267209.jpg


Eine völlig neue Funktion bei eDP 1.4a ist die Multi-SST Operation (MSO), die ein sogenanntes Segmented Panel Display unterstützt. Das Panel wird dabei logisch in verschiedene Bereiche (Segmente) unterteilt, die, sofern die Elektronik dafür ausgelegt ist, separat unterschiedlich angesteuert werden können. Die Technik soll Strom sparen und auch dünnere und leichtere Panels ermöglichen, so die VESA. Mit eDP 1.4a wird die Möglichkeit geboten, ein solches Panel mit je zwei Leitungen für zwei Segmente oder je einer Leitung für vier Segmente zu versorgen.
Anzeige

Außerdem soll mit eDP 1.4a die Möglichkeit zur partiellen Aktualisierung (partial update) von Bildinhalten „Verfeinerungen“ erfahren haben. Dies ist eine Funktion der schon mit dem Vorgänger eingeführten Technik Panel Self Refresh (PSR). Partial update ermöglicht dem Grafikprozessor, nur jenen Teil des Displays zu aktualisieren, dessen Bildinhalt sich seit dem Update des letzten Bildes geändert hat. Eine bereichsweise statt flächendeckende Aktualisierung des Bildinhalts soll helfen, die Leistungsaufnahme weiter zu verringern, was im Mobilsegment eine große Rolle spielt.
Ergänzung ()

noxon schrieb:
Er hat ja auch nie gesagt, dass Hz = FPS sind und die GPU kommt hier ja überhaupt nirgendwo in's Spiel. Er sagte:


-- Ein Gsync Monitor stellt sein Bild mit einer variablen Bildwiederholrate dar. Sollte diese unter 30 Hz fallen, dann wird diese verdoppelt und wieder auf 58 Hz angehoben. Jedes Frame aus dem Buffer wird somit auch doppelt dargestellt. --

Das ist sinngemäß das war er gesagt hat und das ist bis auf die Tatsache mit den 30 Hz auch korrekt.
Nein das ist falsch. Die Verdoppelung fängt an unter 40 FPS und daher erreicht ein GSync Monitor nie eine Frequenz von 30 Hz. Zu keiner Zeit unter keinen Umständen hat eine GSync Monitor eine Frequenz von 30 Hz. Die niedrigste Frequenz die ein Monitor erreicht ist die selbe wie auch AMDs Freesync: 40 Hz. Ab hier verdoppelt Nvidia die Frequenz bei niedrigeren FPS und AMD lässt diese konstant bei 40 Hz. Schau mal auf das Bild und verstehe es endlich.
 
Daedal schrieb:
Übrigens bietet AMDs Freesync bei Videoausgabe das selbe Feature: bei 24 FPS Video werden 48 Hz vom Monitor ausgegeben. Das ist lediglich eine Frage des Treibers und der Fimware. Wird das EDID Profil entsprechend programmiert ist bei AMD die selbe Technik mit dem nächsten Treiber mit dabei für die Spielausgabe.
Wurde ja schon vermutet, dass das bald per Treiber nachgeschoben wird. Mal sehn, wie das funktioniert. nVidia treibt da wohl auch einige Spielereien beim Wechsel von Frequenzen. Besonders bei großen Sprüngen kann man wohl nicht so schlagartig die Frequenz verdoppeln oder verdreifachen. Da machen sie wohl einige Zwischenschritte, die sie in dem Video leider nicht weiter analysiert haben.


Das ist falsch. Bitte lies die verlinkte VESA Spezifikation dort ist deutlich beschrieben das du dich irrst. Ohne Panel Self Refresh gibt es kein Adaptive Sync.
Siehst du auch das kleine Teil mit dem Namen PSR Local Framebuffer. Das brauchst du nämlich um nach einem SelfRefresh wieder ein Bild auf dem Schirm zu haben.
Darauf waren die FreeSync User doch immer so stolz, dass sie keine zusätzliche Hardware und keine Framebuffer in ihren Monitoren brauchten. Ohne die funktioniert auch kein PSR. aus dem Buffer holt sich der Monitor nach dem refresh nämlich wieder das letzte Bild. Im Falle von GSync eben aus dem Gsync Modul.
Normale DP1.2 Monitore haben so einen Buffer nicht und können sich auch nicht selbst refreshen. Von dem was in Zukunft kommt hat hier keiner gesprochen.


Nein das ist falsch. Die Verdoppelung fängt an unter 40 FPS und daher erreicht ein GSync Monitor nie eine Frequenz von 30 Hz. Zu keiner Zeit unter keinen Umständen hat eine GSync Monitor eine Frequenz von 30 Hz. Die niedrigste Frequenz die ein Monitor erreicht ist die selbe wie auch AMDs Freesync: 40 Hz. Ab hier verdoppelt Nvidia die Frequenz bei niedrigeren FPS und AMD lässt diese konstant bei 40 Hz. Schau mal auf das Bild und verstehe es endlich.
Was verstehst du denn an "Das ist sinngemäß das war er gesagt hat und das ist bis auf die Tatsache mit den 30 Hz auch korrekt. Die Verdopplung fängt schon bei 37 Hz an, aber sein Beispiel ist auch so noch gültig." nicht? Du tust do als ob hier irgend jemand zwanghaft einen Monitor mit 30 Hz betreiben möchte. Wir wissen alle, dass die Monitore nicht mit 30 Hz funktionieren.

Das Einzige was er hier darlegen wollte war das Prinzip der Verdopplung. Das Gleiche was du ein paar Postings darunter auch noch mal groß und breit hingeschrieben hast. Ich denke so langsam haben wir es alle verstanden. Das ganze Theater, bloß weil er sich mit dem Grenzbereich um 7 Hz vertan hat? Man oh Man.
 
Zuletzt bearbeitet:
Daedal schrieb:
Ist zwar nun auch schon 3 Monate her seit ich das gelesen habe, aber ich glaub das hat sich doch als irrtum heraus gestellt, da zwar als "aktiviert" angezeigt wurde aber keinerlei funktionalität festgestellt worden ist, oder?



noxon schrieb:
GSync kommt besser mit den Grenzbereichen klar, es hat keine Ruckler beim Überschreiten der Grenzen, es ermöglicht einen ULMB Modus, es nutzt den Framebuffer mit großer Wahrscheinlichkeit für Overdrivetechniken und sorgt für schärfere Bilder, es stellt sich vielleicht noch raus, dass es zu Input-Lag Optimierungen verwendet wird und so weiter und so fort.

Wowowowow wie bitte ? Gsync UND ULBM können gleichzeitig aktiv sein?
Das wäre mir neu. Das war bisher immer der grosse nachteil von Gsync (und Freesync) dass dies eben gerade nicht möglich war.





aber ansonsten.... schön wie ihr euch streitet... fallen par nützliche informationen ab^^
 
Haldi schrieb:
Wowowowow wie bitte ? Gsync UND ULBM können gleichzeitig aktiv sein?
Das habe ich nicht gesagt. Gleichzeitig adaptiv syncen und ULMB aktivieren kann man natürlich nicht. Für ULMB braucht man hohe Bildwiederholfrequenzen und die kann einem ein adaptiver Sync ja nicht garantieren.

Was ich meinte war, dass zu einem Monitor mir GSync Modul mehr gehört als nur das adaptive Syncen. Dank der Hardware im Monitor lassen sich damit halt noch ein paar zusätzliche Features realisieren.


aber ansonsten.... schön wie ihr euch streitet... fallen par nützliche informationen ab^^
Jo. Hatte gerade nichts zu tun und war ganz froh auf ein wenig Unterhaltung. Von daher war's ganz nett.
Jetzt ist aber WE und da hab ich andere Dinge zu tun. :)
 
Zuletzt bearbeitet:
noxon schrieb:
Siehst du auch das kleine Teil mit dem Namen PSR Local Framebuffer. Das brauchst du nämlich um nach einem SelfRefresh wieder ein Bild auf dem Schirm zu haben.
Darauf waren die FreeSync User doch immer so stolz, dass sie keine zusätzliche Hardware und keine Framebuffer in ihren Monitoren brauchten. Ohne die funktioniert auch kein PSR. aus dem Buffer holt sich der Monitor nämlich nach dem refresh nämlich wieder das letzte Bild. Im Falle von GSync eben aus dem Gsync Modul.
Normale DP1.2 Monitore haben so einen Buffer nicht und können sich auch nicht selbst refreshen. Von dem was in Zukunft kommt hat hier keiner gesprochen.

Also du solltest wirklich aufhören dazu solchen Blödsinn zu erzählen. Das ist ja hanebüchen wie wenig du dich mit dieser Matereie befasst hast. ^^ Spätestens nachdem die VESA-Spezifikationen das deutlich sagen, die ich verlinkt habe und nachdem ich nun 2 mal schon ganz detailiert erklärt habe warum du falsch liegst solltest du aufhören und mal das Material lesen.

AMD brauch keine neue Hardware, weil bei DP 1.2a PSR mit an Bord ist. Dies ist bei DP 1.2, welches Nvidia nutzt nicht der Fall, die haben das selber zusammen gepfrimmelt. Jeder DP 1.2a Monitor hat einen PSR Framebuifer per default an Bord. Das sind nämlich die "neuen scaler" die gar keine scaler sind, sondern kompletter Monitor Controller. Diese sind nun mit eDP angebunden anstatt LVDS wie das bei DP 1.2 noch Standard war.

Jeder Monitor mit DP 1.2a und AdaptiveSync hat einen PSR Framebuffer - sonst dürfte da gar nicht DP 1.2a drauf stehen. Nvidias GSync-Module haben DP 1.2 und daher deutlich weniger Bandbreite - deshalb wurde auch der Audiokanal sowie einige andere Monitorsteuerungskanäle geopfert um die zusätzlichen Infos für Gsync transportieren zu können. Deshalb das eigene Modul. AMD hat einfach auf die angekündigten DP 1.2a Controller gewartet und braucht daher keine neue Hardware, sondern lediglich die, welche die neue Monitor-Generation mit DP 1.2a sowieso bekommt.


Was verstehst du denn an "Das ist sinngemäß das war er gesagt hat und das ist bis auf die Tatsache mit den 30 Hz auch korrekt. Die Verdopplung fängt schon bei 37 Hz an, aber sein Beispiel ist auch so noch gültig." nicht? Du tust do als ob hier irgend jemand zwanghaft einen Monitor mit 30 Hz betreiben möchte. Wir wissen alle, dass die Monitore nicht mit 30 Hz funktionieren.
Das hat überhaupt keinen Sinn gemacht. Wenn wir alle wissen dass kein GSync Monitor unter 40 Hz taktet dann sagen wir das auch so in einem Technikforum. Das war schließlich mein Einwand über den du dich hier rumwindest die ganze Zeit. Also lass das doch einfach so stehen wenn ich mit meiner Korrektur Recht habe. Da summieren sich solche Ungenauigkeiten zu dem zusammengefassten technisch falschen Blödsinn den du da über Gsync und auch AdaptiveSync erzählst.

Haldi schrieb:
Ist zwar nun auch schon 3 Monate her seit ich das gelesen habe, aber ich glaub das hat sich doch als irrtum heraus gestellt, da zwar als "aktiviert" angezeigt wurde aber keinerlei funktionalität festgestellt worden ist, oder?

Nein hat es sich nicht. Nvidia hat gegenüber Pcper zugegeben, dass GSync auf Laptops ohne GSync Modul funktionieren wird. Dort ist schlißlich eDP schon lange Standard und muss nicht durch ein zusätzliches Modul ergänzt werden wie es bei DP 1.2 der Fall war. DP 1.2a hat diesen Bedarf auch nicht mehr und daher wird es wohl auch keine weiteren GSync Monitor-MODULE geben.
Steht auch dort im Artikel im Update:
PCPer hat nun das funktionieren von Gsync ohne ein GSync Modul bestätigt. Ausführliche Tests und Erläuterungen:
http://www.pcper.com/reviews/Graphic...d-Alpha-Driver
Ebenso hat Nvidia mit den Testergebnissen konfrontiert bestätigt, dass Gsync auf Notebooks kein Gsync-Modul benötigen wird.
NVIDIA will release G-Sync on mobile devices without the requirement of a G-Sync module,
 
Zuletzt bearbeitet:
Zurück
Oben