News Spielermonitor: Asus MG278Q mit 144 Hz und FreeSync ab Ende August

zero389 schrieb:
genau, nur das gsync kostet und daher der hier billiger ist. Nvidia -.-
Ich habe mir den Swift wegen 3D Vision gekauft. Und? Kann dieser günstigere FreeSync Monitor 3D (wegen mir auch das AMD Pendant, gibt es da überhaupt eine ähnliche Lösung)?
Es ist und bleibt dabei, dass es keine identischen Monitore mit G-Sync und FreeSync gibt, so dass man sinnvoll vergleichen könnte.
 
Zuletzt bearbeitet:
terraconz schrieb:
Beide G und Freesync basieren auf Adaptive Sync da gibt es keinen Unterschied. Der einzige Unterschied ist das Nvidia eben das Modul in den Monitoren voraussetzt was gleichzeitig eine Art DRM und dezidierte Hardware darstellt.

Mich wundert das keiner widersprochen hat. G-sync basiert eben nicht auf A-sync. A-sync ist im Scaler des Monitors verbaut , G-sync wird über ein externes Modul geregelt. Der Grund warum man G-sync noch nicht beerdigt liegt vielleicht auch daran das Kepler nicht mit A-sync umgehen kann/konnte.
Freesync heißt nur der Treiber von AMD!
Und das am Ende nur 2 Monitor Hersteller an G-sync arbeiten und der Rest(inklusive den Beiden) sich mit A-sync vergnügt reicht doch schon als Basis das G-sync eine Niesche bleibt und wir vlt. schon im Pascalzyklus A-Sync Treiber von Nvidia bekommen.
 
Elite_Warrior schrieb:
Mich wundert das keiner widersprochen hat. G-sync basiert eben nicht auf A-sync. A-sync ist im Scaler des Monitors verbaut , G-sync wird über ein externes Modul geregelt. Der Grund warum man G-sync noch nicht beerdigt liegt vielleicht auch daran das Kepler nicht mit A-sync umgehen kann/konnte.
Freesync heißt nur der Treiber von AMD!
Und das am Ende nur 2 Monitor Hersteller an G-sync arbeiten und der Rest(inklusive den Beiden) sich mit A-sync vergnügt reicht doch schon als Basis das G-sync eine Niesche bleibt und wir vlt. schon im Pascalzyklus A-Sync Treiber von Nvidia bekommen.

Auch Gsync basiert auf adaptive sync und das mit dem Modul habe ich doch erwähnt verstehe deinen Einwand nicht. Du zitierst es sogar. Gsync ist im Prinzip adaptive sync in hardware "gegossen". Sieht man ja auch schön an Gsync bei Notebooks wo kein Modul zum Einsatz kommt.
 
Entsprechend ist bei G-Sync für Notebooks auch der Funktionsumfang eingeschränkt.
 
@Terra: Nein, "Adaptive Sync" ist der Vesa Standard, Nvidias G-Sync ist "Adaptiver V-Sync" ;)

€: Denn das Ergebnis das Beide liefern ist ziemlich gleich, nur ihre Arbeitsweise unterscheiden sich. Bei A-sync sagt die Grafikkarte wann die Bildausgabe erfolgt. Bei G-sync wird die Graka nicht gefragt sondern gibt diese nach eigenen ermessen aus.
 
Zuletzt bearbeitet:
Elite_Warrior schrieb:
@Terra: Nein, "Adaptive Sync" ist der Vesa Standard, Nvidias G-Sync ist "Adaptiver V-Sync" ;)
Adaptiver V-Sync ist etwas gänzlich anderes. Wenn man das im Treiber aktiviert, stellt der Treiber V-Sync aus, wenn man unter 60 FPS (60Hz Monitor angenommen) fällt und V-Sync wieder an, wenn man mehr FPS schafft. Dazu braucht man auch keinen besonderen Monitor.
 
Zuletzt bearbeitet:
Mich ärgert schon wieder, daß hier Leute unterwegs sind, die nach: "Ich habs gekauft, also kanns nicht falsch sein" argumentieren. Ein externes Modul, egal für was, war schon früher ne Gratwanderung. (siehe 3dfx) Allerdings ist sowas meist nicht beständig und verschwindet irgendwann. Es bedeutet immer einen Aufpreis und die Konkurrenz schläft nicht.
 
Zuletzt bearbeitet: (Typo)
@SavageSkull: Genau das tut ja das Modul im dem Sinne, FPS die oberhalb der Range gehen werden mit normalen V-Sync gedeckelt. Alles darunter wird ausgegeben sobald das Panel fertig refreshed hat.

A-sync ist da vollständig von Graka abhängig.
 
yummycandy schrieb:
Mich ärgert schon wieder, daß hier Leute unterwegs sind, die nach: "Ich habs gekauft, also kanns nicht falsch sein" argumentieren.
Das es (vor über einen Jahr, als es auf den Markt gekommen ist) mehr gekostet hat, war halt der "Early Adopter"-Aufpreis. Das sollte sich jedem der 600€ aufwärts Monitor gekauft hat klar sein.
Zur Zeit ist G-Sync einfach besser, weil es mit niedrigen FPS besser umgeht als die AMD FreeSync Lösung auf Adaptiv Sync Monitoren.
Ob da jetzt ein Standard am Monitor eingehalten wird, oder ein lizensiertes Bauteil extra verbaut ist, ist mir als Endkunde egal, denn Stand Heute legt man sich auf einen Hersteller fest, entweder AMD oder Nvidia vollkommen egal ob sich eine Lösung Standard schimpft oder nicht.
Mein Eindruck von der Technik (nutze es nicht, mich interessiert lediglich 3D) war, dass bei hohen FPS Zahlen auf einer hohen Hz Zahl man von der Technik gar nichts merkt.
Entscheidend ist der Bereich 30-50fps, was bei vielen AAA Spielen und 60Hz Monitoren Usus ist.

Elite_Warrior schrieb:
@SavageSkull: Genau das tut ja das Modul im dem Sinne, FPS die oberhalb der Range gehen werden mit normalen V-Sync gedeckelt. Alles darunter wird ausgegeben sobald das Panel fertig refreshed hat.
Adaptiver V-Sync lässt den Monitor bei einer konstanten Wiederholrate mit gleichem Abstand zwischen den Refreshs. Adaptiv Sync und G-Sync variieren im Abstand zwischen den Refresh Zyklen, das ist ein gewaltiger Unterschied.
Bei Adaptiv Sync/G-Sync hat man bei 78fps exakt 78Hz und die Frames werden in dem Abstand dargestellt, sobald das Bild von der Grafikkarte kommt, das kann zwischen Frame 1 und 2 10ms sein und zwischen Frame 2 und 3 18ms.
 
Zuletzt bearbeitet:
Naxtrumrar schrieb:
Haste was auf den Augen ? :D :D 24" reichen mir hauptsache die Auflösung stimmt. Wenn du dir deine Augen ruinieren willst mit ner Leinwand 20cm vor deinen Augen dann bitte

Hast du was am Hirn?:D
Es gibt auch Leute mit großem Schreibtisch die nicht 20cm vor der Mattscheibe kleben wollen. Außerdem kann man mit 32" wesentlich besser Produktiv arbeiten wenn die Auflösung stimmt.
 
DeusoftheWired schrieb:
Hat mich an die Zeit um 2000 rum erinnert, als sich die CS-Spieler die Mitte ihrer Röhre mit einem Filzstift markiert haben. Analoges Cheaten. :D


Ja, mich hat das auch an die alten Zeiten erinnert. ;-)
Jetzt per High-Tech nachgeliefert. In manchen Shootern vielleicht nicht schlecht, aber ich brauch das nicht mehr.

Sagt mal, ich hab ja immer noch n alten BenQ. Sind die IPS von den Reaktionszeiten denn jetzt nun Spieletauglich, auch für schnelle Schwenks(z.B. beim schnellen Umschauen in Open World games, wie Dying Light, oder TheHunter) und Bewegungen, oder ist für hardcore-Zocker eigentlich immer noch TN besser ?

Ich meine auch als Spieler hab ich natürlich nix gegen mehr Blickwinkelstabilität.
 
Berserkervmax schrieb:
21/9 und IPS Panel mit 144Hz das wäre es !
Wenn dir 75Hz reichen gibts da was von LG ;)
21:9 ist schon nicht schlecht zum zocken, habe das Gefühl viel mehr Übersicht zu haben, auf ein mal wirkt 16:9 so eingeengt.
Nur bei Videos ist das ne Sache für sich, 21:9-Videos werden oftmals in 16:9 mit schwarzen Balken hochgeladen, das Resultat sind 4 Schwarze Balken -.-
Bei Amazon ist das ein echtes Problem vielleicht mal Netflix ausprobieren.
 
Shaav schrieb:
Also meiner Meinung nach ist TN nichtmehr zeitgemäßg. Sowas hatte man mal als Kind aber das ist auch schon fast 10 Jahre her. Es wird eingdeutig Zeit für IPS.

Und was soll so schlecht am TN Panel sein? :rolleyes:
Beim zocken sitze ich direkt davor und da kommt es mir auch sehr auf die niedrige Reaktionszeit, IPS mag zwar ein etwas besseres Bild liefern, aber das von aktuellen TNs ist mit Sicherheit nicht schlecht und ich möchte spielen und nicht die ganze Zeit Screenshots oder dergleichen machen :freak:
 
Weil du nur TN benutzt
TN geht garnicht !

Schwarz Mist
Farben Mist
Betrachtungwinkel schecht

TN ist von der Bildqualität Überholt !
VA , IPS oder PLS sollen es schon sein !

Viele schauen nur auf die Reaktionszeit , aber der Inputlag ist genau wichtig für FPS Spieler !
 
Zuletzt bearbeitet:
Zurück
Oben