News ViewSonic: 6 × FreeSync und 1 × G-Sync, von günstig bis teuer

@HeinMueck
Wenn vsync off ist dann behält dein Monitor 60hz bzw 30hz oder zB 75hz einfach bei.
Egal ob du 100fps hast oder nur 10fps.
Mit vsync on wird versucht die fps Anzahl auf 60hz zu limitieren aber wenn du unter 60fps bist zB 59fps wird durch vsync automatisch sogar auf 30fps reduziert weil der "normale" Monitor wenn er es kann zB 30/60 hz unterstützt. Manche auch 75. gibt vll noch andere hz Bereiche aber 30/60 und 75 ist an sich Standart. Bzw mit neueren modele natürlich auch 100 120 144 usw.
 
@Clone
Ah, okay. Also wenn ich bspw. 30fps bei einem 60hz Monitor habe, werden die Bilder wahrscheinlich einfach gedoppelt nehme ich an!? Wieso ist das gegenüber den neuen Technik ein Problem?
 
27 Zoll, 1440p, 144hz und Freesync.... das wäe Interessant.

Wäre cool, wenn ein Monitor auch beide Funktionen bieten würde, im Grunde ist es vom Panel doch egal, es geht (wenn ich es richtig verstehe) nur um die "Kommunikation" zwischen Display und Grafikkarte, oder? Einen Monitor kaufe ich mir für eine längerfristige Zeit, als eine Grafikkarte, ist also nicht so toll, wenn man sich festlegen muss. Und das mal wieder nur, weil nvidia ihr eigenes Ding durchdrücken wollen -.-

Allgemein sollte 1440p mehr verbreitung haben. Der Unterschied zu UHD ist gar nicht so exorbitant und man hat genug Leistung mit aktuellen Grafikkarten. UHD wird auch mit der nächsten GPU Generation noch eine ordentliche Anforderung darstellen.
 
cor1 schrieb:
Wobei auch der G-Sync völlig überteuert ist. Mein PG278Q kann zwar nur 144Hz, ist aber durchaus vergleichbar aber kostet grad mal knapp die Hälfte.
Vergleichbar eher weniger. Ob man nun ein TN oder ein IPS Panel mit 144/165Hz betreibt sind völlig unterschiedliche Dinge und liegen preislich auch ein gutes Stück auseinander. Dennoch ist der Preis des Monitors sehr hoch (ähnlich zum neuen EIZO) und in Anbetracht der Verwendung des (vermutlich) gleichen Panels wie z.B. der Acer XB270HU frage ich mich, was der Monitor neben zusätzlichen Anschlüssen (dank dem neuen Gsync Modul) zu bieten hat. Selbst wenn die Qualitätskontrolle besser funktioniert, würde ich eher bei anderen Herstellern Lotto spielen als solch einen absurden Aufpreis zu zahlen.
 
Rollkragen schrieb:
Es ist noch lange nicht geklärt welcher Standard sich durchsetzen wird.
Es gibt nur einen Standard. Das ist der Adaptive Sync VESA Standard. Von AMD per FreeSync genutzt.
Nvidias G-Sync ist kein Standard. Das ist lediglich eine herstellerspezifische Lösung.
 
Clonemaster schrieb:
@muecke
Verstehe bist ein Trolli.

Nö, ich weiß es einfach nicht genau...Wieso ist es besser, dass man bspw. 30fps nativ anzeigt, statt einfach jedes frame zu verdoppeln, um 60 hz zu erreichen? Wird es unsauber, wenn man bspw. 45fps "doppeln" muss, weil hier nur 15 bilder fehlen, um 60hz zu erreichen?
 
Zuletzt bearbeitet:
Conceptions schrieb:
Ein Adaptive Sync Scaler, FreeSync Scaler gibt es nicht kosten aber im Vergleich wahrscheinlich 10-20$, ein G-Sync Modul dafür 200$.
Natürlich gibt es die oder meinst du ein FreeSync Monitore funktionieren ohne Scaler?

Ich zietiere mal kurz aus der AMD Pressemitteilung:
Under the technology partnerships, MStar, Novatek and Realtek each will develop a range of DisplayPort™ Adaptive-Sync-ready scalers to complement the new monitor product cycle in 1Q15.

Abgesehen davon tut das gar ncihts zur Sache. Selbst wenn Freesync auf magische art und Weise ohne Scaler funktionieren würde, dann würde es keinen Sinn machen in FreeSync Monitore ein GSync Modul einzubauen nur damit der Monitor überall eingesetzt werden kann.
 
Zuletzt bearbeitet:
Ich glaube er will darauf hinauf, dass FreeSync nur eine Grafikkarten-seitige Technologie ist, die Monitor-seitig auf Adaptive Sync aufbaut.
 
@HeinMueck

Das geht doch meistens nicht auf. Wenn du in-game 44fps hast, dann rechnest die Graka das auf 60Hz rauf (Vsync off), sprich irgendwelche von den 44 Bilder werden doppelt genutzt um 60Hz zu erreichen. Vsync wiederum ist stur, das Game produziert trotzdem soviel Bilder wie es kann, aber die Graka filtert raus und zeigt immer 60fps an, was auch nicht optimal ist. Kann zB zu Lags bei der Maus führen, da im GPU Cache mehr vorhanden ist als ausgegeben wird. Das im Falle wenn mehr als 60fps produziert werden. Werden unter 60fps produziert werden Bilder gelöscht bis auf 30fps runter und diese verdoppelt um 60Hz anzuzeigen. Bei Freesync und Gsync wird einfach genau das was die GPU berechnet an den Screen geschickt, natürlich einfach unter den meisten Bedingungen. Klar, wenn man über 144z hat ist es dann wieder dasselbe, da werden dann einfach nur 144fps ausgegeben. Aber die meistens Spiele bewegen sich ja eben in diesem FreeSync Bereich.
Was du eben schreibst ist ja unlogisch, 45fps werden nicht verdoppelt sondern bei vsync on reduziert auf 30fps und bei vsync off wird die Differenz auf die Monitorfrequenz hochgerechnet, womit du Zwischenbilder hast welche doppelt genutzt werden.
 
Richtig Limit. Der VESA Standard heißt Adaptive Sync und AMD hat den Teil seines Treibers, der eben jenen Standard nutzt, FreeSync getauft.

Es gibt daher nur Adaptive Sync Scaler, und nvidia welche einen VESA Standard nicht unterstützten.
 
HeinMueck schrieb:
Nö, ich weiß es einfach nicht genau...Wieso ist es besser, dass man bspw. 30fps nativ anzeigt, statt einfach jedes frame zu verdoppeln, um 60 hz zu erreichen? Wird es unsauber, wenn man bspw. 45fps "doppeln" muss, weil hier nur 15 bilder fehlen, um 60hz zu erreichen?

Was bei beispielsweise 47 fps auf 60 Hz passiert, hängt davon ab, ob man mit VSync on, off oder VSync+Triple Buffering spielt. Das Ergebnis ist immer suboptimal. Man hat entweder nur 30 fps obwohl man 47 haben könnte (VSync on) oder man hat Tearing (VSync off) oder es werden einige Frames mehrfach dargestellt bzw. weggelassen, andere wiederum nicht (VSync+Triple Buffering), was zu Rucklern führt. G-Sync/Freesync löst diese Probleme.
 
NoemSis schrieb:
Die sollen lieber mal WQHD in 27" bezahlbar machen.

Gibts doch für 380€ schon...
Bei manchen denkt man die wollens am liebsten geschenkt.


Aber 1200€ ist schon heftig wenn man die anderen Monitore sieht ViewSonic kann halt nur noch mit Quallität punkten ansonsten gibts kein Grund 300€ + mehr zu bezahlen.
 
Also ich wünsche mir: 24 Zoll, IPS Panel und Freesync mit vernünftigem VRR-Bereich. 27" sind einfach zu breit :(
 
FuchsDerBaer schrieb:
Es sollte doch eigentlich auch technisch möglich sein, Monitore mit FreeSync und G-Sync zu bauen (zB mit separaten DP-Ports), oder kann man nicht zwei Scaler in einen Monitor verbauen und hin und her schalten?

Oder sagen die NVIDIA Lizenzbestimmungen da wohl was gegenteiliges zu?

Dann wäre man jetzt wenigstens nicht so sehr gezwungen sich für die kommenden x Jahre einem GPU-Hersteller zu verschreiben :(

Da Nvidia ja auch adaptive Sync unterstützt (siehe G-Sync Laptops welche kein Modul haben) wird sich wohl "freesync" durchsetzen. Bzw ein freier Standard
 
noxon schrieb:
Und als AMD User bezahlst du auch gerne die Zusatzkosten, die ein G-Sync Modul mit sich bringt bzw. Ein nVidia User bezahlt auch gerne die Zusatzkosten, die ein zusätzlicher Freesync Scaler mit sich bringen würde?

Wenn die Möglichkeit bestünde sich gegen einen überschaubaren Aufpreis die Wahl des GPU-Herstellers offen zu halten, würde ich zumindest mal darüber nachdenken.

Beispiel: Ich möchte eigentlich jetzt einen neue Monitor haben. Eine neue GPU steht jedoch frühstens an, wenn Polaris und Pascal releast sind. Entsprechend hätte ich Interesse, mir offenhalten zu können, ob ich dann FreeSync/G-Sync nutze.
Dazu kommt, dass der Monitor wohl mehr als eine GPU-Generation mitmacht und man daher ebenfalls nicht auf einen Hersteller festgelegt wäre.

Diese Freiheit wäre mir vielleicht auch einen gewissen Aufpreis wert.
 
VX2757-mhd 27 Zoll 1.920 × 1.080, 60Hz, ? FreeSync 323 $ verfügbar
XG2701 27 Zoll
1.920 × 1.080, 144 Hz, TN FreeSync 529 $ später Januar
XG2700-4K 27 Zoll
3.840 × 2.160, 60 Hz, IPS FreeSync 913 $ später Januar
XG2703-GS 27 Zoll
2.560 × 1.440, 165 Hz, IPS G-Sync 1.217 $ März
VX2776-Smhd 27 Zoll
1.920 × 1.080, 60 Hz, IPS


Und wieder ist für mich nur Müll dabei.... Und die Preise.... was fürn schrott ist das denn.....
:rolleyes:
Wann kommt endlich mal ein gescheiter Monitor (curved, 21:9, 2160p 60hz free sync).... Die Hersteller bringen nur Müll auf den Markt.... aber solange es genügend Leute gibt die diese Scheiße fressen, wird es sich vermutlich nicht ändern. :(
Ergänzung ()

jk1895 schrieb:
Ahh, das Jammern geht langsam los... man merkt, dass die ganzen Monitor-Experten aus dem Bett kommen...

Guten Morgen bzw. Mahlzeit

Scheiße schmeckt toll sagte die Fliege....
Mal im ernst, die Monitore sind echt nur dreck. Wurde ja schon angemerkt.... entweder 1080p, oder nur 60 HZ.... was soll der Müll?
 
Conceptions schrieb:
Richtig Limit. Der VESA Standard heißt Adaptive Sync und AMD hat den Teil seines Treibers, der eben jenen Standard nutzt, FreeSync getauft.

Es gibt daher nur Adaptive Sync Scaler, und nvidia welche einen VESA Standard nicht unterstützten.

Das ist allerdings nur die halbe Wahrheit. G-Sync wurde vor Verabschiedung des optionalen VESA Standards veröffentlicht und implementiert. Im Gegenzug konnte AMD ja nur auf offene Standards setzen, denn eine Eigenentwicklung wäre wohl in der Versenkung verschwunden durch die Marktanteile.
Wie die Sache mittelfristig ausgeht, kann ich selbst nicht beurteilen. Ob man zeitnah bei einer Marktverteilung von 80 zu 20% jedoch bei Nvidia umdenken wird, darf bezweifelt werden. Stand jetzt muss man sich bei gewünschter VRR Technik beim Monitorkauf für einen Hersteller festlegen, weshalb es obsolet ist, dass einer der beiden ein offener Standard ist und der andere proprietär. Gut ist es nicht, allerdings auch nicht änderbar
 
Was heißt denn hier bitte die halbe Wahrheit?
AMD hat die Nutzung von Adaptive Sync bei der VESA eingereicht und diese Organisation mit ihren über 200 Mitgliedern (u.a. der IT Branche, nebst nvidia) hat dieses als offenen Standard definiert.

Da ist es schnurzpiepe das nvidia G-Sync zuerst gebracht hat. Nvidia hätte ja genauso zur VESA gehen können, wollten sie aber offenbar nicht, sondern lieber den Kunden an die eigene Suppe binden.

G-Sync kann in der jetztigen kein Standard sein oder gar werden.
Manchmal hab ich den Eindruck das Leute nicht wissen was ein Standard überhaupt ist.

Zumal AMD arbeitet ja auch gerade daran Adaptive Sync per HDMI zu realisieren bzw hat es schon realisiert, und will es per VESA Standard verbreiten. Da kann man nur hoffen das es dann auch in naher Zukunft entsprechende Fernseher usw geben wird.

Und jeder verkaufte Adaptive Sync Monitor ist ein Argument für den offenen Standard.
Warum ich mich als Kunde an einen Hersteller, gar über Jahre, binden sollte erschließt sich mir nicht.
 
Zuletzt bearbeitet:
cor1 schrieb:
Ja. Schon allein auf dem Desktop - ganz ohne Zocken - ist der sichtbar. Beim Spielen hast Du weniger Tearing und einen flüssigeren Bildablauf.

Hat man auch dann weniger tearing wenn man gerade so 60 fps erreicht? Auf einem 144Hz Monitor?
Ich verstehe nicht ganz warum alle so geil auf 3stellige Hz Zahlen, ich finde ja 60fps @60Hz und Vsync absolut flüssig und angenehm. Anspruchslos sind meine Augen nicht, weniger als 60fps ist für mich noch spielbar, weniger als 50 unspielbar.

Daher die Frage: was bringen einem die vielen Hz wenn die fps darunter liegen?
 
Zurück
Oben