Kommentar Kommentar: Nie wieder ohne FreeSync/G-Sync

Dai6oro schrieb:
2. Ist Adaptive Sync nicht schlechter. Die Range die hier immmer wieder bemängelt wird liegt nicht an Adaptive Sync sondern nur am Panel respektive verbautem Scaler.

Das liegt auch daran, dass das G-Sync-Modul automatisch auf doppelte/dreifache etc. Refreshrate wechselt, wenn sie unterhalb der Spezifikation des Panels liegen würde:

http://www.pcper.com/reviews/Graphics-Cards/Dissecting-G-Sync-and-FreeSync-How-Technologies-Differ

Solange weder AMD (treiberseitig) noch die Scalerhersteller etwas vergleichbares anbieten, ist das Modul eben nicht "unnötig".

Glub schrieb:
Ich hab nen "normalen" 1ms 144Hz Monitor ohne FreeSync/G-Sync ( ASUS VG248QE ) und ich kenne weder Tearing noch stottern noch sonst was ...

120+ Hz/Vsync off ist in der Tat eine brauchbare Alternative, weil Tearing damit deutlich weniger sichtbar ist.

Absolut indiskutabel sind nur 60Hz-Monitore bei Vsync off. Deshalb bin ich vor ca. 6 Jahren auch vom Röhrenmonitor direkt auf den ersten 120Hz-Flachbildschirm umgestiegen, die minderwertige Zwischenstufe habe ich ausgelassen.
 
Idon schrieb:
Warum sollte NVIDIA ein schlechteres Produkt anbieten/einen schlechteren Standard unterstützen?

Immer weder erstaunlich mit welcher Vehemenz solch ein Unsinn verbreitet wird.
Adaptive Sync nutzt dieselbe Technik wie Nvidia und ist weder schlechter noch besser.

Dass viele Adaptive Sync Monitore noch nicht ganz sogut ausfallen wie die G-sync Monitore, liegt daran, dass die Scaler erst noch angepasst würde.
Entgegen deiner Behauptung gibt es aber sehr wohl auch vergleichbare Async Geräte.
Zudem hat man bei 4K A-Sync Geräten deutlich mehr Auswahl als bei G-sync.

JMP $FCE2 schrieb:
Das liegt auch daran, dass das G-Sync-Modul automatisch auf doppelte/dreifache etc. Refreshrate wechselt, wenn sie unterhalb der Spezifikation des Panels liegen würde:

http://www.pcper.com/reviews/Graphic...ologies-Differ

Solange weder AMD (treiberseitig) noch die Scalerhersteller etwas vergleichbares anbieten, ist das Modul eben nicht "unnötig".

Die Frameverdopplung kann genausogut über den Treiber stattfinden und wird einngesetzt weil die G-sync Monitore nicht unter 36/37 Hertz Syncen können.
Letzten Endes bringt die Frameverdopplung gar nichts, jedenfalls nicht wenn ein Free oder G-sync Gerät bereits bis 30 FPS runtergeht und diesen Zustand haben wir ja bereits.

Das Modul selbst ist nur als DRM Zwang gebaut worden und hat technisch überhaupt keine Relevanz.

Freesync Monitore mit einer Range von 30 bis 160 Hertz:

http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&N=-1&IsNodeId=1&Description=aoc%20144Hz&bop=And&SrchInDesc=Freesync&Page=1&PageSize=30
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Entgegen meiner Absichten, habe ich nicht mehr auf die Vereinigung von FreeSync und G-Sync gewartet. Ich habe auf Adaptive Sync und damit vorerst auf AMDs FreeSync gesetzt. Wäre meine nächste Grafikkarte eine von Nvidia, mit dem synchronen Spielen wäre es vorbei. Ich bin Enthusiast genug, um dieses Risiko einzugehen. Ich hoffe auf eine baldige Unterstützung von Adaptive Sync durch Nvidia.

Öh, ich könnt mich böse täuschen, aber G-Sync ist Free Sync überlegen.
Auf dem Papier und beim subjektiven Eindruck
http://www.tomshardware.com/reviews/amd-freesync-versus-nvidia-g-sync-reader-event,4246.html

Daher verstehe ich diese Aussage nicht oder der Zusammenhang fehlt.

Für mich kommt es wegen dem Mangel an günstigen G-Sync Monitoren
mit gutem IPS Panel nicht infrage. Das ist mein persönlicher Hemmschuh.
Im Schnitt 500-600€ für ein halbwegs gescheites Gerät ist einfach maßlos
übertrieben, denn der Gegenwert zu einem herkömmlichen schnellen LED
ist nicht das 3fache Wert für mich. Mein 47" IPS TV hat 430€ gekostet, das
ist meine Vegleichsbasis. Wenn der halb so große Monitor die Hälfte kostet,
ist das ok, aber nicht mehr als das.

Von dem RIESEN PROBLEM mit Tearings, V-Sync und Framerates bekomme
ich ich ehrlich gesagt nicht so viel mit, dass es mich stört, Input Lag habe
ich entweder nie gehabt, oder ich habe es nie bemerkt oder es hat mich
nie gestört oder meine Skills beinträchtigt. Wers Geld hat, ok, aber ich stecke
lieber das Geld in eine Grafikkarte, die für konstante 60fps mit Vsync sorgt
und immer noch nur halb so viel kostet wie ein ordentlicher Sync-Monitor.
 
Siemens-Nixdorf schrieb:
Sowas mach ich sicher nicht.
Sehr lobenswert, denn man läuft einfach in zu großen oder zu kleinen Schuhen herum, denn man tauscht doch nicht um, nur weil einem ein Artikel dann doch nicht nicht zusagt.
 
schnief schrieb:
1) G-Sync erzeugt keinen spürbar höheren Input-Lag.
Was du meinst, ist vermute ich die Mauszeigerbewegung bei Spielen mit G-Sync und weniger als 60 FPS.
2) Der Mauszeiger bewegt sich bei Spielen wie Starcraft II immer mit den maximalen FPS, die der Monitor liefern kann, als bei 60 Hz mit 60 FPS, egal, wieviel FPS das Spiel an sich hat.
3) Mit G-Sync ändern sich die Hz des Monitors aber auf die FPS des Spiels. Läuft dieses mit nur 40 FPS, gilt dies auch für den Mauszeiger. Das spürt man deutlich.

Bei Spielen, wo der Mauszeiger eine wichtige Rolle spielt, sollte man daher G-Sync abschalten, wenn man nicht mindestens 60 FPS erreicht.

Erzähl das mal einen professionellen Quake Live Spieler, er hat schon einmal erwähnt, das es etwas komisch ist ...

http://www.twitch.tv/fazz

Monitor: Asus Swift PG278Q + 24" Asus 144hz + 1 CRT 140hz

ASUS ROG Swift PG279Q 165Hz 2560x1440 27-in IPS G-Sync Monitor
https://www.youtube.com/watch?v=zCy2vjWBdJc&html5=1
 
Zuletzt bearbeitet:
Ich sitze das Ganze einfach bis nächstes Jahr aus und hoffe, dass dann klar wird, wie der gemeinsame Standard heißen wird.

Mein nächster Monitor und meine nächste GPU sollten dann diesen Unterstützen.

Ein klein wenig Hoffnung hab ich noch. Aber spätestens Ende nächsten Jahres werde ich wohl gezwungen sein, endlich aufzurüsten, sowohl bei Monitor, als auch bei GPU.
Wäre schön, wenn z.B. Pascal schon einen gemeinsamen Standard unterstützt.
Dann könnte ich mir den passenden "4k" Monitor dazu auch kaufen.
 
borizb schrieb:
Öh, ich könnt mich böse täuschen, aber G-Sync ist Free Sync überlegen..

Es gibt im Netz schon sehr viele Tests und da ist erstmal festgestellt worden, dass beide Techniken gleich gut funktionieren.
Das ist auch die Kernaussage des Tests dieser Seite hier.
Eine generelle Überlegenheit von G-sync existiert nicht. Allerdings gibt es bei G-sync noch die besseren Monitore in der Menge.
Bei Freesync muss man sich nen guten suchen, der dann auch vergleichbar ist.

Das müsste für mich mindestens ein Gerät mit 35 bis 144 Hertz Unterstützung sein.


Für mich kommt es wegen dem Mangel an günstigen G-Sync Monitoren
mit gutem IPS Panel nicht infrage. Das ist mein persönlicher Hemmschuh.

Dann kaufe halt einen Freesync Monitor und mit der Preisersparnis bekommst auch noch ne Grafikkarte oben drauf die das kann.;)
 
Zuletzt bearbeitet:
Idon schrieb:
Warum sollte NVIDIA ein schlechteres Produkt anbieten/einen schlechteren Standard unterstützen?

Ist Adaptive Sync wirklich das schlechtere Produkt? Das hängt wohl auch vom Anwender ab, und wenn der Anwender eine Konsole oder ein Notebook neben dem PC am Monitor betreiben oder eine umfassende Farbkalibrierung vornehmen möchte, werden aus den meisten G-Sync-Monitoren ganz schnell teure Briefbeschwerer. Weil die meisten Monitorhersteller zusätzliche Videoeingänge aus Kostengründen einsparen, denn das grüne Monster will ja mit Lizenzgebühren gefüttert werden. Weil Nvidia die möglichen Bildeinstellungen und OSD-Funktionen einschränkt und den Monitorherstellern die Nutzung eigener Technologien untersagt und offenbar auch noch die Farbkalibrierung erst in die "Gefore-Experience" und dann in die grüne Cloud holen möchte.

Das mag dem durchschnittlichen Gamer, der nur bis zu den Wänden seiner kleiner Zockerbude denken kann, egal sein, aber wer von seinem 600 Euro Monitor mehr erwartet als nur eine perfekt flüssige Bilddarstellung, der schaut mit G-Sync in die Röhre. Eigentlich wollte ich eine Geforce-Grafikkarte in meinem neuen PC verwenden, und ich wäre sogar dumm genug, den unverschämten Aufpreis für einen G-Sync-Monitor zu fressen, aber wenn ich mir die OSD-Menüs des ASUS PG278Q und des ASUS PG279Q anschaue, kommen mir jedes Mal zuerst die Tränen, und dann muss ich lachen weil es Leute gibt, die voller Freude einen Aufpreis von mindestens 100 Euro für diesen Quatsch zahlen.

G-Sync kann nichts, was die Verwendung einer proprietären, lizenzpflichtigen und somit teuren Technologie rechtfertigen würde. Eine Sync-Range von 30 bis 160hz? Das kann auch FreeSync, und tntsprechende Monitore drängen nun langsam auf den Markt, interessanterweise und entgegen der Trends zunächst im nach wie vor interessanten und günstigen 24'' Gaming-Segment. Einzelbild-Verdoppelung bei Unterschreitung der Sync-Range? Das wird sich wahrscheinlich auch Software-seitig lösen lassen, ist aber ohnehin ein nur minder wichtiges Feature, denn unterhalb von 30 bis 40 FPS möchte man ohnehin nicht spielen. Backlight Strobing? Gibt es auch mit FreeSync. Variable Overdrive? Gibt es auch mit FreeSync. Adaptive Sync über HDMI? Das kann auch FreeSync, allerdings wird die Implementierung noch dauern.

Das alles kann FreeSync bereits oder wird es in naher Zukunft können. Unterm Strich ist FreeSync dennoch jetzt schon das bessere Produkt, denn der Kunde wird nicht auf ein oder zwei Videoeingänge beschränkt, und der Kunde wird nicht genötigt, seine Farbkalibrierung über einen Treiber vorzunehmen, der auf vielen Geräten, die man vielleicht außerdem an dem Monitor betreiben möchte, gar nicht zur Verfügung steht. Mal abgesehen davon, dass FreeSync jetzt schon deutlich günstiger ist und langfristig noch günstiger werden wird. Der wichtigste und oft übersehene Vorteil von FreeSync ist aber, dass es kein abgeschotteter Standard ist. Wenn Eizo oder BenQ eine clevere Technologie entwickeln, die das Erlebnis mit Adaptive Sync noch weiter verbessern kann, dann können sie diese Technologie auch zwanglos in ihren Geräten verwenden oder gar zum Teil des offenen Standards machen. Bei G-Sync ist man hingegen von der Lust und Laune eines einzigen Entwicklers abhängig, denn Nvidia lässt ja niemanden mitspielen, und man muss stets hoffen, dass sich Nvidia nicht irgendwann auf dem Geleisteten ausruhen wird, wie es Microsoft jahrelang mit DirectX getan hat.

Letzten Endes erfüllt G-Sync nur einen Zweck: Herstellern und Kunden Lizenzgebühren und Mehrkosten aus dem Portemonnaie zu leiern und die Gamer an die eigenen Produkte binden. Nvidia will ein eigenes, proprietäres Ökosystem schaffen. Das Problem dabei ist, dass Nvidia nicht alle Bedürfnisse der Game abdecken kann. Wer genau in das Profil passt, erhält derzeit bei den Grünen noch ein überlegenes Gaming-Erlebnis mit einigen interessanten aber zusehends marginaler werdenden exklusiven Features. Alle anderen Anwender, die sich nicht in das enge Korsett von Nvidia quetschen lassen wollen und können (wie ich zum Beispiel), fahren bereits jetzt mit FreeSync deutlich besser.

Wenn du noch immer fragen willst, warum Nvidia einen vermeintlich schlechteren Standard unterstützen sollte, dann stelle ich die Frage, warum ich einen Aufpreis von schnell über 100 Euro für einen Standard ausgegeben sollte, der restriktiver ist und unterm Strich jetzt schon weniger kann als der offene Standard? In ein bis zwei Jahren wird auch Nvidia den offenen Standard unterstützen, aber sie werden es als ein Feature und nicht als Niederlage verkaufen.
 
Zuletzt bearbeitet:
Dai6oro schrieb:
Ansonsten sehe ich neben der Range keine Vorteile für Gsync im Gegenteil es ist einfach teurer.
Dann guck dir mal die Schlieren auf den Freesync und auf den vergleichbaren G-Sync Monitoren an.
Um korrekte Overdriveberechnungen durchführen zu können muss der Monitor wissen, wann das nächste Bild kommt. Das ist bei dynamischen Updateraten aber nicht mehr gegeben. Deswegen versagen bei Freesync Monitoren die herkömmlichen Overdrive-Algorithmen und sie haben wieder recht viele Schlieren.
G-Sync Monitore hingegen führen die Overdriveberechnungen in den G-Sync Modulen durch und die haben auch die Information zur Verfügung wann das nächste Bild erscheint. Die wissen also wie sie die Pixel ansteuern müssen. Ergo. Keine Schlieren. variable Overdrive
Das ist meiner MEinung nach der wichtigste Vorteil von G-Sync.
Für Gamer ist vielleicht noch wichtig, dass der Inputlag ein klein wenig geringer sein sollte, da bei G-Sync Monitoren keine Scaler zum Einsatz kommen und diese Verarbeitungszeit daher komplett entfällt.

TFTCentral hat eigentlich eine recht gute Gegenüberstellung von Freesync und G-Sync zusammengestellt.
 
JMP $FCE2 schrieb:
120+ Hz/Vsync off ist in der Tat eine brauchbare Alternative, weil Tearing damit deutlich weniger sichtbar ist.

Absolut indiskutabel sind nur 60Hz-Monitore bei Vsync off. Deshalb bin ich vor ca. 6 Jahren auch vom Röhrenmonitor direkt auf den ersten 120Hz-Flachbildschirm umgestiegen, die minderwertige Zwischenstufe habe ich ausgelassen.

Es giebt auch schlechte Röhrenmonitore die kleinere Auflösungen nur unter Umständen in 120fps abbilden können, ich habe so ein scheiss Ding :D

Das eizige was stört, ist die Farbdarstellung & Leuchtkraft, ein Röhrenmonitor finde ich viel angenehmer ...

Siehe Fazz wenn er in 4:3 überträgt, nähmlich dann ist es ein Röhrenmonitor-Stream :)
 
Zuletzt bearbeitet:
Dai6oro schrieb:
Wie oft denn noch. Es gibt einen Vesa-Standard, der ist frei ohne Lizenzgebühren und kann von jedem genutzt werden (solange er bei der Vesa Mitglied ist was bei beiden IHVs zutrifft). Also nennt das Kind beim Namen:


Nvidia sollte Adaptive Sync unterstützen!


Immer das gleiche Geschwurbel.

Ich stimme zu.

GevatterTod schrieb:
Wenn du noch immer fragen willst, warum Nvidia einen vermeintlich schlechteren Standard unterstützen sollte, dann stelle ich die Frage, warum ich einen Aufpreis von schnell über 100 Euro für einen Standard ausgegeben sollte, der restriktiver ist und unterm Strich jetzt schon weniger kann als der offene Standard? In ein bis zwei Jahren wird auch Nvidia den offenen Standard unterstützen, aber sie werden es als ein Feature und nicht als Niederlage verkaufen.

Ich denke leider dass eher ein Gsync2 kommt.
 
Zuletzt bearbeitet:
Ich persönlich hatte keine Lust auf eine Entscheidung G-Sync vs. Free/Adaptive Sync. Bis sich das (analog Blu-Ray vs dieses andere, vergessene Medium) beim nächsten Monitorkauf in ein paar Jahren aussortiert hat, ist es deshalb UHD geworden. Und zurück zu weniger Auflösung möchte ich nicht, der Gewinn an Bildqualität ist richtig nett.
 
diamdomi schrieb:
Die Monitore sollten sich generell mal anpassen:

2560x1440 bei maximal 24 Zoll, 120 hz +, ips und g-Sync/free-Sync
Und das für unter 500, am besten unter 350

Leider noch nix auf dem Markt oder angekündigt

Und ich hätte gerne einen Ferrari für 20.000€ am liebsten unter 5.000 ...
 
ballistix schrieb:
Freesync Monitore mit einer Range von 30 bis 160 Hertz: [...]

Auszug aus dem Produktdatenblatt des AOC G2770PF:

V=50~146Hz (DVI)/ 50~76Hz (other)

Die Horizontalfrequenz hat damit übrigens nichts zu tun und ist in kHz angegeben, die "Hz" im Datenblatt des G2460PF sind offensichtlich ein Tippfehler.

Explizite Hinweise auf einen Freesync-Fangbereich bis 30 Hz kann ich nicht finden. Das einzige mir bekannte Modell mit kompletten 30-144 Hz ist der in Europa nicht lieferbare Nixeus.

ballistix schrieb:
Die Frameverdopplung kann genausogut über den Treiber stattfinden

Sehe ich auch so, allerdings bisher keine Resultate seitens AMD.

borizb schrieb:
Wers Geld hat, ok, aber ich stecke
lieber das Geld in eine Grafikkarte, die für konstante 60fps mit Vsync sorgt
und immer noch nur halb so viel kostet wie ein ordentlicher Sync-Monitor.

Welche Grafikkarte schafft in jeder Situation minimal 60 fps bei z.B. Witcher 3 und hohen Details ? Wenn es die gibt, ist sie nicht nur teuer, sondern man muss sie auch noch alle 2-3 Jahre austauschen, wenn noch anspruchsvollere Spiele auf den Markt kommen.

Ganz abgesehen gönnt einem ein 60Hz-Monitor nicht die höheren Frameraten in weniger fordernden Szenen, 99% der Zeit verplempert man also teuer bezahlte Grafikkartenleistung, die sich sonst entweder für höhere Frameraten oder höhere Auflösungen/Detaileinstellungen nutzen ließe.

Marco^^ schrieb:
Erzähl das mal einen professionellen Quake Live Spieler, er hat schon einmal erwähnt, das es etwas komisch ist ...

Da ist nichts komisch, solange man mit etwas Sicherheitsabstand unterm Maximum die Framerate kappt (ich nutze com_maxfps 135).

Sieht man auch hier bei CS:GO:

http://www.blurbusters.com/gsync/preview2/

Input lag bleibt auf Vsync-off-Niveau, solange die Framerate passend gekappt wird.
 
Zuletzt bearbeitet:
noxon schrieb:
Dann guck dir mal die Schlieren auf den Freesync und auf den vergleichbaren G-Sync Monitoren an.
Um korrekte Overdriveberechnungen durchführen zu können muss der Monitor wissen, wann das nächste Bild kommt. Das ist bei dynamischen Updateraten aber nicht mehr gegeben. Deswegen versagen bei Freesync Monitoren die herkömmlichen Overdrive-Algorithmen und sie haben wieder recht viele Schlieren.
G-Sync Monitore hingegen führen die Overdriveberechnungen in den G-Sync Modulen durch und die haben auch die Information zur Verfügung wann das nächste Bild erscheint. Die wissen also wie sie die Pixel ansteuern müssen. Ergo. Keine Schlieren. variable Overdrive
Das ist meiner MEinung nach der wichtigste Vorteil von G-Sync.
Für Gamer ist vielleicht noch wichtig, dass der Inputlag ein klein wenig geringer sein sollte, da bei G-Sync Monitoren keine Scaler zum Einsatz kommen und diese Verarbeitungszeit daher komplett entfällt.

TFTCentral hat eigentlich eine recht gute Gegenüberstellung von Freesync und G-Sync zusammengestellt.

Danke für die Links. Nicht zu vergessen, zum Zeitpunkt von G-Sync gab es kein Adaptive-Sync als optionalen VESA-Standard, der wurde erst später hinzu gefügt. Ebenso ist der bei Freesync zu verwendende Scaler teurer, da er das kleine "a" mit den variablen Refresh mit darstellen muss. Kostet zwar keine proklamierten $100 wie bei Nvidia, aber umsonst ist der aufwendigere Scaler eben auch nicht.

Um zu verstehen, weshalb Nvidia nicht auf den nun VESA Standard aufspringt, bedarf es keiner großen Logik. Die Anteile von dedizierten AMD-Karten sind bei ca. 20% zu 80% (Intel interessiert hier relativ niemanden) und eher rückläufig anstatt massiv am zulegen. Betriebswirtschaftlich und in gewisser Weise technisch gesehen dürfte also Nvidia wenig Interesse haben, das mit zu unterstützen. Das wiederum müssen sich dann Acer, ASUS, Samsung und Co als Monitorhersteller überlegen, wie viel Geld, Produktreihen und Forschung investiert werden soll in die doch kleinere potentielle Zielgruppe von AMD-Kartenbesitzern (und "auf den Markt drängen" sollte man wohl eher nicht verwenden, vielmehr tröpfenweise mit teils unsinnigen Funktionsspannen von 40-75). Klingt komisch, ist aber so. Kann man mögen, muss man allerdings auch nicht. Nur gehe ich realistisch betrachtet davon aus, dass es auf absehbare Zeit so bleibt und vielleicht wie bei den DVD-Rohlingen auf Monitore auslaufen könnte, die beides können. Darüber hinaus ist zu vermuten, dass die ablehnende Haltung gegenüber G-Sync von Leuten kommt, welche eh eine AMD Karte haben und dieses dann nicht nutzen könnten. Allerdings gehe ich an Hardwarekäufe eher weniger emotional sondern rational ran, da fällt mir auch kein Zacken aus der Krone, einen Monitor für eine gewisse Zeit nur mit einem Hersteller nutzen zu können. Ist ja kein Kreditvertrag mit 30 Jahren Laufzeit sondern nur ein Betrag von 400 - 800€. Mein Iiyama hat auch kein Displayport-Anschluss, oh mein Gott.

Und mal Butter bei die Fische, ich les hier ständig "könnte man über Treiber realisieren". Dass man bei solchen Feature-Ankündigungen bei AMD eher lange Wartezeiten einplanen sollte, sieht man schon an dem VSR Gefrickel. Ich würd mich darauf nicht verlassen, sondern wenn ich just vor dieser Entscheidung steh, eher noch warten bis sich das tatsächlich in Software ergeben hat. Wenn mir mein Swift nimmer taugt, wird er verkauft und was neues angeschafft...
 
Sehe auch die Zukunft bei ASync (FreeSync). Da den Monitorherstellen einfach mehr ihre Freiheit gelassen wird.

G-Sync wird auf Dauer ein Nischenprodukt werden und bleiben. Mann kann doch einen normal denkenden Menschen nicht erklären warum ein G-Sync Modell rund 100,-€ teurer ist als eine ASync Variante. Beide können letztendlich das gleiche. Bei G-Sync habe ich evtl. noch den Nachteil weniger Anschlüsse zu haben.

Des Weiteren ist mir die max. FPS weiter über 60Hz weniger wichtig. FPS-Lock rein und die Karte drosselt entsprechend ihrer Leistung und wird dadurch effizienter. Warum bei jedem Spiel max. FPS jenseits von 100Hz und viel mehr gehen wenn 60 Hz mit ASync ausreicht?
 
Zurück
Oben