Kommentar Kommentar: Nie wieder ohne FreeSync/G-Sync

refilix schrieb:
Letztendlich hab ich mich für für einen Dell Monitor ohne Sync Technologie entschieden. Dafür aber mit einem guten Bild.
...
grüße refi

Gibt es diesen oder einen sehr ähnlichen Monitor auch mit einer sync-Technik?
 
Marcel55 schrieb:
Dass Problem dass man sich entscheiden muss sehe ich nicht, früher oder später wird sich Adaptive Sync durchsetzen und gezwungenermaßen auch von nVidia unterstützt, bis dahin sind Freesync-Monitore günstiger und aktuelle AMD-Grafikkarten so gut, dass es keinen Grund gibt unbedingt nVidia nehmen zu müssen.

Wie du schon so nett anmerkst
früher oder später
...
Aktuell sieht es aber noch so aus als würde es eher später als früher werden.



Mir fällt gerade aber noch eine Frage ein, die ich schon eine Weile auf der Zunge habe, sie aber immer wieder vergesse:
Muss die GPU eigentlich hardwareseitig FreeSync unterstützen oder ist das eine reine Treiber Sache?
Ich persönlich würde es nämlich echt gerne sehen wenn Nvidia für ihre aktuellen 900er Modelle noch FreeSync Support nachbessern könnte :)
 
JMP $FCE2 schrieb:
Da ist nichts komisch, solange man mit etwas Sicherheitsabstand unterm Maximum die Framerate kappt (ich nutze com_maxfps 135).

Input lag bleibt auf Vsync-off-Niveau, solange die Framerate passend gekappt wird.

250 benutz er, auf ESR hat maleiner gesgt, das die 30er (120-150-180-210-240) Schritte auch nicht mehr so stimmen ...

com_maxfps fix and thoughts on 250 fps
http://www.esreality.com/post/2531656/com-maxfps-fix-and-thoughts-on-250-fps/

I just bought the Asus VG248QE With the G-sync DIY kit.

After one day I can only say this...
G-sync is slightly overrated, It gives you low but, to me atleast, noticeable input lag.


Genau das was ich schon s.O. erwähnt habe ...
 
so dann nochmal richtig:
multimediafähig ohne 30FPS-Beschränkung
UHD ab 32", besser 4K ab 34"
AdaptiveSync 20-144Hz (gerne mit Nvidia, wenn sie es übers Hz bringen)
S-IPS (10bit) oder besser
unter 15ms gesamt-Latenz im Trough-Modus
50W bei der Darstellung von Weiß und voller Helligkeit

ansonsten: pfff, mein 6 Jahre alter 24"er ist besser bzw. lohnt sich noch kein Umstieg auf kurzweilige Zwischenschritte ;)
am Geld liegt es NICHT, kommt einfach mal langsam aus dem...! :D
 
Idon schrieb:
Link zur offiziellen Stellungnahme von AMD dazu, bitte.

Ansonsten ist das alles eine Frage der Lizenzgebühren - vielleicht solltest du dich also lieber erstmal informieren wie das in der wirklichen Welt so abläuft.
Brauchst du auch eine offizielle Stellungnahme von AMD dazu, dass AMD kein CUDA und GPU-Physx unterstützt, du Held?

Lizenzgebühren für etwas bezahlen, was man mit einem Standard erreichen kann? Dai6oro hat schon Recht, informieren dich mal bevor du was schreibst.

Wenn es Monitore mit zu hoher min Frequenz gibt, dann hat es nur der Monitorhersteller zu verantworten. Mit FreeSync hat es nichts zu tun, der Treiber kann schon ab 9 Hz synchronisieren.

Ich persönlich wäre schon ab 35Hz glücklich. Mit 30fps oder noch weniger würde ich kein Spiel spielen wollen.

Was mich ärgert ist dass dieses Feature erst jetzt kommt. Ich weiss noch zu Half Life 2 Zeiten, wie mich dieses Tearing gestört hatte. Heute spiele ich praktisch jedes Singleplayer Spiel mit Vsync und stabilen 60fps, denn nur dann hat man ein absolut angenehmes flüssiges Bild.
Mit weniger als 50fps ist für mich praktisch jedes Spiel unspielbar. Und 60fps mit Vsync sind mir lieber als 100 ohne.

Worauf ich nun warte ist ein 1080p, 23'' IPS Fsync Monitor mit 35-60Hz für ca. 200€.
 
Zuletzt bearbeitet:
Photon schrieb:
Nun, wenn die Spieler mit ihrem Portemonnaie zeigen, dass sie einen freien Standard, den beide große Hersteller nutzen können, unterstützen und dem Standardkrieg ein Ende setzen wollen, dann wird der erwähnte Hemmschuh hoffentlich bald der Vergangenheit angehören. Gsync wird, technische Aspekte hin oder her, nie die endgültige Lösung des Dilemmas, es sei denn, nVidia öffnet den Standard für andere Hersteller.

Wie soll ich das als "Spieler" machen?
Ich kaufe kein AMD und NVIDIA bietet nur GSync... was nun?
Ich werde bestimmt nicht in den sauren Apfel beissen und AMD nur wegen diesem einen Punkt kaufen. Da überwiegen für mich die Vorteile von NVIDIA. Und mit einem 120 Hz Monitor habe ich sowieso keine solchen Probleme wie die 60 Hz Spieler, auch nicht wie die 60 Hz + FreeSync Spieler...

120 Hz ist meiner Meinung nach das absolute Minimum beim Monitor und die Grafikkartenfeatures kommen erst an zweiter Stelle.

120 Hz > 60 Hz + Freesync
 
Ich hoffe auf eine baldige Unterstützung von Adaptive Sync durch Nvidia.

Das wird nicht passieren, weil dann G-Sync und damit eine Geldeinnahmequelle durch Lizenzgebühren von Nvidia sterben würde.

und das G-Sync keine vorteile gegenüber FreeSync bringt, außer das G-Sync draufsteht und hohe Lizenzgebühren an Nvidia gezahlt werden müssen, wurde ja schon hinlänglich bewiesen.
 
Um ehrlich zu sein: ich habe keine eigenen Erfahrungen gemacht, was FreeSync/G-Sync betrifft. Ich kann demnach auch nur mutmaßen oder erahnen, was mit diesem Gestocke und Geruckel gemeint sein soll.

Ist es denn nicht so, dass ein System sehr potent sein muss, um die genannten Techniken optimal unterstützen und wiedergeben zu können? Sprich entsprechend leistungsfähige Grafikkarte und den dazu passenden Bildschirm - entsprechend teuer das Ganze und somit wohl nur was für Enthusiasten? In dem Fall ist Unwissenheit wohl ein Segen :rolleyes:
 
Zuletzt bearbeitet:
Ja, die Technik ist schon klasse. Leider sind die Preise aber auch entsprechend hoch. Ich kann mir solch einen Monitor schlicht nicht leisten (jedenfalls nicht in der Größe, die ich gern hätte). Auch eine entsprechend kompatible Graka müsste noch dazu her. War soll das denn bezahlen?

Leider werd ich auf diese Technik noch ne ganze Weile verzichten müssen, wenn die Monitor Hersteller nicht sehr bald deutlich günstigere Geräte anbieten werden.
 
TheManneken schrieb:
Ist es denn nicht so, dass ein System sehr potent sein muss, um die genannten Techniken optimal unterstützen und wiedergeben zu können? Sprich entsprechend leistungsfähige Grafikkarte und den dazu passenden Bildschirm - entsprechend teuer das Ganze und somit wohl nur was für Enthusiasten? In dem Fall ist Unwissenheit wohl ein Segen :rolleyes:

Das Gegenteil ist der Fall! G-Sync und FreeSync helfen ja gerade dabei das Spielen auch bei weniger potenter Grafikhardware angenehmer zu machen.

Bislang hatte man bei Spielen, die auf der eigenen Hardware nicht durchgängig 60 FPS erreichen das Problem entweder Vsync-Geruckel (wenn die Grafikkarte zwischen 30 und 60 FPS hin und her springt) oder Tearing hinnehmen zu müssen. Mit adaptiver Monitor-Refreshrate kann das Spiel auch mal nur mit 50 oder 45 FPS laufen ohne dass es dem Spieler gleich unangenehm auffällt.

Natürlich gibt es auch die Fraktion, die sagt, dass alles unter 100 FPS ruckelig ist - und in Multiplayer-Spielen zählt vermutlich auch jede Milisekunde Frame Time - aber für den Normal-Singleplayer-Spieler wie mir wirkt ein Spiel schon ab 40 FPS flüssig genug.
 
Es kommt ganz einfach auf die Spiele und Spieler an, nicht auf die Hardware.
Ein "schlechter Spieler" merkt sowieso fast nichts und bei einem langsamen Spiel sind geringer Ping, hohe FPS und 120 Hz eben nicht wichtig.
 
mir reichen ja im Moment noch 1080p aus, höher will ich eigentlich nicht da ich mir auch nicht so häufig Grakas kaufe, eher alle 3 Jahre mal.
Die interessanten Freesync 1080p Monitore scheinen aber in Europa noch nicht angekommen zu sein, wie zum Beispiel der Nixeus Vue 24-in 1080P oder AOC G2460PF.
Sicherlich gibt es nun einige die schreien TN Panel, nein danke, aber da ich keine Bild oder Grafikbearbeitung mache und eigentlich auch keine Filme über den Monitor schaue, ist mir das mehr als wumpe. Und so schlecht sind die Blickwinkel heute auch nicht mehr, dass man Probleme bekommt wenn man vor dem Monitor sitzt.
 
D.h. wenn ein Spiel sowieso schon flüssig läuft, z.B. dauerhaft über 60fps, dann würde mich in diesen Spielen auch Freesync/Gsync keinen Vorteil bringen, weil es nichts zu Verbessern gäbe?

Und 144hz-Monitore sind wieder was völlig anderes, oder? :confused_alt:
 
Nicht über, sondern genau. Jede FPS die nicht der Hz Zahl des Monitors entspricht, läuft nicht absolut sauber.
 
Ich würde einen Freudensprung machen, wenn Nvidia mittelfristig auch Adaptive Sync unterstützen würde. Denn ich habe mir in Hinblick auf Fallout 4 gerade eine GTX 960 angeschafft - AMD hat in der Preis- & Leistungsklasse ja leider momentan nichts vergleichbar effizientes. (Mal eben um die 100W mehr unter voller Last!)

Eigentlich würde ich mir auch gerne einen guten Monitor zulegen, aber damit warte ich dann nun wohl definitiv. 200€ Aufpreis für G-Sync sind mir zuviel, und es wäre sehr ärgerlich, wenn ich mir nun einen Freesync-Monitor anschaffe und kann ihn nicht wirklich nutzen wegen der GTX 960. Wobei ich dann zumindest mehr als 60Hz eisntellen könnte, was ja auch schon eine Verbesserung darstellen würde.
 
Marco^^ schrieb:
250 benutz er, auf ESR hat maleiner gesgt, das die 30er (120-150-180-210-240) Schritte auch nicht mehr so stimmen ...

Das ist der Fehler. Hohe Frameraten kappt der G-Sync-Monitor bei 144 fps, weil er nicht mehr verarbeiten kann. Dann ist natürlich auch der input lag so hoch wie bei Vsync on. Bei (mit etwas Sicherheitsabstand) niedrigerem com_maxfps bestimmt das Spiel die Framerate, und der Monitor folgt ohne nennenswerte Gedenkpausen.

Das Timer-Problem hatte ich nie, weder mit dem Phenom II noch mit dem i7 jetzt, entsprechende Bios-Einstellungen waren alle auf default. Framecounter und com_maxfps-Einstellungen passen zusammen, und bei zu hohen Einstellungen mit G-Sync bleibt der Framecounter wie erwartet auf 144 kleben.
 
JMP $FCE2 schrieb:
Verplempert ist auf jeden Fall der Aufpreis der besseren Grafikkarte. Weniger leisten und dabei Strom sparen kann eine GTX 970 auch.



Kommt auf Spiel und Anspruch an. Bei Quake Live sehen für mich selbst 80 fps noch deutlich "zappeliger" aus als meine gewohnten 135 fps. Beides natürlich mit G-Sync, also gleichen Frametimes.


Hast du die Frames dann auch limitiert auf konstante 80 oder 135.
Konstante Frames sehen schon bei 50Vollbildern pro Sekunde flüssig aus oder hat jemand shconmal bei einem Fußballspiel oder einer formel 1 Übertragung im Tv Ruckler gesehen womit ich jedoch die native Ausgabe meine und nicht irgendwelche Interpolationsfehler von MFI Algorithmen? Einzig die miese Bewegungsschärfe durch das Sample Hold vErfahren der LCD SCreens verbessert sich durch höhere Frameraten.
60 gesyncte Fps sind sofern die Spielengine nicht schlampig programmiert ist, jedenfalls absolut flüssig, dank konstanter Frameausgabe alle 16,7ms. Dazu muss natürlich auch Vsync und kein Framelimiter verwendet werden, damit die Frameausgabe an die PAnelfrequenz angepaßt wird.
 
Zuletzt bearbeitet:
zeedy schrieb:
Ich persönlich wäre schon ab 35Hz glücklich. Mit 30fps oder noch weniger würde ich kein Spiel spielen wollen.
Natürlich nicht konstant, aber Spiele laufen auch nicht konstant mit einer Framerate. Es kann durchaus passieren, dass ein Spiel, dass normalerweise mit 60 fps läuft in Extremsituationen in denen viel explodiert oder so auf einmal die Framerate für eine halbe Sekunde unter 30 fps sinkt.
Dann wäre es schön, wenn es beim Übergang der 30 fps Grenze keinen Microruckler geben würde wie das ja angeblich bei Freesync Monitoren zu spüren ist.
G-Sync hingegen bleibt weiter adaptiv und hat nach unten hin praktisch keine Grenze.
 
JackTheRippchen schrieb:
Meine Alternative heißt: nie wieder aktuelle AAA-Titel.

+1

Es dürfen nur nicht alle so machen. Eine gewisse Zahl von Early-Adoptern ist immer erforderlich, damit das für uns so gut läuft. :D
 
Eine sehr tolle Technik. Hätte eigentlich schon vor 5 Jahren erscheinen können. Die beides Systeme müssen unabhängig sein. Dann würde ich mir auch überlegen auf ein solches System zu switchen.

Weiß einer ob dieses Adaptive bzw Freeesync auch auf Videos klappt? Es nervt nämlich tierisch. Videos sind mit 24, 25, 29, 30, 48, 50, 59 und 60 fps gespeichert. So ein 50 fps Film laggtschön auf mein 60Hz Schirm. Stell ich manuell 50Hz ein ist das Video smooth.
 
Zurück
Oben