Kommentar Kommentar: Nie wieder ohne FreeSync/G-Sync

Ja exec, der Horror geht leider auch beim PG279 weiter. Von Pixelfehlerseuche bis Ende nie ist für jeden Early Adopter alles dabei.
Mein ehemaliger Lieblingsgersteller arbeitet fest an seiner eigenen Rufschädigung, leider.

@Laggy: 100% agree. Mit ner 980 aufwärts kommt man da meist hin. An der GPU zu sparen und gleichzeitig fehlende fps mit überteuerten bzw unausgereiften Sync Modellen auszugleichen, führt das ganze Projekt ad absurdum.
 
Zuletzt bearbeitet von einem Moderator:
Laggy.NET schrieb:
Adative Sync schön und gut, aber man muss sich seinen aktuellen Monitor auch nicht schlechter machen, als er ist.

Man muss sich einfach angewöhnen, einen 60 Hz Monitor auch mit exakt 60 FPS + Vsync zu füttern, und keinen Frame weniger. Alles unterhalb von 60 stottert nunmal, selbst wenns 59 sind, es stottert.
Das Problem ist, dass ich heute mit keinem 60 Hz Monitor mehr spielen möchte. Dort verhält es sich ähnlich wie mit Adaptive Sync. Wer einmal mit einem 120+ Hz Monitor gespielt hat, der möchte nicht mehr mit einem 60 Hz Monitor spielen.
 
eXEC-XTX schrieb:
Ich war ein Early Adoper und habe den Asus SWIFT mit 27" und G-Sync im Einsatz. Der Monitor ist fantastisch, leider hat die gesamte Reihe einen Serienfehler und die Monitore verrecken am laufenden Band.
Davon hatte ich auch gelesen und hatte mich aufgrund dessen für den deutlich teureren XB270HU entschieden.
 
Smagjus schrieb:
Davon hatte ich auch gelesen und hatte mich aufgrund dessen für den deutlich teureren XB270HU entschieden.

Auch der soll aber arge Qualitäts-Probleme haben... Na ja der Nachfolger soll ja noch im November kommen, vielleicht ist der ja einen Blick wert ;)
 
Laggy.NET schrieb:
Der punkt ist doch, dass die meisten so oder so mit irgendwas zwischen 40 und 50 FPS spielen. Mit weniger wird wohl keiner hier spielen. Und da reicht es eben aus, wenige Optionen um eine Stufe zu reduzieren, damit die 60 FPS stehen und schon hat man sein perfekt flüssiges Bild.

Bei den meisten Spielen sieht das eher so aus, dass 90% der Spielzeit >80 fps erreicht werden, und nur wenige Problemszenen auf 40 fps absacken.

Mit Vsync vergeudet man also 90% der Zeit teuer bezahlte Grafikkartenleistung, nur damit die restlichen 10% nicht schlagartig zur Ruckelkatastrophe werden. Der allgegenwärtige input lag kommt noch dazu.

Mit Adaptive Sync dagegen kann man 90% der Zeit höhere Details oder höhere Frameraten genießen, und die Problemszenen ruckeln längst nicht so übel wie mit Vsync.
 
naja da investiert man mehrere Tausend € in die Pc Hardware ... selbst die Graka knackt schon die 1000€ Grenze, also da hab ich auch noch die 500€ für nen Monitorwechsel wenns den mal sein sollte! Und man von rot auf grün oder umgekehrt wechselt ,P da ich sowie nen Gamer PC mit ATI und einen mit nVidia hab juckt mich das noch weniger ;p ist es halt bis es mal ein einer kann alles Monitor gibt,zwei Techniken;p

Wenn das für nen Gamer tatsächlich solch ein Problem sein sollte, sollte er sich schämen sich Gamer zu nennen!
 
Zuletzt bearbeitet:
Bin nicht der Meinung des Schreiberlings, ich hatte ein halbes Jahr so einen Bildschirm im Einsatz, beim einzigen Einsatzgebiet bei anspruchsvollen Spielen bei niedrigen FPS war es sinnvoll und gut, bei anderen Spielen kontraproduktiv da es bei weitem nicht bei allen Spielen kompatibel ist, das zeigt sich schon alleine indem die Menüs ruckeln oder das man es spürt wenn die FPS nur geringfügig unter der maximalen Hz des Monitors gingen, dabei ist es enorm Treiber abhängig obwohl die Technik hauptsächlich auf Hardware basiert (wie zb Multi-GPU).
Mein Fazit, wenn es funktioniert bzw kompatibel ist ist es eine tolle Sync-Technik, wenn es nicht klappt ist es Klotz am Bein, hier von der Eierlegenden Wollmilchsau zu sprechen ist meiner Erfahrung nach komplett falsch, es bleibt dabei dass jede Syn-Technik seine Vor und Nachteile hat.
 
Man liest hier einiges an Blödsinn.
Klar will ich mit möglichst hoher Hz Zahl und vielen FPS bei toller Auflösung spielen und FreeSync/G-Sync nutzen. Auch wenn ich das Geld habe um so etwas zu bezahlen finde ich das heute noch viel zu teuer und so einen hohen Preis einfach nicht wert.
1000 Euro oder mehr heute zu investieren nur damit man 2016 etwas altes hat ist es mir einfach nicht wert.
Muß ich mich deshalb als zocker schämen das ich die Zeit bis 2016/2017 auf FullHD 60Hz überbrücke? Ich denke nicht.
 
edit: Aber so teuer ist der Einstieg in diese Technologie doch garnicht. Ich fand 300€ für meinen 29" Monitor mit 75Hz IPS Panel und FreeSync zwar nicht Schnäppchenverdächtig, aber teuer würde ich das nicht nennen.


Ich bereue die Anschaffung des FreeSync Monitors auch keine Sekunde. Der Dämon "min fps" verliert dadurch seinen Schrecken.

Dabei hat mich die beschränkte FreeSync Range von in meinem Fall 48-75Hz garnicht gestört. Ich hab mich dauernd gefragt, was meckern die Leute denn? Trotz FreeSync möchte ich weiterhin möglichst hohe FPS/Hz haben.
Denn auch mit Synctechnologie bleiben Mehr-Hz trotzdem besser als Weniger-Hz. Und wenn ich Settings einstelle mit denen ich selbst knapp unter 75 FPS spiele gehen die Drops nicht so tief als dass mich die Range großartig einschränken würde.

Ich hab trotzdem mal modifizierte Treiber mit einer Range von 32-75 FPS installiert. (Muss ich noch auf 34-75 ändern, bei 32 und 33 fps hab ich trotzdem tearing...) Echt Witzig wie flüssig sich ein BF4 spielen kann wenn man es auf 35 FPS cappt.
Doch dann kam Eyefinity (btw; 5760x1080 = Bäh, Balken - 6400x1080 = Huch, welche Balken? :D ) und aus irgendeinem Grund funktioniert da der Modtreiber nicht und die min FPS für Sync sind wieder 48...

Jetzt stört mich das Limit und ich wünschte mir eine ähnliche Range wie bei G-Sync.
Oder aber jemand kennt eine Lösung wie ich meine 34Hz wieder bekomme. ;)
 
Zuletzt bearbeitet:
Letztes Jahr 480€ bezahlt für den Acer XB270HA. IPS und hohe Auflösung brauche ich nicht, nur 144 Hz und G-Sync.
 
Die Vergleiche mit Vsync, 60, 120 und 144 Hz sind hinfällig. Man hat immer drops und dann regeln diese auf 30hz, ergo ruckeln. Zudem muss eine GPU bei zB 60p immer abschätzen wie lange sie für das nächste Bild braucht, kann nicht einfach drauf los rechnen. Erstmal kein Problem aber wenn der Bildinhalt nicht gleichmäßig passt ruckelt es auch. Einfach rechnen und verzögern ist also zu einfach gedacht.

Ich denke diejenige die das sagen haben nie adaptive Bildschirme gesehen und genutzt. Die die haben sind begeistert und es soll deutlich besser als Vsync sein, bei mal eben auch weniger Rechenleistung die man braucht. auch 40fps sind korrekt ausgeben flüssiger als 60p Vsync.

Keiner sagt bestehende Monitore wegwerfen, aber die Branche hat hier einfach auch sehr lange gepennt wie ich finde.
 
Mit echtem triple buffering könnte Vsync durchaus brauchbar sein, aber das wird ja anscheinend nicht genutzt.

So bleibt als einzige echte Alternative Vsync off bei hoher Refreshrate, damit das Tearing weniger stört.
 
JMP $FCE2 schrieb:
Ganz abgesehen gönnt einem ein 60Hz-Monitor nicht die höheren Frameraten in weniger fordernden Szenen, 99% der Zeit verplempert man also teuer bezahlte Grafikkartenleistung, die sich sonst entweder für höhere Frameraten oder höhere Auflösungen/Detaileinstellungen nutzen ließe.
Was heißt denn hier verplempern? Die GPU macht kein Busy-Waiting.
In der Zeit wo man nicht die volle Grafikleistung braucht, wird Strom gespart, die Temperatur und Lüftergeräusche sinken und die Abwärme natürlich auch.
Also ich lasse meine GPU nicht dauerhaft (unnötig) auf 100% laufen um mehr FPS zu haben, die ich nicht bemerke.
 
Zuletzt bearbeitet:
Solange die 60 gesyncten fps konstant gehalten werden sind 40 Free oder g gesyncte fps sicher nicht flüssiger, da man erstens wieder größere Sprünge zwischen den Frames sieht und zweitens auch mittels neuem sync Verfahren weiterhin bei schwankenden Frameraten auch unterschiedliche Standzeiten der Bilder entstehen. 60 stabile Vsync fps sind perfekt flüssig, das lässt sich nicht steigern. Einzig die Bewegungsschärfe ließe sich mit höherer Framerate steigern
 
Theobald93 schrieb:
Was heißt denn hier verplempern? Die GPU macht kein Busy-Waiting.
In der Zeit wo man nicht die volle Grafikleistung braucht, wird Strom gespart, die Temperatur und Lüftergeräusche sinken und die Abwärme natürlich auch.

Verplempert ist auf jeden Fall der Aufpreis der besseren Grafikkarte. Weniger leisten und dabei Strom sparen kann eine GTX 970 auch.

Andregee schrieb:
60 stabile Vsync fps sind perfekt flüssig, das lässt sich nicht steigern.

Kommt auf Spiel und Anspruch an. Bei Quake Live sehen für mich selbst 80 fps noch deutlich "zappeliger" aus als meine gewohnten 135 fps. Beides natürlich mit G-Sync, also gleichen Frametimes.
 
Also wenn ich von früher rede, dann denke ich an flüssige 50 FPS auf einem ordentlichen Röhrenbildschirm - aber jedem das seine oder? :freak:

N Flachbildschirm hab ich mir erst viele Jahre später gekauft als die Technik ausgereifter war und selbst heute ist sie noch unterirdisch schlecht.

Aber 144Hz sei dank, zerissene, stotternde Bilder und Inputlag ade.
 
Bei einem gemütlich daherscrollenden Turrican fallen mir 50 fps auch nicht unangenehm auf. Das hektische Maus-Herumreißen bei Quake ist da ein ganz anderes Kaliber.

Nebenbei: WinUAE funktioniert mit G-Sync. Einer Runde Turrican mit originalgetreuen 50 fps steht also nichts mehr im Wege.
 
JackTheRippchen schrieb:
Meine Alternative heißt: nie wieder aktuelle AAA-Titel.

Lieber eine GotY-Edition von GoG zwei..drei Jahre später, folgende Vorteile:
  • läuft mit hohen Einstellungen auf aktueller Mittelklasse-Hardware auf > 60 fps, kein Gamermonitor notwendig, spart Geld
  • Spiel kostet weniger als die Hälfte des Release-Preises, spart Geld
  • Spiel weitestgehend bugfrei, spart Nerven
  • Spiel ohne (Online-)Kopierschutz, funktioniert wahrscheinlich auch noch auf Windows >10, spart Geld, weniger Frust
  • DLC integriert, spart Geld
Problem ist nur, dass du dann in der Regel nur Solo-Player-Spiele nutzen kannst. Multiplayer veraltet, kaum oder gar keine Spieler mehr, weil Server abgeschaltet sind. Und da wo die offiziellen Server noch laufen, die auch immer die meisten Spielerzahlen bieten, werden diese Spiele auch nicht DRM-frei zu haben sein.

@Topic
Ich hatte mich kürzlich mal recht rege mit den deutschen Support der Firma EIZO unterhalten. Waren so einige Mails die hin und her gingen.
Ohne jetzt so viel über den Inhalt zu schreiben, aber letzten Endes kam ich für mich zu dem Schluss, dass EIZO da was in der Mache hat, in Bezug auf Free/G-Sync in einem Monitor vereint. Offiziell dürfen die das natürlich nicht bestätigen, bevor der Monitor vorgestellt wird.
Aber ich bin mir ziemlich sicher, das nach dem im nächsten Monat erscheinende neue EIZO-Foris in 27", was in dieser Richtung kommen sollte, also in der ersten Jahreshälfte 2016.
 
Zuletzt bearbeitet:
dass EIZO da was in der Mache hat, in Bezug auf Free/G-Sync in einem Monitor vereint.
Das hört sich schon mal gut an fürs erste, aber mir fehlen da noch einige Zutaten für den Monitor den ich mir vorstelle.

Der Sync sollte min. ab 30FPS los gehen, besser noch 25 und wenn es ein 120Hz wird dann auch bis 120Hz.

1080p oder 2160p IPS.

Das dürfte noch ein wenig dauern bis sowas aufschlägt. Vorher kaufe ich nicht.
einem Modell mit Adaptive Sync ein Ende. Und seit einigen Wochen berechnet die Inhalte eine Grafikkarte von AMD, die FreeSync unterstützt.
Unmöglich, du und CB sind doch komplett von den grünen gekauft, das kann gar nicht sein das du Geld für eine rote Hardware ausgegeben hast. ;)
 
Kasmopaya schrieb:
Das hört sich schon mal gut an fürs erste, aber mir fehlen da noch einige Zutaten für den Monitor den ich mir vorstelle.

Der Sync sollte min. ab 30FPS los gehen, besser noch 25 und wenn es ein 120Hz wird dann auch bis 120Hz.

1080p oder 2160p IPS.

Das dürfte noch ein wenig dauern bis sowas aufschlägt. Vorher kaufe ich nicht.

Unmöglich, du und CB sind doch komplett von den grünen gekauft, das kann gar nicht sein das du Geld für eine rote Hardware ausgegeben hast. ;)
LoL :)

Zu Sync mindestens ab 30 FPS. Ist das nicht Sache des Grafikkartenherstellers? Macht das NVidias G-Sync nicht schon, zumindest ab 30Hz?
In UHD wird das allerdings noch eine ganze Weile dauern, da gebe ich dir recht. Da würde ich vor 2017/18 auch gar nicht mit rechnen. Und wenn, dann wird das auch sicherlich richtig teuer werden.
 
Zurück
Oben