zeedy schrieb:ich finde konstante 60fps mit Vsync schon absolut angenehm und wüsste nicht, warum ich mehr Hz bräuchte.
Finde ich auch, V-Synch an und ich habe immer konstant 60fps und ist superflüssig. Ich brauche sowas nicht.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
zeedy schrieb:ich finde konstante 60fps mit Vsync schon absolut angenehm und wüsste nicht, warum ich mehr Hz bräuchte.
[F]L4SH schrieb:Es ergibt einfach aus Sicht der Hersteller zu wenig Sinn, so viele verschiedene Modelle in allen Preissegmenten fürs Gaming für einen Hersteller zu bringen, der momentan leider mit viel zu geringen Marktanteilen im relevanten Markt aufwarten kann. Vielleicht weiß man intern schon, was kommt. Von Intel wird ja auch entsprechendes kommen.
zeromaster schrieb:@chithanh
http://geizhals.de/lg-electronics-34um57-p-a1279826.html?hloc=at&hloc=de "AMD FreeSync (48-60Hz)"
Ein Extrem, aber trotzdem ein gutes Beispiel.
Gaspedal schrieb:Finde ich auch, V-Synch an und ich habe immer konstant 60fps und ist superflüssig. Ich brauche sowas nicht.
Idon schrieb:NVIDIA hat nach wie vor 75%+ Marktanteil bei diskreten Grafikkarten.
Wer sich des Weiteren mit der günstigsten Methode zu Zocken zufrieden gibt, einer iGPU, dem sind irgendwelche Gaming-Features völlig egal. Nur ein Bruchteil dieser Leute wird mehr Geld für einen A-Sync Monitor ausgeben, selbst wenn es nur 5% Mehrkosten wären und nicht 50%+.
iAtNeH schrieb:Danke selten an einem Vormittag so gelacht
Bärenmarke schrieb:Freesync/Gsync ist doch eher für die Leute interessant die gerne alles auf max stellen wollen und trotzdem noch ein ruckelfreies Spielerlebnis haben wollen.
tek9 schrieb:Deine Fanbeiträge werden deinem Nick schon gerecht, viel Text aber Zero korrekter Inhalt. AMD bewerben gar nichts, die Hersteller der Displays drucken Freesync enabled auf ihre Kartons...
Und weil du ja auf unbestreitbare Fakten stehst, zähle bitte mal auf warum G-Sync so viel besser sein soll, das es es sich lohnt dafür 100 Euro Aufpreis zu zahlen?
chithanh schrieb:.........
Berserkus schrieb:Völliger Quatsch, das Spielerlebnis ist ein um welten anderes und das gerade wen die eigenen Grafikkarte unter FullHD schon mit guten/mittleren Einstellungen am röcheln ist. Und da kommt so ein günstiger A-Sync Monitor genau recht, V-Sync hat gerade mit niedrigen FPS extreme Problem und kappt diese auf noch niedrigere FPS.
Berserkus schrieb:Völliger Quatsch, das Spielerlebnis ist ein um welten anderes und das gerade wen die eigenen Grafikkarte unter FullHD schon mit guten/mittleren Einstellungen am röcheln ist. Und da kommt so ein günstiger A-Sync Monitor genau recht, V-Sync hat gerade mit niedrigen FPS extreme Problem und kappt diese auf noch niedrigere FPS.
Im übrigen beherrschen die Maxwellgrakas schon A-sync, schließlich funktioniert G-Sync in Notebooks die über kein G-Sync Modul verfügen. Und was ist G-Synx ohne Modul, richtig A-Sync.... Ist also eh nur ein "Treiberproblem" wie beim fast allen NVidia Features.
Aber solange zu viele NV-Trottel rumrennen die bereit sind für so ein Feature 100€ extra + 50-100€ für die passende Graka extra rauszuwerfen, so lange wird NV auch so weitermachen und für nichtigkeiten eure Kohle abzocken.
Dieser Vorteil wird aber nicht mehr lange gegeben sein. Die nächste Monitor-Generation wird über Scaler verfügen, die einen ausreichend großen wenn nicht gar größeren Frequenzbereich abdecken als G-Sync. Ich hätte schon jetzt bei den Frameraten, mit denen ich spiele (zwischen 40 bis 80), keinerlei Nachteile durch FreeSync, wenn ich mich für den richtigen Monitor entscheide. In ein bis zwei Jahren wird niemand mehr über G-Sync oder FreeSync reden, weil Adaptive-Sync über kurz lang auf jedem DisplayPort 1.2 Monitor mit einem ausreichend großen Frequenzbereich frei Haus zur Verfügung stehen wird.zeromaster schrieb:Begründung: GSync ist FreeSync in der Umsetzung noch immer voraus, das ist ein wohl unbestreitbarer Fakt.
Das ist ein guter Einwand. Und ein Problem, das AMD rasch lösen könnte und auch muss. Die enstprechenden Maßnahmen wurden ja bereits genannt. Andernfalls besteht auch für FreeSync auf Dauer keine Daseinsberechtigung, außer AMD möchte ein großes Marketing-Bohei darum machen, dass sie ein paar Zeilen in ihre Treiber geschrieben haben, um von Adaptive Sync Gebrauch zu machen.zeromaster schrieb:Zudem lässt AMD sein "FreeSync"-Kleberchen auf jeden Krüppelmonitor kleben, auch die nicht wirklich Gaming tauglichen mit unterstützen Frequenzbereichen von teils 48-60Hz und solchen Müll (nicht Müll aber sicher kein Gaming-Monitor)...
Mit welchen exklusiven Features bitte? Das einzige, was G-Sync Adaptive-Sync noch voraus hat ist der zugesicherte Frequenz-Bereich, in dem G-Sync greift, und das Sync-Verhalten bei Unterschreiten des unteren Frequenz-Bereiches. Ersteres wird sich mit besseren Scalern über kurz oder lang in Rauch auflösen, und Letzteres kann AMD bzw. das VESA-Konsortium über die Treiber und den offenen Standard regeln. Falls das überhaupt sinnvoll ist, denn was G-Sync bei Unterschreiten des Frequenzbereiches macht, ist auch nicht frei von Problemen.zeromaster schrieb:Übrigens, ob dann irgendwann GSync ohne Module auskommt ist dabei auch egal, sobald die Technologie auf A-Sync gleichwertig umgesetzt werden kann mit allen Features vom "alten" GSync.
1 - Adaptive Sync funktioniert zwischen 9 bis 240Hz, und auf absehbare Zeit wird es auch entsprechende Scaler geben, die diesen Frequenzbereich ausreichend breit abdecken. Es gibt schon jetzt FreeSync-Monitore, auf denen die meisten Spieler keinen entscheidenden Nachteil gegenüber G-Sync haben.guenterm schrieb:Das stimmt. FreeSync mit iGPU kann man absolut knicken!
Welche iGPU liefert konstant mehr als 60 fps bei FHD um FreeSync nutzen zu können?
Aha, also sollen wir die gleichen Monitore nochmal kaufen, nur dieses Mal mit einem Aufschlag von 100 Euro für einen Sync-Standard, der viele Bildkalibrierungen und Bildoptimierungen hardwareseitig unterbindet? Ja, macht Sinn! Aber ich kaufe doch lieber den Monitor, der bei gleicher Leistung 100 Euro günstiger ist und darüber hinaus mehr Anschlüsse und Bildoptimierungen erlaubt.guenterm schrieb:Also denselben Monitor nochmal kaufen, nur weil er "FreeSync" bietet?
Also genau das gleiche Bild wie mit jedem besseren FreeSync-Monitor. Und mit zukünftigen Scalern wird sich der Vorteil immer weiter zu Gunsten von Adaptive Sync verschieben.guenterm schrieb:Es ist für flüssiges Spielen mit Nvidia G-Sync völlig ausreichend die Framerate über 30fps zu halten.
guenterm schrieb:Bei Amd braucht man dafür 60 fps und eine dreimal teurere Grafikkarte.Quatsch. Für 450 Euro kann ich ein Topmodell aus der R9 390X Familie haben, die den meisten Nvidia-Karten in WQHD-Auflösungen davon läuft. Eine gleichwertige Nvida GTX980 kostet 100 Euro mehr. Und dann lege ich nochmal 100 Euro für einen G-Sync-Monitor oben drauf, der weniger kann als ein gleichwertiger FreeSync-Monitor. Eine Mehrausgabe von 200 Euro, und am Ende habe ich nichts gewonnen außer einem zugebenermaßen deutlich geringeren Stromverbrauch. Gehen wir es mal schnell durch:
1 - ASUS Strix R9 390X (~450 Euro) + ASUS MG279Q (~550 Euro) = ~1000 Euro
2 - ASUS Strix GTX980 (~550 Euro) + ASUS ROG Swift PG278Q (~650 Euro) = ~1200 Euro
Beide Kombinationen sind in der WHQD-Leistung identisch, aber der ASUS MG279Q kann viel mehr als sein ROG-Bruder, hat das bessere Panel und kann mit einem kleinen Treiber-Eingriff bis auf 30 bis 32Hz (statt 35Hz) runter gehen. Dafür zieht das GTX980 unter Last über 100 Watt weniger Saft aus der Leitung. Die Nvdia-Kombo macht nur für Leute Sinn, die die FPS bis weit in den dreistelligen Bereich treiben wollen.
Und eine Gehaltstufe darunter liegen die R9 290X und die GTX970 preislich je nach Modell in der FullHD-Leistung und besonders in der WQHD-Leistung unter Strich gleichauf und bieten genug Power für Sync-Frameraten in FullHD. Auch hier gilt: Die Nvdia-Karte zieht deutlich weniger Strom, dafür ist der taugliche FreeSync-Monitor deutlich günstiger.
Aber auch die ganzen "Casual Gamer" vom Schlage "Was der Bauer nicht kennt, frisst er nicht!" und nicht wissen, was sie verpassen, oder nicht verstehen, was Adaptive Sync eigentlich macht, werden früher oder später in den Genuß von FreeSync bzw. Adaptive Sync kommen, denn es wird einfach eine Bestandteil des VESA-Standards werden und von Haus aus von zukünftigen Monitoren unterstützt werden. Über kurz oder lang wird "to sync or not to sync" nur noch davon abhängen, ob man ein geeignetes DisplayPort-Kabel zur Hand hat. Spätestens dann wird jeder Adaptive Sync nutzen. Nicht so jedoch bei Nvidia, wenn die nicht bald mal die Köpfe aus ihren ... na, ihr wisst schon.Bärenmarke schrieb:Die ganzen 0815 casual Gamer interessiert das doch nicht, notfalls wird der Schalter etwas weiter runter gedreht oder sie kaufen sich nach Jahren mal ne neue Graka...
TrueDespair schrieb:Freesync, kombiniert mit einem 40+ Zoll Fernseher wäre doch etwas feines
GevatterTod schrieb:Aber auch die ganzen "Casual Gamer" vom Schlage "Was der Bauer nicht kennt, frisst er nicht!" und nicht wissen, was sie verpassen, oder nicht verstehen, was Adaptive Sync eigentlich macht, werden früher oder später in den Genuß von FreeSync bzw. Adaptive Sync kommen, denn es wird einfach eine Bestandteil des VESA-Standards werden und von Haus aus von zukünftigen Monitoren unterstützt werden. Über kurz oder lang wird "to sync or not to sync" nur noch davon abhängen, ob man ein geeignetes DisplayPort-Kabel zur Hand hat. Spätestens dann wird jeder Adaptive Sync nutzen. Nicht so jedoch bei Nvidia, wenn die nicht bald mal die Köpfe aus ihren ... na, ihr wisst schon.
c-mos1942 schrieb:Wollte mir jetzt eigentlich demnächst den "LG 29UM67-P IPS / Free-Sync / 75 Hz" bestellen...
Ich hör immer das das dann erst ab 48-60 Hz funktioniert, stimmt das jetzt oder nicht?!
Ich bin nur Otto-Normal-Verbraucher und mir reichen meistens schon 30-40 FPS aus
Brauch ich jetzt extra immer neh dickere GraKa um auf 50 FPS zu zocken das Free-Sync funktioniert?!
Wenn du warten kannst, dann warte noch ein wenig - außer du sagst, dass der ASUS MG279Q für dich passt. Derzeit wäre G-Sync für dich besser, weil G-Sync bei niedrigen Frequenzen besser arbeitet als FreeSync (ansonsten hättest du aber auch viele Nachteile, die hier schon genannt wurden). Das wird sich aber mit kommenden Monitoren und zukünftigen Scalern ändern, die ein breiteres Frequenzspektrum abdecken werden.c-mos1942 schrieb:Oder sollte man noch warten wie die Technik sich jetzt entwickelt?!
Ja, AMD bewirbt die Spezifikation von FreeSync. Ihrem Treiber... Richtig du Genie.zeromaster schrieb:Was ist denn nicht korrekt? Benne eine Falschaussage meinerseits. Und nein, AMD bewirbt ja nichts... ich habe für die faulen und AMD-Fanboys die AMD-Seite verlinkt und sogar den Werbespruch gepostet... willst du das abstreiten? Ist das nicht bewerben?
Auch genannt der Beweis das nvidia kein G-Sync Hardware Modul benötigt, da auf Adaptive Sync basierend. Also wieder einmal eine Kundenverarsche seitens nvidia. Aber hey, das kennst du ja mit der 970, die du bewusst dennoch gekauft hast.Notebooks mit GSync...