Kommentar Kommentar: Nie wieder ohne FreeSync/G-Sync

Palmdale schrieb:
Ebenso ist der bei Freesync zu verwendende Scaler teurer, da er das kleine "a" mit den variablen Refresh mit darstellen muss. Kostet zwar keine proklamierten $100 wie bei Nvidia, aber umsonst ist der aufwendigere Scaler eben auch nicht....

Wir bewegen uns ca im Centbereich, kein Vergleich zum Modul von Nvidia.

Um zu verstehen, weshalb Nvidia nicht auf den nun VESA Standard aufspringt, bedarf es keiner großen Logik. Die Anteile von dedizierten AMD-Karten sind bei ca. 20% zu 80% (Intel interessiert hier relativ niemanden) und eher rückläufig anstatt massiv am zulegen.

Allerdings wird Intel das auch bald unterstützen, somit ist es relativ sicher, dass die Nvidia Lösung bald nicht mehr verfolgt werden wird.
Die AMD Marktanteile liegen bei 23% und können auch wieder steigen.

und in gewisser Weise technisch gesehen

Die Technik spielt keine Rolle.

vielmehr tröpfchenweise mit teils unsinnigen Funktionsspannen von 40-75). Klingt komisch, ist aber so.

Unsinnig sind diese Frequenzbereiche allerdings nicht, da in den Bereichen die meisten Gamer zocken.
Zudem lässt sich auch per Hack an den EDID Profilen mehr herausholen.
Aber das wird sich die kommenden Monate immer mehr bessern. Die Monitore mit geringen Frequenzbereichen für Adaptive Sync werden dann einfach nicht mehr interessant sein.

Nur gehe ich realistisch betrachtet davon aus, dass es auf absehbare Zeit so bleibt und vielleicht wie bei den DVD-Rohlingen auf Monitore auslaufen könnte, die beides können. Darüber hinaus ist zu vermuten, dass die ablehnende Haltung gegenüber G-Sync von Leuten kommt, welche eh eine AMD Karte haben und dieses dann nicht nutzen könnten.

Dein ganzer Beitrag ist kontra AMD ausgerichtet, wo du ausschließlich die angeblich negativen Aspekte hervorhebst, obwohl diese Monitore mit geringen Frequenzbereichen am Konkurrenzmarkt ja eh nicht überleben werden.

Und natürlich ist derjeniege der Nvidia und ihr Verhalten kritisiert ein AMD Nutzer mit AMD Karte und spielt die beleidigte Leberwurst.:rolleyes:
Könnte ja auch sein, dass sich jemand denkt dass die Vorteile von G-sync nicht existieren und das AMD Paket deutlich günstiger ist. Teilweise kann man sich die ganze Grafikkarte einsparen.
Man könnte auch sagen, dass die AMD Lösung deutlich günstiger und verbreiterter sein wird.
Zumal überhaupt kein Grund besteht, warum Nvidia das nicht sofort unterstützen kann, tun sie bei Laptops ohnehin, ohne Modul.
Das Modul ist ein DRM-System.

Allerdings gehe ich an Hardwarekäufe eher weniger emotional sondern rational ran, da fällt mir auch kein Zacken aus der Krone, einen Monitor für eine gewisse Zeit nur mit einem Hersteller nutzen zu können.

Ja, das ist besonders rational. Später dann kannst du den Monitor mit AMD nämlich nicht nutzen.
Einen Adaptive Sync Monitor wirst du viel wahrscheinlicher auch bald mit Nvidia nutzen können.

Ist ja kein Kreditvertrag mit 30 Jahren Laufzeit sondern nur ein Betrag von 400 - 800€. Mein Iiyama hat auch kein Displayport-Anschluss, oh mein Gott.

Bei so großen Investitionen nimmt man dann aber lieber die AMD Alternative, weil erstens günstiger und genausogut, zudem legt man sich damit auch nicht auf einen Grafikhersteller fest.

Und mal Butter bei die Fische, ich les hier ständig "könnte man über Treiber realisieren". Dass man bei solchen Feature-Ankündigungen bei AMD eher lange Wartezeiten einplanen sollte, sieht man schon an dem VSR Gefrickel.

Ganz ehrlich? Blablabla, mehr kann man dazu nicht sagen.
Downsampling ist alles andere als einfach zu implementieren, Nvidia hat nach eigener Aussage da lange dafür gebraucht.
VSR ist hier im Test ganz gut weggekommen und supportet ab Fijii und Tonga einen ähnlich guten Funktionsumfang wie bei NV.

Ich würd mich darauf nicht verlassen, sondern wenn ich just vor dieser Entscheidung steh, eher noch warten bis sich das tatsächlich in Software ergeben hat.

Framedoubling ist doch völlig unwichtig.. oder spielst du jetzt mit weniger als 30 FPS?:freak:

Freesyncmonitore haben es schon in die 250 Euro Klasse geschafft ( AOC)
Mit guten und großen Frequenzbereichen von 38 bis 144 Hertz oder bei NIXEUS 30 bis 144 Hertz.

Such mal einen G-sync Monitor für 250 Euro..., da kannste 200 Euro mehr bezahlen und mit dem gesparten Geld noch ne r9 380 kaufen.
 
Zuletzt bearbeitet:
JackTheRippchen schrieb:
Meine Alternative heißt: nie wieder aktuelle AAA-Titel.

Lieber eine GotY-Edition von GoG zwei..drei Jahre später, folgende Vorteile:
  • läuft mit hohen Einstellungen auf aktueller Mittelklasse-Hardware auf > 60 fps, kein Gamermonitor notwendig, spart Geld

Selbst ~200fps wie z.B. in Borderlands 2 erreichen nicht im Ansatz die Fluffigkeit der Syncs. ;)

Auch wenn ich aktuell (nach mehreren Geräten mit G-/FreeSync) wieder ohne spiele kann man die Vorteile durch nichts anderes ersetzen.

ballistix schrieb:
Bei so großen Investitionen nimmt man dann aber lieber die AMD Alternative, weil erstens günstiger und genausogut, zudem legt man sich damit auch nicht auf einen Grafikhersteller fest.

Die Fury/Nano haben zu wenig Ram (hatte eine X und Skyrim war ebenso unspielbar wie Shadow of Mordor), die 390X sind zu lahm.

Ein Unity läuft heute noch schlecht auf den AMDs, von genau so gut kann da keine Rede sein.

Und natürlich lege ich mich damit auf AMD fest, weil niemand weiß ob und wann NV FreeSync unterstützen wird.
 
Zuletzt bearbeitet:
AbstaubBaer schrieb:
Ich persönlich hatte keine Lust auf eine Entscheidung G-Sync vs. Free/Adaptive Sync. Bis sich das (analog Blu-Ray vs dieses andere, vergessene Medium) beim nächsten Monitorkauf in ein paar Jahren aussortiert hat, ist es deshalb UHD geworden. Und zurück zu weniger Auflösung möchte ich nicht, der Gewinn an Bildqualität ist richtig nett.

Nett ist eigentlich die Verniedlichung von schxxße ;-)
Spaß beiseite, für ein nettes Upgrade zahlt sich der Mehrpreis für Pixeldichte oder Sync einfach nicht aus.
Wie du sagst ists nett, der echte Mehrnutzen sei dahingestellt und du zockst nachwievor in plattem 2D.

Vielleicht lassen die VR Releases die steinzeitlichen 2D Gaminggewohnheiten endlich vergessen machen.

SavageSkull schrieb:
Das sehe ich auch so, habe mir den Asus Swift gekauft wegen 3D, G-Sync ist ganz nett, aber bei meinen Spielen, die in der Regel älter sind oder keine allzu hohen Anforderungen haben, bin ich in der Regel eh bei FPS >100@120Hz und da habe ich keinen Unterschied zwischen G-Sync an und aus bemerkt

.....

3D ist zur Zeit hingegen ein deutlicher Mehrwert, ganz im Gegenteil zu der Sync Funktion.

100% agree ... dem gibts nichts hinzuzufügen.

Hab selbst 4K, Sync, Surround und Co getestet ... war alles nett.
Ein wirklich nachhaltiges upgrade war für mich ausschließlich 2D --> 3D.
 
Zuletzt bearbeitet von einem Moderator:
Palmdale schrieb:
Darüber hinaus ist zu vermuten, dass die ablehnende Haltung gegenüber G-Sync von Leuten kommt, welche eh eine AMD Karte haben und dieses dann nicht nutzen könnten. Allerdings gehe ich an Hardwarekäufe eher weniger emotional sondern rational ran, da fällt mir auch kein Zacken aus der Krone, einen Monitor für eine gewisse Zeit nur mit einem Hersteller nutzen zu können. Ist ja kein Kreditvertrag mit 30 Jahren Laufzeit sondern nur ein Betrag von 400 - 800€.
Meine ablehnende Haltung rührt daher, dass G-Sync ein Paradebeispiel dafür ist, warum proprietäre Standards für die Tonne sind. G-Sync hat als hardwareseitige Lösung durchaus seinen Reiz, aber das Problem ist, dass diese Lösung von einem einzigen Hersteller kontrolliert wird und dass man als Kunde diesem Hersteller vollkommen ausgeliefert. Sämtliche G-Sync-Monitore sind für mich unbrauchbar, weil Nvidia keine umfassenden Bildkalibrierungen im OSD erlaubt. "Allround-Anwender" haben in Nvidia's schönen, neuen, grünen Welt keinen Platz.

Und was wenn sich G-Sync durchsetzen sollte? Was wenn AMD verschwinden sollte? Wird Nvidia den eigenen Standard dann noch weiter entwickeln? Warum sollten sie das tun, wenn sie keinem Konkurrenzdruck ausgesetzt sind? Warum sollten sie ihre Technologie günstiger machen, selbst wenn sie es könnten? Und welchen Schwachsinn werden sie sich dann wohl ausdenken, um die Kunden noch weiter in das eigene "Geforce Experience"-Universum hinein zu ziehen? Bei Microsoft schreit jeder Zeter und Mordio, wenn sie quasi-Monopol ausnutzen, um den Kunden ihre Produkte aufs Auge zu drücken. Aber wenn es um Nvidia geht, scheint es einigen Gamern nicht schnell genug zu gehen, sich an Nvidia zu binden. One ecosystem to rule them all!

Wie ich schon sagte, hatte ich lange Zeit ganz fest mit einer Nvidia-GPU für meinen neuen PC geplant. Bis vor drei Monaten hätte ich im Traum nicht daran gedacht, eine AMD-Karte zu kaufen. Erst mit und wegen G-Sync hat sich meine Haltung geändert, und bis Nvidia nicht klug wird und Adaptive-Sync ebenfalls unterstützt oder wenigstens das eigenen Standard so weit öffnet, dass ich diesen so nutzen kann wie ich es möchte und brauche, wird mir keine grüne Grafikkarte ins Haus kommen. Was ich zum Kotzen finde, nicht weil Nvidia so geil ist, sondern weil ich einfach die Wahl haben möchte zwischen mindestens zwei Herstellern.
 
--jabber-- schrieb:
Wenn ich neue Hardware Kauf Adaptiv/Free Sync.
Hatte bis jetzt nv Karten aber das umgehen mit kunden. (GTX 970 3,5 gb , GeForce experience anmeldung ...)
Und das einmauern/nicht offnen von technologien. (GeSync, CUDA, GameWorks)
Mögen mir nicht schmecken.

Auch wenn die karten Energieeffizeinter sind.
Aus diesen Gründen kommt mir auch keine Nvidia ins Haus (als eigenständige Grafikkarte, beim Laptop z.B. hat man die Wahl natürlich nicht), solange AMD keinen Bock schießt. Gilt auch für Intel, da Intel reichlich Dreck am Stecken hat (und AMD dadurch erst in die jetzige Lage gekommen ist). Laptop auch wieder die Ausnahme, da das (durch den Hersteller vorgegebene) Gesamtsystem wichtiger ist als die Hersteller von 2 Bauteilen, so ist mein aktueller Laptop (der auch noch ne Zeit halten soll) ein Dell XPS15 L502X (Sandy i7 + GF 540M).

Edit:
Gameworks-Spiele werden nur dann gekauft, wenn diese auf AMD-Karten kaum schlechter laufen, lediglich WoW als typisches "Intelvidia-Spiel" hat "Bestandschutz" (die Zusammenarbeit mit Nvidia wurde zu einer Zeit beschlossen, als 3dfx den Bach runter ging und von ATI nichts Brauchbares erhältlich war).
 
Zuletzt bearbeitet:
GevatterTod schrieb:
Sämtliche G-Sync-Monitore sind für mich unbrauchbar, weil Nvidia keine umfassenden Bildkalibrierungen im OSD erlaubt. "Allround-Anwender" haben in Nvidia's schönen, neuen, grünen Welt keinen Platz.
Was fehlt eigentlich alles im OSD bei Gsync Monitoren und was hat das für Auswirkungen?
 
Würde auch gerne auf G-Sync umsteigen, aber es gibt in der Tat noch nicht den Traummonitor dafür und auch noch nicht genügend GPU-Power (single GPU jedenfalls).

Ich hätte gerne:

- Idealerweise Samsung (alternativ ASUS)
- 32"+ NICHT curved
- 3840 x 2160 (Zukunftssicherheit)
- IPS/PLS
- USB 3.0 Hub wäre nett
- G-Sync

Naja... vielleicht nächstes Jahr, wenn Pascal ca. zur Jahresmitte erscheinen sollte (erst damit dürfte 4K Gaming dann auch etwas mehr Sinn machen). Bis dahin wird es mein jetziger Samsung S32D850T tun müssen, der im Grunde bis auf das fehlende G-Sync schon nahezu perfekt ist.
 
.Snoopy. schrieb:
Sehe auch die Zukunft bei ASync (FreeSync). Da den Monitorherstellen einfach mehr ihre Freiheit gelassen wird.

G-Sync wird auf Dauer ein Nischenprodukt werden und bleiben.
Vergiss nicht, dass G-Sync nur eine Übergangstechnologie ist, die für DP1.2 Monitore benötigt wird. Mit der Einführung von DP1.3 werden die G-Sync Module überflüssig werden und nVidia wird genau die selbe Technik nutzen wie AMD. Macht nVidia ja jetzt schon bei Notebooks. Sie nennen es halt nur weiterhin G-Sync.
G-Sync für Notebooks setzt auf offenen Standard
 
Mich ärgert an FreeSync und GSync der Aufpreis gegenüber "normalen" Bildschirmen ohne Adaptive Sync Technologie:
es mag ja schön und gut sein dass sich das Spielen mit Adaptive Sync besser anfühlt als ohne aber der Aufpreis den man dafür zahlen muss, rechtfertigt in meinen Augen kaum das bessere Nutzungs-Gefühl.
Besonders Nvidia ist hier extrem, auch wenn ich mir erst letzten Monat eine Nvidia Karte gekauft habe, so sehe ich nicht ein warum ich mir einen Monitor mit GSync für +700€ kaufen sollte, wenn ich vergleichbare Modelle ohne schon für ~500€ bekomme...

Wenn GSync nicht günstiger wird, werde ich wohl nie einen Monitor damit kaufen und bei meiner nächsten Grafikkarte dann statt zu Pascal eventuell doch wieder zu AMD zu greifen weil dort FreeSync für einen nicht ganz so hohen Aufpreis zu haben ist.


In meinen Augen wäre es aber am besten wenn Nvidia irgendwie von ihrem hohen Ross gezogen wird und sie dadurch gezwungen werden endlich auch FreeSync zu unterstützen, aber so wie es bisher aussieht glaube ich nicht daran dass das so bald passieren wird....
 
DonDonat schrieb:
Mich ärgert an FreeSync und GSync der Aufpreis gegenüber "normalen" Bildschirmen ohne Adaptive Sync Technologie:
es mag ja schön und gut sein dass sich das Spielen mit Adaptive Sync besser anfühlt als ohne aber der Aufpreis den man dafür zahlen muss, rechtfertigt in meinen Augen kaum das bessere Nutzungs-Gefühl...

Das ist doch aber in vielen Sparten ähnlich. Bevor etwas "in Serie" kommt, werden erst mal diejenigen, die das neue Feature/die neue Technik gleich haben wollen, zur Kasse gebeten. Ich fände es auch toll wenn die Geschichte schon günstiger zu haben wäre und ohne Beschränkung auf einen Hersteller. Ist aber nicht so. Also gewinnen entweder meine schwäbischen Gene und ich verkneife mir die Anschaffung. Oder aber ich entscheide mich für eine Seite und drücke das ab, was derzeit eben gezahlt werden muß.
 
ronrebell schrieb:
Hab selbst 4K, Sync, Surround und Co getestet ... war alles nett.
Ein wirklich nachhaltiges upgrade war für mich ausschließlich 2D --> 3D.
Und da scheiden sich die Geister. Ich hab damals als Nvidia 3D Vision (erste Generation) eingeführt hab, mir den Kram gekauft. Zum Einsatz kam die Brille vllt. fünf Mal, wenn es hochkommt. Im Endeffekt hat der 3D-Effekt gestört und genervt. Da gefällt mit G-Sync deutlich besser, da das Spielen nicht anders, sondern nur angenehmer ist.
 
Der neue Asus is mit Non TN, 30-165hz bei 1440p bei 27 Zoll schon sehr sehr geil. 2 davon lachen mich an aber mein super 40" Philips 4k kostete dasselbe, und da ich viel Photoshop und LR mache wäre mir ein guter 4K, groß mit 30-60hz free/Gsync am liebsten.

Da Nvidia ja bei dez GPU bei >80% Anteil liegt setzen viele Panel/Monitor Hersteller trotzdem auf gsync, die sind nicht all zu sehr unter Zugzwang, leider.
 
Ja, der Support war damals auch mau.
Dann kam 3D Vision 2, Backlightboost und ansprechende Monis. Dazu guter Moddingsupport.
Da bist du leider viel zu früh ausgestiegen.
 
Adative Sync schön und gut, aber man muss sich seinen aktuellen Monitor auch nicht schlechter machen, als er ist.

Man muss sich einfach angewöhnen, einen 60 Hz Monitor auch mit exakt 60 FPS + Vsync zu füttern, und keinen Frame weniger. Alles unterhalb von 60 stottert nunmal, selbst wenns 59 sind, es stottert.

Der einzig wirkliche nachteil im Vergleich zu Adaptive Sync ist der minimal höhere Inputlag.
Das bild mit 60 FPS @ 60 Hz Vsync ist aber dafür exakt genau so flüssig wie mit nem adaptive sync Monitor.
Sprich, einem perfekt stotterfreiem Bild steht auf nem normalen Monitor auch nichts im Wege, man ist halt nur ziemlich stark eingeschränkt.


Ohne Frage, mein nächster Monitor wird definitiv auch Adative Sync beherrschen, das Feature ist absolut überfällig. Aber so dramatisch wie es eingangs beschrieben wurde ist es nunmal nicht.
Da wird ja schon fast suggeriert, ein flüssiges Bild, wäre auf nem normalen Monitor überhaupt gar nicht erst möglich. Das ist aber definitiv falsch.
Solange ein Monitor exakt so viele FPS bekommt, wie es die Refreshrate vorgibt und diese Frames dank Vsync auch noch mit dem Monitor exakt synchron laufen gibt es keine Möglichkeit, dass die Ausgabe ruckelt.
Adative sync macht schließlich auch nichts anderes, mit dem einzigen unterschied, dass es statt mit 60 FPS/Hz mit "jeder" framerate funktioniert.
 
Zuletzt bearbeitet von einem Moderator:
Ich hab mit der Technik ja ein ganz anderes Problem... ich sitz hier so vor meinem LG und denk mir: nie wieder unter 47" ;-)

Aber auf Adaptive Sync für TV Geräte kann ich vermutlich ewig warten. Also einfach VSync an und schauen das man 60FPS erreicht.
 
Laggy.NET schrieb:
Man muss sich einfach angewöhnen, einen 60 Hz Monitor auch mit exakt 60 FPS + Vsync zu füttern, und keinen Frame weniger.

Das ist nur schlicht und einfach zu teuer. Ich will mir keine 980 TI kaufen, um dann doch mit reduzierten Details spielen zu müssen, um minimal 60 fps zu halten. Dagegen ist sogar das ach so teure G-Sync preiswert.
 
Ich war ein Early Adoper und habe den Asus SWIFT mit 27" und G-Sync im Einsatz. Der Monitor ist fantastisch, leider hat die gesamte Reihe einen Serienfehler und die Monitore verrecken am laufenden Band. Der Fehler ist recht einfach auszumachen, die Schrift des Monitors wird bei aktiviertem G-Sync (also eigentlich immer) von heute auf morgen unscharf und flackert. Schaltet man G-Sync ab und ULMB an, ist die Schrift wieder scharf, aber das Bild flackert. Mein Asus Swift ist 10 Monate alt gewesen, als ihm dieses Schicksal ereignet ist und ich habe einen kompletten Monat auf die Gewährleistungsabwicklung warten müssen und letztlich einen neuen bekommen.

Ich bin so unendlich froh, den Monitor bei Conrad mit einer Garantieverlängerung auf 5 Jahre (2 Jahre kostenpflichtig für 55€ und 1 Jahr durch Conrad Kundenkarte) gekauft zu haben. Leider ist derzeit davon auszugehen, dass ich den Monitor jedes Jahr einmal einschicken darf... Das ganze ist auch auf der offiziellen Asus ROG Foren in 167 Seiten von Kunden dokumentiert...

Was will ich euch jetzt damit sagen? Dass die Technik leider noch nicht "fertig" zu sein scheint. Der Monitor hat einen Serienfehler und so recht scheint das Problem zum jetzigen Stand noch nicht behoben zu sein. Man muss sich seiner Rolle als Early Adoper einfach bewusst sein und am besten diese Art von Geräten nur mit 5 Jahren Garantie kaufen. Von dem Spielerlebnis her ist das ein unfassbares Gefühl. Pixeldichte, Reaktionszeit und Refresh Rate in Kombination mit einem hochwertigem und höhenverstellbarem Gehäuse lässt sofort jeden Zweifel an dem Preis fallen.
 
Zuletzt bearbeitet:
Jesterfox schrieb:
Ich hab mit der Technik ja ein ganz anderes Problem... ich sitz hier so vor meinem LG und denk mir: nie wieder unter 47" ;-)

Aber auf Adaptive Sync für TV Geräte kann ich vermutlich ewig warten. Also einfach VSync an und schauen das man 60FPS erreicht.
Ich zähle 3 verschiedene GSync Modelle die ich im Besitz gehabt habe, und kenne dementsprechend den Effekt.

Solange man das Triple Buffering einschaltet und stets 60 FPS erreicht ist es eigentlich gar nicht so schlimm ohne diese Technik zu leben.
Durch die GTX 980 Ti ist dies natürlich so gut wie immer möglich :)
 
JMP $FCE2 schrieb:
Das ist nur schlicht und einfach zu teuer. Ich will mir keine 980 TI kaufen, um dann doch mit reduzierten Details spielen zu müssen, um minimal 60 fps zu halten. Dagegen ist sogar das ach so teure G-Sync preiswert.

Ich hab eine GTX980, die ja bekanntermaßen nicht viel schneller als ne deutlich günstigere GTX970 ist. Damit spiele ich auf meinem 21:9 Monitor mit 29" bei 2560x1080 nahezu alles mit 60 FPS. Selbst Witcher 3 läuft mit konstant 60 FPS, wenn man nur die Objektstichtweite und die Schatten um eine einzige Stufe reduziert. (Hairworks auf niedrig)

Selbst mit 1440p ist es kein großes Problem. Bei der Auflösung muss man sich halt mal mit hohen statt maximalen Details zufrieden geben. Das ist doch kein Beinbruch...


Der punkt ist doch, dass die meisten so oder so mit irgendwas zwischen 40 und 50 FPS spielen. Mit weniger wird wohl keiner hier spielen. Und da reicht es eben aus, wenige Optionen um eine Stufe zu reduzieren, damit die 60 FPS stehen und schon hat man sein perfekt flüssiges Bild.

Wie gesagt, das ist keineswegs ein Ersatz für Adative Sync. Aber ich kann einfach nicht verstehen, warum man mit weniger als 60 FPS @ 60 hz Vsync spielt und das ruckeln akzeptiert, während man andererseits bereit wäre nen teuren Adative Sync Monitor zu kaufen, damit das ruckeln verschwindet.
Da reduziere ich doch lieber das ein oder andere Detail, mach das beste aus dem, was ich habe und hol mir nen Adative Sync Monitor, wenn die zeit gekommen ist...
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben