News FreeSync-Monitore zum Jahreswechsel im Handel

SavageSkull schrieb:
Ist aber wieder nur der halbe Vergleich, da du hier mit dem Grundmodell vergleichst, was ja gar nichts kann. Wie gesagt für aussagekräftige Vergleiche muß man schon G-Sync mit Adaptiv Sync vergleichen.

richtig, wer denkt die neuen monitore mit freesync werden keinen preisaufschlag erhalten wird sich schon noch wundern denke ich mal.
 
Randalmaker schrieb:
Konkurrenz belebt das Geschäft. Wenn FreeSync erstmal am Markt ankommt, werden hoffentlich die Preise für G-Sync auch entsprechend fallen. Vor allem den 27"er von ASUS hätte ich gerne, aber der Preis stagniert bisher bei 800€...mal schauen, wie das in 3-4 Monaten aussieht. :)

Dito. Es ist mir weiterhin nicht erklärbar, weshalb lediglich ASUS diese WQHD Lücke füllt, UHD aber bereits mehrfach vertreten ist. Diese Auflösung ist im Jahr 2014 und wohl auch 2015 mit einer Single-Grafikkarte nicht flüssig zu betreiben; mal abgesehen von den anderen UHD-Problemchen in Windows und der restlichen Software...
 
Limit schrieb:
Bei den Tests von TFTcentral hat der ASUS ROG Swift PG278Q ein Input-Lag von ~2.5ms. Das ist zwar niedrig, aber es wurden auch schon Modelle ganz ohne G-Sync getestet die bei unter 1ms Input-Lag gelandet sind und samt IPS-Panel mit niedrigere Pixel-Response-Time nur 1/4 des Asus kosten. So toll kann die Input-Lag Minderung von G-Sync also nicht sein.
Mit Inputlag ist in diesem fall die träge Steuerung bei aktivierten V-Sync unterhalb von 60 fps gemeint wodurch die Steuerung in vielen Spielen superschwammig wirkt. Bei The Witcher 2 kann man das sehr gut beobachten z.b. und diese riesige Verzögerung behebt G-Sync aber Freesync vorraussichtlich nicht! Aber da hilft nur abwarten weil ich das nur vermute und nicht genau weiss. Es fehlen halt noch Tests dafür.
 
Zuletzt bearbeitet von einem Moderator:
Lübke82 schrieb:
richtig, wer denkt die neuen monitore mit freesync werden keinen preisaufschlag erhalten wird sich schon noch wundern denke ich mal.
Hardware Änderung und Firmware Änderung sowie neues technisches Feature wird sicherlich nicht verschenkt.
 
Den hatte ich auch nicht. Mein Monitor hat UHD und g-sync. Hat 549€ gekostet. Was kostet ein guter UHD ohne G-Sync hier in Deutschland? Nicht viel weniger zumindest. Und mit TN kann ich gut leben wenn die Qualität stimmt. Was sich hier soviele am Preis aufhängen? Für den der Aufpreis nicht wert ist kann doch drauf verzichten und gut ist.
 
Zuletzt bearbeitet von einem Moderator:
Lübke82 schrieb:
Mit Inputlag ist in diesem fall die träge Steuerung bei aktivierten V-Sync unterhalb von 60 fps gemeint wodurch die Steuerung in vielen Spielen superschwammig wirkt. Bei The Witcher 2 kann man das sehr gut beobachten z.b. und diese riesige Verzögerung behebt G-Sync aber Freesync vorraussichtlich nicht! Aber da hilft nur abwarten weil ich das nur vermute und nicht genau weiss. Es fehlen halt noch Tests dafür.
Ich kann deine Spekulation nicht nachvollziehen. Beide Techniken refreshen das Bild wenn die GPU das Bild fertig hat und das entsprechende VBLANK Signal an den Monitor gesendet wird mit samt dem frame. Wie kann es da zu Unterschieden bei der Latenz kommen die von der Framerate abweicht?

Bei AdaptiveSync geht das Bild und der VBLANK Befehl gemeinsam von der GPU direkt zum Scaler im Monitor.
Bei Nvidia geht das Bild zum GSync Modul im Bildschirm, wird Zwischengespeichert und dann mit dem dort zugefügten VBLANK Befehl an den Monitor ausgegeben. Wie kann das kürzere Latenzen bringen wenn ein zusätzlicher Schritt nötig ist? Ich würde Zustimmen wenn durch Buffern gleichmäßigere Frametimes erwartet würden, doch fragt sich da der Nutzen danach auf Kosten der Latenz.
 
Daedal schrieb:
Ich kann deine Spekulation nicht nachvollziehen. Beide Techniken refreshen das Bild wenn die GPU das Bild fertig hat und das entsprechende VBLANK Signal an den Monitor gesendet wird mit samt dem frame. Wie kann es da zu Unterschieden bei der Latenz kommen die von der Framerate abweicht?

Bei AdaptiveSync geht das Bild und der VBLANK Befehl gemeinsam von der GPU direkt zum Scaler im Monitor.
Bei Nvidia geht das Bild zum GSync Modul im Bildschirm, wird Zwischengespeichert und dann mit dem dort zugefügten VBLANK Befehl an den Monitor ausgegeben. Wie kann das kürzere Latenzen bringen wenn ein zusätzlicher Schritt nötig ist? Ich würde Zustimmen wenn durch Buffern gleichmäßigere Frametimes erwartet würden, doch fragt sich da der Nutzen danach auf Kosten der Latenz.

Hat denn niemand einen Laptop der AdaptivSync unterstützt? Ich denke das ist dort ein Standard der verbreitet ist? Diejenigen könnten uns ja mal erleuchten. Und zumindest aus dieser Richtung gab es ja nichts zu lesen das AdaptivSync diesen Effekt hat. Überall hieß es nur das Freesync gegen störende Effekte wie Tearing oder Stuttering ist. Nicht mehr.
 
Zuletzt bearbeitet von einem Moderator:
Lübke82 schrieb:
Mit Inputlag ist in diesem fall die träge Steuerung bei aktivierten V-Sync unterhalb von 60 fps gemeint wodurch die Steuerung in vielen Spielen superschwammig wirkt.
Was hat denn Inputlag mit V-Sync zu tun. Mit Inputlag bezeichnet man doch die Verzögerung zwischen Eingabe (mit z.B. der Maus) und Sichtbarwerden auf dem Bildschirm. Also bspw. ich bewege die Maus, und erst 3 ms später bewegt sie sich auf dem Bildschirm.
 
@ pipapa

Guter Preis aber der Unterschied ist jetzt nicht so doll. Peanuts für mich ;-)
Ergänzung ()

T3rm1 schrieb:
Was hat denn Inputlag mit V-Sync zu tun. Mit Inputlag bezeichnet man doch die Verzögerung zwischen Eingabe (mit z.B. der Maus) und Sichtbarwerden auf dem Bildschirm. Also bspw. ich bewege die Maus, und erst 3 ms später bewegt sie sich auf dem Bildschirm.

Richtig. und es geht um v-sync bedingten Imputlag. Und der ist oft riesig. Aus den Grund zocken die meisten beim Multiplayershooter lieber ohne V-Sync weil die Eingabereaktion deutlich gemindert wird.
 
Zuletzt bearbeitet von einem Moderator:
T3rm1 schrieb:
Der Grund für den Input Lag bei V-Sync ist aber nicht der Monitor.

Doch unter anderem schon weil V-Sync die Grafikkarte auf die nächste Stufe des Monitors runterregelt. werden 60hz des monitors z.b. nicht gehalten schaltet dieser mit v-sync runter auf 30 fps wodurch der Inputlag deutlich erhöht wird. Eine schwammige Steuerung entsteht oftmals.
 
Unyu schrieb:
Und schon ist Tahiti aka 7900/280 veraltet. AMD verdient am Verauf neuer Radeons. nvidia verdient an den neuen Monitore.

Klasse wie die Konkurrenz das Geschäft "belebt" hat.
Am Ende wird mein neuer Zielmonitor nichts von beiden unterstützen.

AMD hatte die Funktion um die Bildwiederhiolrate variabel anzupassen, bereits im Jahr 2012/2011 bei der Konzeption der HD 7790 fest eingeplant.
Die Funktionalitäten waren im Chip integriert, während Nvidia das über einen FPGA innerhalb des Monitors löste.

Es sieht so aus, als ob AMD schon deutlich früher dieses Feature eingeplant hat, während Nvidia in den Kepler GPU´s keine Logik hat, welche die Bildwiederholrate kontrolliert, sondern das der FPGA übernimmt.

Dein Hinweis darauf, dass die Tahiti GPU von 2011 es nicht unterstützen ist korrekt.

Deine Schlussfolgerung Nvidia verkauft Monitore und AMD Grafikkarten, ist wohl eher als Satire zu werten.
Es gibt aktuell gerade einmal 3 G-sync Modelle die verfügbar sind, obwohl Nvidia damals ankündigte dass die Monitore anfang des Jahres 2014 kommen sollten.

Klasse wie die Konkurrenz das Geschäft "belebt" hat.

Ein Seitenhieb auf AMD, anstatt über die News zu diskutieren, war schon immer in der Fanboyszene beliebt.

Am Ende wird mein neuer Zielmonitor nichts von beiden unterstützen.

Ein offener Vesa Standard mit deutlich günstigeren Scalern vs. einen FPGA ( immernoch ohne Asic ) und eine proprietäre Auslegung des ganzen.
Intel und AMD können hier also keine Treiber für G-sync stellen, oder es nutzen.

Freesync nutzt den Displayportstandard und die Funktion des Scalers, welcher die Bildwiederholraten anpassen kann, durch den Befehl der Grafikkarte.

Es gab bereits Gerüchte einer Aussage eines Nvidia Mitarbeiters, der bestätigte dass Nvidia auch diesen Displayportstandard unterstützen wird.

Es bleibt Ihnen auch gar nichts anderes übrig Adaptive Sync mitzusupporten.

Numrollen schrieb:
Ich bezweifle das Nv auch auf den Adaptive Sync Zug aufspringt. Damit wäre ihre Technologie, die ja nicht besser ist im ganzen, ja vorbei.

Was ich denke ist, dass Nvidia diese Technik bei AMD in den Papieren die gestohlen wurden fand und deswegen diesen FPGA entwickelte und keinen Asic mit den Monitorherstellern.
Es war eine schnelle Einführung von G-sync und eine schnelle Antwort von AMD, die rein zufällig die Funktionalität schon bei der Planung von Bonaire auf dem Reisbrett 2011 implementiert hatten.

Nvidia hat bisher in Kepler nichts derartiges implementiert, sondern wohl erst bei den Maxwellkarten.

Herdware schrieb:
Ich gehe stark davon aus, dass Intel, als größter GPU-Hersteller, überhaupt kein Interesse daran hat, irgendeine mit FreeSync oder G-Sync vergleichbare Technologie zu entwickeln. Weder eine auf Adaptive Sync aussetzende, noch irgendwas auch monitorseitig propritäres wie G-Sync. Die haben einfach nicht genug Priorität auf Gaming.

Ich denke du bist hier auf dem falschen Pfad. Wenn du denkst dass die Entwicklung einer solchen Technologie, lediglich dem Monitor zu sagen, wann ein Bild gesendet werden soll und wann nicht, eine "Spezialsoße" sei, dann denke ich musst du darüber nochmal nachdenken.
Was soll hier an Soße groß benötigt werden? Ist trocken wie ein Knäckebrot, wurde nur stiefmütterlich behandelt.

Nvidia hingegen hat schon eine eigene Technologie, die im Gegensatz zu FreeSync schon jetzt funktioniert und für die es auch schon Monitore zu kaufen gibt (wenn auch noch nur wenige und ziemlich teuer). Solange nicht klar ist, dass G-Sync komplett floppt, werden die lieber daran festhalten, statt von Null neu anzufangen.

Ja da kann ich zustimmen, wobei ich kaum glaube, dass sich G-sync halten kann.
Letztendlich müsste das ja ein Minusgeschäft für Nvidia werden und das nur für ein paar Fanboys die sich festlegen wollen und die nächsten 5 Jahre nur Nvidiagrafikkarten kaufen und natürlich diejenigen die gerne mehr Zahlen als nötig.

Aber selbst wenn G-Sync floppt, dann wird es noch viele Jahre dauern, bis Nvidia eine neue, auf Adaptive-Sync aussetzende Technik entwickelt und kompatible GPUs auf dem Markt hat.

Maxwell kann es doch offenbar schon. ;)

Sontin schrieb:
Vaporsync wird nur von AMD unterstützt.

Warum hast du denn als G-sync noch nicht fertig war, hier nicht auch zum Terminus "Vapor"-sync gegriffen?

Deadal schrieb:
Vorausgesetzt sie können Monitorhersteller überzeugen überhaupt noch GSync Monitore zu bauen und die Hardware von Ihnen zu kaufen. Dass es genügend Nvidia-Fanboys gibt die diese Technik am Leben halten könnten bezweifle ich nicht.

Ich bezweifel das bisher. Weil der Verkauf der G-sync Monitore bisher alles andere als gut lief.
Und bis die Hersteller die offene Schnittstelle anbieten, dauert es wohl keine 2 bis 3 Monate mehr.
Und da Nvidia schon gespoilert hat, sie werden auch den Displayportstandard unterstützen, gibts eh kein Problem.

Limit; schrieb:
Das Adpative Sync sich verbreitet würde ich als fast sicher betrachten. Afaik ist es so, dass ein Scaler mit Adaptive Sync nicht mehr ode nur minimal mehr kostet als einer ohne. Warum sollte also irgendein Monitor-Hersteller bei zukünftigen Modellen darauf verzichten? Die Unterstützung von G-Sync durch die Monitor-Hersteller ist hingegen eher dürftig und dürfte es auch bleiben, einfach weil die Hersteller nicht mehrere Standards unterstützen wollen.

Hier kann ich nur zustimmen.
Das heißt nicht dass G-sync gleich verschwinden wird. Ich denke niemand anderes wird das wirklich anders einschätzen wenn er mit der Sache vertraut ist.

Unyu schrieb:
Was interessiert mich als Käufer das Alter der GPU? Das war Neuware, die jetzt veraltet ist. Evtl. gerade wegen Mantle gekauft...

Offenbar suchst du selektiv Punkte bei denen du AMD angreifen kannst, schäm dich was.
Diskutiere doch mal lieber über G-sync/Freesync/ Adaptive Sync.

Sontin schrieb:
Alle anderen kaufen keinen solchen überteuerten Monitor mit einer nutzlosen Technik.

Du redest hier von G-sync, wo man sich Jahrelang auf Nvidiakarten festlegt?
Wenn AMD einen Kracher herausbringt, kann man nicht aufrüsten, sondern muss den Monitor nachkaufen.
Ja das ist in der Tat überteuert, man manövriert sich in eine unmanövrierbarkeit.

Demnächst bundeln wir auch andere Pheripherie an die Grafikkarten, wie wäre es mit Mäusen und Tastaturen?
Ne besonders schnelle Übertragungstechnik über PCie statt USB.:D

Cris-Cros schrieb:
Nvidia hat die Technik einfach super vermarktet, genau wie ihr ganzes Image über die Jahre. Nvidia wird häufig mit Qualität verbunden, AMD hingegen mit Budget Losungen, zumindest bei unaufgeklärten Privatnutzern.

Wer sich ein bisschen mit der Vermarktung von G-sync beschäftigt hat weiß dass diese Monitore

a) überteuert sind
b) man sich auf einen Hersteller festlegt und bei Wechsel einen neuen Monitor benötigt
c ) der Support nicht mehr sogut ist, wenn die offenen Lösungen kommen, denn G-sync ist auch abhängig davon welche Engine genutzt wird.

Der gemeine Kunde weiß davon natürlich nichts.
Allerdings hat sogut wie niemand G-sync gekauft, wenn man sich die Sammelthreads ansieht, hier herscht eine niedrige Anzahl von Interesse.

Sontin schrieb:
Lolwut? Du wiederholst hier propagandamäßig das Zeug von AMD ohne auch nur einen Beweis für die Funktionsfähigkeit zu haben.

Warum soll es denn nicht funktionieren? Es wurden doch jetzt auch schon Demos mit adative Sync und Freesync gezeigt.
Du zweifelst es doch nur an, weil du das Fell von Nvidia bei dieser Technologie davonschwimmen siehst.

Viel wichtige wäre ein Standard für alle und keine Alleingänge. Das belebt den Konkurrenzkampf, drückt die Preise und führt zu besseren Lösungen und ist kundenfreundlicher.
Dir könnte Nvidia auch Scheiße verkaufen und du würdest deine Nase reinbohren und sagen es riecht super. Einfach nur unfassbar.

SimsP schrieb:
Ich habe irgendwie den Eindruck, dass das ganze sehr ähnlich wie bei 3D laufen wird.
NVidia legt vor mit einer funktionierenden Lösung und eigener Hardware. AMD kommt mit einem vermeintlich offenen Standard, für den man zwar keine spezielle Zusatzhardware braucht, der aber bis heute nicht richtig funktioniert.
Da Freesync, wie auch AMD HD3D, wieder sehr stark von der Qualität des AMD Treiber abhängt rechne ich mir keine großen Chancen für Freesync aus. Erfahrungsgemäß ist es nicht besonders ratsam auf die Qualität des AMD Treibers zu vertrauen.

Die Treiberqualität ist doch sehr gut bei AMD, vergleichbar mit Nvidia.

Gaming in 3D ist eine Nische der Nische und ebbt schon wieder ab.
AMD hat hier einfach so wenig Ressourcen wie möglich reingesteckt, denn offenbar interessiert es niemanden.
Dies als Bewertung für Freesync heranzuziehen, halt ich für Klischee.

BernardSheyan schrieb:
Euch ist aber schon bekannt, dass AMDs FreeSynch unter dem Namen AdaptiveSynch Teil des DisplayPort-Standards 1,2a wird? Und dass Monitore, die diesen DisplayPort-Standard unterstützen dann auch automatisch FreeSynch bzw. AdaptiveSynch mitbringen?

Nein das wird so gut es geht nicht erwähnt und verdrängt, denn eine Lösung von AMD kann ja nur schlecht sein.

Sontin schrieb:
G-Sync existiert und ist kaufbar - damit objektiv belegbar.

Vaporsync? Wenn du kein AMD Mitarbeiter bist, hast du überhaupt keine Ahnung, ob die Aussagen von AMD überhaupt der Wahrheit entsprechen. Weder hat jemand Adaptive-Sync in Notebooks gesehen noch mit einem Monitor getestet.

Das einzige argument dass du hast ist das recht kindische, ätschebätch Nvidia bietet die Monitore schon an und AMD nicht.
Das ist auf einem Niveau eines Grundschülers. Ist es wirklich so schwer zu akzeptieren dass Nvidia hier vielleicht 2ter wird?

Sontin schrieb:
Vaporsync wird von dir hier als das beste hingestellt ohne das du es je gesehen hast.

Niemand spricht davon es sei das beste.
 
smilefaker schrieb:
b) man sich auf einen Hersteller festlegt und bei Wechsel einen neuen Monitor benötigt
c ) der Support nicht mehr sogut ist, wenn die offenen Lösungen kommen, denn G-sync ist auch abhängig davon welche Engine genutzt wird.

zu Punkt b): Nein muss man nicht. Der Monitor funktioniert auch mit AMD-Grafikkarten. Nur G-sync ist außer Funktion dann. Das man einen neuen Monitor braucht ist Unfug.

und zu Punkt c) Das kann stimmen, muss aber nicht. Bis jetzt reine Spekulation. Habe nichts davon gehört das es G-Sync-Profile für Spiele erfordert:freak:
 
Zuletzt bearbeitet von einem Moderator:
Da bin ich dann mal gespannt, wie sich die Technik dann in der Praxis bewährt ...es bleibt spannend! ;-)
 
Lübke82 schrieb:
zu Punkt b): Nein muss man nicht. Der Monitor funktioniert auch mit AMD-Grafikkarten. Nur G-sync ist außer Funktion dann. Das man einen neuen Monitor braucht ist Unfug.

G-sync funktioniert sicherlich nicht mit AMD Karten und es war doch wohl überdeutlich was gemeint ist.

Das kann stimmen, muss aber nicht. Bis jetzt reine Spekulation. Habe nichts davon gehört das es G-Sync-Profile für Spiele erfordert

Habe ich von Profile geredet? Ich meine Support.
G-sync könnte eher sterben als gedacht.
 
Zurück
Oben