Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News „Intel FreeSync“: Laut Chris Hook ist Adaptive-Sync weiterhin geplant
- Ersteller MichaG
- Erstellt am
- Zur News: „Intel FreeSync“: Laut Chris Hook ist Adaptive-Sync weiterhin geplant
estros
Fleet Admiral
- Registriert
- Sep. 2009
- Beiträge
- 10.369
@immortuos
Wieso? Ist doch die technisch beste Umsetzung. Wäre schade für die Gaming Welt, wenn sie ausstirbt.
Wieso? Ist doch die technisch beste Umsetzung. Wäre schade für die Gaming Welt, wenn sie ausstirbt.
Rhino One
Lieutenant
- Registriert
- März 2018
- Beiträge
- 826
Das braucht sich auch nicht ändern freesync funktioniert ja über einen Trick sieheZotac2012 schrieb:So lange Nvidia auf sein proprietäres GSync setzt, wird Freesync von den Nvidia Grafikkarten nicht unterstützt. Und bisher gibt es nicht mal ansatzweise einen Hinweis von Nvidia, das sich da etwas in Zukunft ändern könnte!
https://www.computerbase.de/2018-08/trick-freesync-mit-nvidia-gpu/ wenn das jetzt auch mit adaptiv funktioniert wäre top.
Ergänzung ()
Das braucht sich auch nicht ändern freesync funktioniert ja über einen Trick sieheZotac2012 schrieb:So lange Nvidia auf sein proprietäres GSync setzt, wird Freesync von den Nvidia Grafikkarten nicht unterstützt. Und bisher gibt es nicht mal ansatzweise einen Hinweis von Nvidia, das sich da etwas in Zukunft ändern könnte!
https://www.computerbase.de/2018-08/trick-freesync-mit-nvidia-gpu/ wenn das jetzt auch mit adaptiv funktioniert wäre top.
Minutourus
Lt. Commander
- Registriert
- Feb. 2003
- Beiträge
- 1.174
Bleibt ihnen ja nichts anders übrig oder wollen Sie den HDMI Standard dafür auslassen? ^^
jm2c
jm2c
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.898
Rhino One schrieb:Das braucht sich auch nicht ändern freesync funktioniert ja über einen Trick
Wenn ich mir einen Gaming-Monitor für eine 4-stellige Summe anschaffe, möchte ich mich dabei nicht auf Tricks verlassen müssen, die mit dem nächsten Treiberupdate von Nvidia vielleicht nicht mehr funktionieren.
Minutourus schrieb:Bleibt ihnen ja nichts anders übrig oder wollen Sie den HDMI Standard dafür auslassen?
Intel könnte iGPUs mit HDMI 2.1-Unterstützung bringen, die aber einfach keinen Gebrauch von VRR machen.
Nur weil HDMI das dann unterstützt, müssen es die darüber angeschlossenen Geräte ja nicht zwangsweise nutzen. Wenn z.B. ein UHD-BluRay-Player über HDMI 2.1 an einen Fernseher angeschlossen wird, passiert dabei garantiert auch keine dynamische Synchronisation von Framerate und Refresh.
Zuletzt bearbeitet:
Nelathan
Newbie
- Registriert
- Juli 2016
- Beiträge
- 5
Aber beim kommenden HDMI 2.1 Standard ist Variable Refresh Rate (VRR) und Quick Frame Transport (QFT) inkludiert.Iapetos schrieb:Leider nein. DP 1.2a muss nicht heißen, dass der verbaute Scaler auch Adaptive Sync kann.
LCD Panels haben ein konstantes Backlight, die Helligkeit ändert sich nicht während eines Frames auch wenn es kürzer ist.Iapetos schrieb:Ab einer niedrigen Framerate werden Frames verdoppelt. Anders wäre das auch nicht möglich, weil die Leuchtstoffe nicht ewig nachleuchten.
anexX
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.937
Zotac2012 schrieb:Und bisher gibt es nicht mal ansatzweise einen Hinweis von Nvidia, das sich da etwas in Zukunft ändern könnte!
Das wirste auch nicht erleben denn Gsync Monitore gehen trotz des krassen Gsync Aufpreises weiterhin weg wie warme Brötchen - solange die Leute einfach zahlen egal was verlangt wird ändert sich da gar nichts.
- Registriert
- Mai 2007
- Beiträge
- 5.004
Ist doch bei NV, Intel, MS, EA, Ubi etc überall das gleiche - großes Gemecker, Konsequenzen ziehen aber die wenigsten und die kundenfeindlichen Konzerne lachen sich über die Kritiker schlapp...anexX schrieb:Das wirste auch nicht erleben denn Gsync Monitore gehen trotz des krassen Gsync Aufpreises weiterhin weg wie warme Brötchen - solange die Leute einfach zahlen egal was verlangt wird ändert sich da gar nichts.
Iapetos
Commander
- Registriert
- Mai 2007
- Beiträge
- 2.329
Und was hat das mit DP 1.2a zu tun?Schlammsuhler schrieb:Aber beim kommenden HDMI 2.1 Standard ist Variable Refresh Rate (VRR) und Quick Frame Transport (QFT) inkludiert.
Und was hat die Hintergrundbeleuchtung mit den Leuchtstoffen in den Subpixeln zu tun?Schlammsuhler schrieb:LCD Panels haben ein konstantes Backlight, die Helligkeit ändert sich nicht während eines Frames auch wenn es kürzer ist.
immortuos
Admiral
- Registriert
- Dez. 2012
- Beiträge
- 7.816
Mal nebeneinander getestet? Der Unterschied ist minimal, dafür zusätzliche Hardware verbauen zu müssen ist unnötig. Ohne Direktvergleich merkt man keinerlei Unterschied.estros schrieb:Wieso? Ist doch die technisch beste Umsetzung. Wäre schade für die Gaming Welt, wenn sie ausstirbt.
G-Sync ist in vielerlei Hinsicht unnötig und nur noch am Markt, weil Nvidia Käufer derzeit keine Alternative haben.
noxon
Admiral
- Registriert
- Sep. 2004
- Beiträge
- 7.570
GSync ist zwar etwas teurer, dafür aber qualitativ auch etwas besser. Warum sollte nVidia also dieses Qualitätsmerkmal aufgeben? Das ist so als ob Gucci seine Sachen jetzt so günstig verkaufen würde wie Addidas.Iscaran schrieb:Vielleicht gibt ja nVidia dann auch endlich ihre Blockadehaltung auf...
Natürlich können die das, aber warum sollten sie? Sie haben das bessere Produkt und Leute, die das haben wollen, die bezahlen auch gerne dafür.
Du scheinst irgendwleche "leuchtstoffe" zu dir genommen zu haben. Anders ist der Unsinn den du von dir gibst nicht zu erklären.Iapetos schrieb:...d was hat die Hintergrundbeleuchtung mit den Leuchtstoffen in den Subpixeln zu tun?
In der LC-schicht leuchtet gar nichts, in den sub-pixeln sind nur Farbfilter die eben nur das Licht einer bestimmten Farbe, der meist weißen Hintergrundbeleuchtung, durch lässt.
S
Shrimpy
Gast
noxon schrieb:GSync ist zwar etwas teurer, dafür aber qualitativ auch etwas besser.
Wohl eher deutlich Teurer.
Mein 4k IPS hätte mich vor zwei Jahren zu einem Vergleichbaren 300€ mehr gekostet und währe auch paar Monate später verfügbar gewesen.
An sich spricht nichts gegen das es Gsync für "highend" sollen sie halt drauf Zahlen.
Aber es nerft schon gewaltig das NV bis heute nicht Async supportet.
Zuletzt bearbeitet von einem Moderator:
Na passt doch - für den Aufpreis den man für G-Sync zahlt kauft man sich einfach eine "kleine" AMD GPU und übergibt ihr die vom primären Adapter gerenderten Framebuffer daten und lässt sie die Ausgabe erledigen. Mit Freesync.
Falls man doch später eine gute AMD GPU nutzen möchte hat man bereits ein Freesync monitor und eben keine G-Sync panel das einen wiederum zwingen würde eine nVidia GPU zu kaufen. Denn umgekehrt ist ja auf einem G-Sync Display die Nutzung von Adaptive Sync auch "unmöglich".
So kann nVidia weiterhin ihr Zeug verkaufen und ihren Standard halten, und die informierten Nutzer können halt auswählen.
Falls man doch später eine gute AMD GPU nutzen möchte hat man bereits ein Freesync monitor und eben keine G-Sync panel das einen wiederum zwingen würde eine nVidia GPU zu kaufen. Denn umgekehrt ist ja auf einem G-Sync Display die Nutzung von Adaptive Sync auch "unmöglich".
So kann nVidia weiterhin ihr Zeug verkaufen und ihren Standard halten, und die informierten Nutzer können halt auswählen.
Capone2412
Lt. Junior Grade
- Registriert
- Apr. 2008
- Beiträge
- 430
noxon schrieb:GSync ist zwar etwas teurer, dafür aber qualitativ auch etwas besser. Warum sollte nVidia also dieses Qualitätsmerkmal aufgeben? Das ist so als ob Gucci seine Sachen jetzt so günstig verkaufen würde wie Addidas.
Natürlich können die das, aber warum sollten sie? Sie haben das bessere Produkt und Leute, die das haben wollen, die bezahlen auch gerne dafür.
Wenn Nvidia von dieser Meinung tatsächlich überzeugt wäre, würden sie Adaptive Sync nicht aktiv blockieren. Was besser ist, entscheidet normalerweise der Markt, resp. der Kunde.
Da Nvidia aber genau weiß, dass kaum jemand 100-250 Euro mehr für G-Sync zahlen würde, wenn es Adaptive Sync kostenfrei dazu gibt, unterbinden sie einen offenen Standard einfach, um erst gar nicht in die Verlegenheit zu kommen, sich am Markt messen zu müssen.
KarlKarolinger
Lieutenant
- Registriert
- Nov. 2008
- Beiträge
- 729
msgt schrieb:Du scheinst irgendwleche "leuchtstoffe" zu dir genommen zu haben. Anders ist der Unsinn den du von dir gibst nicht zu erklären.
In der LC-schicht leuchtet gar nichts, in den sub-pixeln sind nur Farbfilter die eben nur das Licht einer bestimmten Farbe, der meist weißen Hintergrundbeleuchtung, durch lässt.
Jein, ich hab da mal nachgelesen, von wegen modifizierte Treiber für niedrigere Refreshraten bei FreeSync. Da wurde dann erklärt, dass die Farbfilter eben wieder auf den Ausgangsstatus zurückkehren, wenn der Scaler lange kein neues Signal sendet. So entstehen dann bei zu niedrigen Refreshraten Farbfehler oder der Bildschirm wird sogar schwarz, etc. Kann man irgendwo hier bzw. in den Links darunter nachlesen: https://www.reddit.com/r/Amd/comments/3mdj57/freesync_monitor_driver_hack_expands_refresh_rate/
Bisher hab ich es selber noch nicht ausprobiert, da ich trotz einiger Versicherungen nicht so ganz darauf vertraue, dass es nicht den Monitor beschädigen kann und es so dringend auch nicht nötig ist.
noxon
Admiral
- Registriert
- Sep. 2004
- Beiträge
- 7.570
Also ich würd's aber auch nicht machen. Erst Geld in R&D investieren und dann wenn ich davon profitieren kann das Produkt nicht angemessen vermarkten. Zumal es super der Kundenbindung dient,Shrimpy schrieb:An sich spricht nichts gegen das es Gsync für "highend" sollen sie halt drauf Zahlen.
Aber es nerft schon gewaltig das NV bis heute nicht Async supportet.
Es kann doch keiner im Ernst glauben, dass nVidia so etwas freiwillig aufgibt. Würde AMD oder Intel auch nicht tun.
Im Gegenteil. Man sieht ja an FreeSync 2, dass auch AMD versucht die Kunden stärker an die eigenen Grafikkarten zu binden. Die HDR-API von Freesync 2 muss nicht zwangsläufig auch bei Intel funktionieren.
Wir dürfen nicht vergessen, dass HDR mit den Freesync 2 Monitoren nur funktioniert, wenn die Spiele das auch explizit implementieren und wer weiß, ob Intel das auch mit seinen Treibern unterstützen darf oder ob nur AMD so etwas in seinen Treibern hat. Bestandteil von DirectX oder OpenGL ist es jedenfalls nicht.
HDR in Far Cry 5 funktioniert momentan jedenfalls nur mit AMD Karten und nvidia User können es nicht nutzen.
Anders herum macht nVidia natürlich das Gleiche. In der Beziehung unterscheiden die sich alle nicht. Erst recht nicht die jenigen, die gerade aktuell den Markt beherrschen.
Sei dir da nicht so sicher. Mir ist klar, dass bei AMD Fans oft der Preis das entscheidene Kaufkriterium ist, aber das ist bei nVidia Usern eben oft nicht der Fall.Capone2412 schrieb:Da Nvidia aber genau weiß, dass kaum jemand 100-250 Euro mehr für G-Sync zahlen würde, wenn es Adaptive Sync kostenfrei dazu gibt
Ich bezahle gerne etwas mehr um die Nachteile von Freesync nicht in Kauf nehmen zu müssen. Meinst du da jucken mich die paar 100€?
Wie gesagt. Der Kauf von Gucci Schuhen mag für viele unlogisch erscheinen, weil Addidas Schuhe doch auch ganz gut und viel günstiger zu haben sind, aber Gucci ist halt ein klein wenig besser und es gibt halt Leute, denen macht es nichts aus, dafür mehr auszugeben.
Zuletzt bearbeitet:
Iapetos
Commander
- Registriert
- Mai 2007
- Beiträge
- 2.329
Jaja, gleich beleidigend werden, weil ich den im Englischen gebräuchlichen, aber eher unpräzisen Begriff "Phosphor" mit Leuchtstoff übersetzt habe (was rein linguistisch nicht falsch ist).msgt schrieb:Du scheinst irgendwleche "leuchtstoffe" zu dir genommen zu haben. Anders ist der Unsinn den du von dir gibst nicht zu erklären.
In der LC-schicht leuchtet gar nichts, in den sub-pixeln sind nur Farbfilter die eben nur das Licht einer bestimmten Farbe, der meist weißen Hintergrundbeleuchtung, durch lässt.
Meine tägliche Dosis Leuchtstoffe geht dich außerdem überhaupt nichts an! (Sondern nur mich, meinen Schamanen und meinen Giftmischer.)
Nelathan
Newbie
- Registriert
- Juli 2016
- Beiträge
- 5
Die Subpixel leuchten nicht selbst (ausser Quantumdots) sondern werden bei Strom *ausgeschalten*. Hier nachzulesen: https://www.explainthatstuff.com/lcdtv.htmlIapetos schrieb:Und was hat die Hintergrundbeleuchtung mit den Leuchtstoffen in den Subpixeln zu tun?
Wenn also die Frequenz zu niedrig ist, dann würden eher die schwarzen Pixel grau werden.
Bei meinem IPS Bildschirm habe ich aber schon 12Hz getestet und mir wäre sowas nicht aufgefallen.
Iapetos
Commander
- Registriert
- Mai 2007
- Beiträge
- 2.329
Auch bei Quantenpunkten leuchten die Subpixel nicht, es wird lediglich aus eher blauem Licht in der mit Quantenpunkten dotierten Lichtleiterfolie (oder wo auch immer) Licht diskreter Wellenlängen erzeugt - das ist wohl effizienter, als die herkömmlichen "weißen" LEDs, die ja auch nur blaue LEDs mit weiß leuchtendem (also wahrscheinlich quecksilberhaltigem, denn Quecksilber emittiert nach Anregung rotes, grünes und blaues Licht, das uns weiß erscheint) Leuchtstoff sind.
Ja, es ist nicht ganz so einfach und ich hätte auch lieber OLEDs oder Mikro-LEDs.
Ja, es ist nicht ganz so einfach und ich hätte auch lieber OLEDs oder Mikro-LEDs.
Ähnliche Themen
- Antworten
- 98
- Aufrufe
- 16.595