Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NotizNeue Bezeichnung: Aus AMD FreeSync 2 wird FreeSync 2 HDR
Bin ich der einzige dem der große Unterschied bei beiden Herstellern aufgefallen ist:
AMD mind. 600 cd/m2
NVIDIA mind. 1000 cd/m2
Warum kann man nicht einen HDR Standard machen und alle Hersteller mitziehen. Da sehe ich doch wieder den Markt mit Billigmonitoren überschwemmt und alle versprechen sie dir sonstwas.
"DisplayHDR 600" ist ein festgelegter Standard und den schaffen Billigmonitore eher weniger.
Und was soll man mit 1000 cd/m² in kleinen Bereichen bzw. 600 cd/m² über die gesamte Fläche (HDR 1000)? Das Bild in die Netzhaut einbrennen? Man stellt den Monitor üblicherweise nicht nach draußen in die Sonne...
Du ich bin da ganz bei dir. Ich finde diese hohen Leuchtdichten wurde ja auch nur wegen den LEDs eingeführt. OLEDs kommen meist gar nicht so hoch, eigenen sich dank kompletten schwarz dann aber doch besser für HDR.
Nein Problem sind tatsächlich mal wieder die 10 Hersteller die 20 Standards einführen.
3. NVidia macht einmal etwas richtig und schafft den eigenen proprietären Mist wieder ab. Wobei das sowohl unwahrscheinlich, als auch ein Schlag ins Gesicht für Käufer von GSync Monitoren ist.
Nvidia ist ein Unternehmen welches auf Profit aus ist. Solange die Lemminge bereit sind bis zu 300€ Aufschlag und mehr (ja es gibt Monitore im höheren Preissegment die alleine wegen G-Sync 300€ mehr kosten) zu zahlen, und ja das sind sie, macht Nvidia alles richtig.
Und das wird über kurz oder lang einfach der tot sein für HDR.
Genauso ging es mit 3D in x verschiedenen Versionen und schwupp war es nach ner Zeit verschwunden.
Das verwendete Panel zum Beispiel.
Solche Monitorvergleiche sind immer etwas schwierig, vor allem wenn die Monitore von verschiedenen Hersteller kommen (individuelle Preispolitik ist schwer vergleichbar).
Wenn dann müsste man 2 baugleiche Modelle finden, die dieselben inneren Komponenten (abgesehen vom G-Sync Modul) verwenden.
Ja, da steht dass es kommen soll, aber nicht wann.
Hab bis heute noch nichts von HD Graphics mit Adaptive Sync gehört. Aber ich verfolge FS+AS auch nicht so genau, weils für mich keine Relevanz hat solange ich mit G-Sync unterwegs bin.
Mihawk90 schrieb:
Wenn dann müsste man 2 baugleiche Modelle finden, die dieselben inneren Komponenten (abgesehen vom G-Sync Modul) verwenden.
Ja, und das wird ziemlich schwer, denn anders als bei G-SYnc gibt es bei AS so gut wie keine qualitativen Mindeststandards soweit ich das sehen kann. Daher kann man da auch theoretisch Rotzpanels verbauen solange der Scaler Adaptive Sync kann. Man verbaut ja generell auch nicht unbedingt Premiumzeugs wenn man über den Preis kommen will. Daher weiß ich auch nicht woher die ominösen 300 Euro Preisaufschlag für G-Sync kommen sollen.
Das einzige was ich bemerke ist, dass FreeSync Monitore im Gegensatz zu G-Sync Monitoren nach Erscheinen schneller im Preis fallen.
Sieh das lieber mal aus dem Blickwinkel eines aktuellen Besitzers eines G-Sync Monitors samt Nvidia Karte. Für diese 300€ Unterschied wird man niemals eine gleichwertige Grafikkarte von AMD bekommen. Wenn man diese überhaupt bekommen könnte. Aktuell gibt es z.B. zur 1080 Ti gar nichts Vergleichbares.
Insofern kann ich die Argumentation nicht nachvollziehen.
Die Frage ist doch auch, ist denn Free-/Adaptive Sync gleichwertig zu G-Sync? Ich meine, wenn es auch ohne extra Chip gehen würde, würde Nvidia das doch machen, an Lizenzkosten lässt sich auch so genug verdienen, ohne das man extra Hardware fertigen muss.
Leider finde ich keine aktuellen Vergleiche. Ich hab was von Anfang 2016 das FreeSync Probleme bzw. leichte Ruckler beim Umschalten auf LFC unterstellt. Aber AMD hatte zweieinhalb Jahre zeit zu optimieren, ist das immer noch so?
Die Frage ist doch auch, ist denn Free-/Adaptive Sync gleichwertig zu G-Sync? Ich meine, wenn es auch ohne extra Chip gehen würde, würde Nvidia das doch machen, an Lizenzkosten lässt sich auch so genug verdienen, ohne das man extra Hardware fertigen muss.
nVidia hat G-Sync gebracht als es für Desktopmonitore noch kein Adaptive Sync gab. Das gab es zu der Zeit nur bei Notebooks und da auch eigentlich nur um Strom zu sparen. Es wurde als Modul realisiert, weil man wahrscheinlich keine Lust auf einen langen Diskussionsprozess mit der VESA hatte und sich nicht auf Monitorhersteller verlassen wollte, dass die auch Adaptive Sync verbauen. Natürlich hat man auch immer gern Kontrolle, aber ich denke nicht dass es vorrangig darum ging, sondern eher um den Zeitfaktor.
Kontrolle ausüben dürfte eher jetzt das Thema sein. Man kann den Monitorherstellern Mindestvorgaben machen und so eine Mindestqualität vorgeben. Das kann AMD nicht. Die zertifizieren zwar auch Monitore, aber zur Not gehts auch ohne. Dann kann der Monitorhersteller nicht mit FreeSync werben, aber immer noch mit Adaptive Sync. FreeSync geht dann trotzdem weil AMD die Funktion anscheinend nicht blockiert wenn ein nicht zertifizierter Monitor genutzt wird.
Die Frage ist doch auch, ist denn Free-/Adaptive Sync gleichwertig zu G-Sync? Ich meine, wenn es auch ohne extra Chip gehen würde, würde Nvidia das doch machen, an Lizenzkosten lässt sich auch so genug verdienen, ohne das man extra Hardware fertigen muss.
gsync bei notebooks nutzt kein modul und setzt voll auf den as standard von edp. das könnten sie völlig problemlos auch auf desktopmonitoren umsetzen. wollen sie aber nicht, denn damit ginge die "exklusivität" flöten.
Für diese 300€ Unterschied wird man niemals eine gleichwertige Grafikkarte von AMD bekommen. Wenn man diese überhaupt bekommen könnte. Aktuell gibt es z.B. zur 1080 Ti gar nichts Vergleichbares.
Insofern kann ich die Argumentation nicht nachvollziehen.
Da man einen Monitor üblicherweise zwei oder mehr Grafikkartengenerationen behält, sind es im Prinzip 150€ oder weniger Unterschied, und dann ist da noch das:
Nilson schrieb:
Leider finde ich keine aktuellen Vergleiche. Ich hab was von Anfang 2016 das FreeSync Probleme bzw. leichte Ruckler beim Umschalten auf LFC unterstellt. Aber AMD hatte zweieinhalb Jahre zeit zu optimieren, ist das immer noch so?
Außerdem ist mein G-Sync-Monitor schon 3 1/2 Jahre alt, und die GTX 1070 fast 2 Jahre. Zu diesen Zeiten hatte AMD nichts vergleichbares im Programm, und nach den neuesten Gerüchten könnte sich das Trauerspiel mit der GTX 1180 wiederholen.
Interessant wird die ganze Geschichte wenn mit HDMI 2.1 und der PS5/X2 das ganze großflächig im Wohnzimmer einzug findet.
Spätestens dann, wenn die neuesten OLEDs VRR über HDMI 2.1 unterstützen muss sich nVidia öffnen.
Glaube der TV Markt ist NVidia relativ egal. Bis auf die Shield haben die ja kaum Aktien in dem Bereich. Nur deswegen werden die GSync nicht über Bord werfen.
Glaube der TV Markt ist NVidia relativ egal. Bis auf die Shield haben die ja kaum Aktien in dem Bereich. Nur deswegen werden die GSync nicht über Bord werfen.
Glaube der TV Markt ist NVidia relativ egal. Bis auf die Shield haben die ja kaum Aktien in dem Bereich. Nur deswegen werden die GSync nicht über Bord werfen.
Das stimmt nicht ganz.
Nvidia hatte die riesen BFGD Großbildschirme mit 65" 4k@120Hz HDR G-Sync 2 Modul/Shield TV für 2018 angekündigt. Egal scheint ihnen das also nicht zu sein.
Die sonstigen G-Sync Monitore dominieren in Sachen Qualiätät und leider auch im Preis. Bei Freesync hingegen ist nach wie vor Chaos angesagt. Da kocht jeder Hersteller sein eigenes Süppchen, trotz angeblichem "Standard".
Persönlich können mich die 4k UHD Schinken gerne einmal. Mein Favorit ist nach wie vor die 21:9 Auflösung mit 34-35" als UWQHD. Sowie es bezahlbare G-Sync HDR Versionen gibt, schlage ich dort zu.