Dai6oro schrieb:
Nein ist er eben nicht. Normales Freesync funktioniert auch ohne Anpassung. Für die Imputlagreduktion die aber bei klassischen HDR immer da ist (sie Erläuterungen von CB) braucht man eine extra Implementierung über eine API.
Wieso ist das immer da? Das steht doch dort gar nicht... man stelle sich nur mal vor, das seitens dem GPU Hersteller bekannten Daten die GPU hinten genau das ausspuckt, was der Monitor versteht, denn schließlich sollte der Hersteller der GPU auch die Monitore kennen, wo G-Sync implementiert ist... Das erneute Umrechnen im Monitor wird damit unnötig, da die GPU weis, was hinten rauskommen muss -> je Monitor halt. Denkt man das mal einen Schritt weiter, so kommt schnell ein (potentieller) Vorteil einer Ein-Hersteller-properitären Lösung zum tragen... denn genau DAS geht so ohne weiteres mit einem Standard so nicht, wenn nicht explizit vorgegebenen. Der Standard sieht das im Moment so nicht vor und die Monitore müssen hinten Tricksen weil sie es im Moment gar nicht stemmen können...
Damit wäre G-Sync HDR von Haus aus ohne das Lag, während der Standard vorsieht, vollen Umfang hinten darzustellen, man dies aber nicht kann und in Software den Spaß dann ensprechend einkürzt an der Quelle. Technisch wäre sicher auch ein Treiberimplementation möglich, nur müsste dann AMD die Daten pflegen für einen Standard, wo Dritte alle Nase lang ihr eigenes Süppchen kochen -> und das natürlich auch nur AMD based funktioniert (und nicht bspw mit Intel oder Matrox)
Dai6oro schrieb:
Keiner hält Nvidia davon ab Async ebenfalls zu nutzen. Nvidia will die Technik nicht nutzen (Async) AMD kann nicht (Gsync). Ein Unterschied imo. Nvidia nutzt hier schlicht seine Marktmacht aus.
Es hält NV vllt keiner ab, aber es zwingt sie auch keiner dazu... Wo kommen wir bitte hin, wenn die Hersteller nicht mehr das anbieten dürfen, was diese für richtig halten? AMD und Dritte könnten genau so G-Sync lizensieren. Das Argument geht in beide Richtungen. Und ja, sie könnten das! Denn nirgends wird dies verhindert. Ganz im Gegenteil, denn NV kann sich damit ne "goldene Nase" verdienen. Viel eher ist es so, das AMD es nicht will, mit exakt dem selben Grund, warum es NV andersrum mit Freesync nicht will.
PS: was ihr hier vllt übersehen habt, AdaptiveSync ist "nur" optionaler Bestandteil bei DP1.2a... gilt soweit ich weis auch für 1.3/1.4. Solange das so ist/bleibt bekleckern sich BEIDE Hersteller nicht mit Ruhm, nämlich genau an dem Punkt, das man für den Endkunden keine allgemeingültige Lösung findete.
So was funktioniert idR. auch nur dann mit "Erfolg" für den Endkunden, wenn der Standard von Dritten definiert wird und nicht vom Hersteller selbst. Das "freie" FreeSync ist vllt auf Basis eines Standards, aber genau solange ohne Vorteil, wie es sich nicht durchsetzt...
Dai6oro schrieb:
Warum ist Nvidia überhaupt Mitglied der VESA. Ach richtig. Weil sie auf einige Standards angewiesen sind. Displayport zum Beispiel. Aber wozu ein offener Standard bei den Monitoranschlüssen? Nvidia sollte am besten einen eigenen Geport rausbringen ... nur nutzbar mit einer Nvidia Karte. Welchen Sinn hat es schon dass man einen einheitlichen Stecker hat. Also mir wird das echt zu blöd hier.
Das ist doch nur die halbe Wahrheit, ein "Standard" wird erst dann zu einem solchen, wenn er entsprechend genutzt wird. Zumal, wenn mich nicht alles täuscht, NV als Unternehmen auch nicht älter als die ersten Display-Verbinder-Standards ist. Das heist, man war gar nicht in der Lage, den Markt mit eigenen Sachen zu bedienen, weil der Markt dahingehend schon entschieden hat/hatte, damals mit dem "VGA" Stecker, diesem D-Sub irgendwas, später mit DVI. Als Unternehmen beugt man sich dort, wo es notwendig ist. Entgegen dieses unpassenden Beispiels war AdaptiveSync aber "nur" bei eDP standardisiert. Welcher Monitor hat das also genutzt??? Ich sehe da nahezu nix, was am embedded Markt vorbei geht. Man entschied sich also dafür, ein Feature zu bringen, was vorher so nicht möglich war... daraus einen Strick zu drehen ist schon reichlich verquert gedacht.
Nimmt man es genau, hat JEDER Standard mal proprietär angefangen, bis er soweit verbreitet war, das man nicht drum rum kommt. Und wie oben schon erwähnt, AdaptiveSync ist eben KEIN muss...
Laphonso schrieb:
Das "besser" ist wie üblich eine fps pro Euro Thematik, und in den Preisspannen low budget bis High End gibt es ohne Zweifel Bereiche, da ist AMD einfach die bessere Wahl als nvidia.
Nicht zwangsweise, warum sollte man sich Hardware nach FPS pro Euro kaufen, wenn für einen wichtige Features nicht verfügbar sind? Kurzum, wie wichtet man "gar keine Leistung" in einer reinen Preis pro Euro Rechnung?
Aus meiner Sicht ist FPS pro Euro völlig überbewertet. Jeder wird Sachen haben, die er unbedingt will, Features, Eigenschaften, Optik, Effizienz usw. all sowas. Wo findet man das im FPS pro Euro?
Möglicherweise zieht sogar das Argument, man war vorher zufrieden, warum aufs "ungewisse" wechseln? Nur als Stichwort, Markentreue bspw. bei Autos, erkläre mal dem geneigten Audi, BMW oder Benzkäufer, das das P/L nüchtern betrachtet mit nem 10k Dacia Neuwagen idR. weit besser ist... was in ALLEN Märken klappt, klappt definitiv auch bei GPUs...
warscheinlich handeln 99,99% auch exakt nach ihren eigen Vorlieben und nicht nach rational und nüchternen Zahlen. Sollte sich mal Jeder selbst fragen, ob ALLES was man bis dazu im Leben erstanden hat, nach reinem P/L angeschafft wurde... um so mehr vors Loch geschoben ist das Argument bei CPUs und Grafikkarten.