SoDaTierchen
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.539
Ja, aber das werde ich doch wohl noch dürfen Und wenns nicht passiert kann ich das ja immernoch doof finden.daknoll schrieb:Träumer
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Ja, aber das werde ich doch wohl noch dürfen Und wenns nicht passiert kann ich das ja immernoch doof finden.daknoll schrieb:Träumer
Vitche schrieb:Hätte ich diese Frage gestellt wäre ich wahrscheinlich ausgelacht worden. ^^ Ich denke wir alle kennen die Antwort.
Bitte was? Du hast selbst gesagt:engineer123 schrieb:Das was Du aufführst ist mir alles bekannt, die ganzen Listen wo Leute ausprobiert haben und auflisten mit welchen specs sie welche Bandbreiten an bestimmten Monitoren geschafft oder nicht geschafft haben. Es gibt nach wie vor noch etliche Erfahrungsberichte wo die "andere Technik" nicht so funktioniert wie sie in Gänze mit den Hersteller-Karten und -Treibern funktioniert.
Mit "die G-Sync Funktion" nehme ich an meinst du VRR. Und ich habe dir erklärt, dass es zum "Ansprechen" davon das DP Adaptive Sync Protokoll braucht und sonst nichts.engineer123 schrieb:allerdings ist es offensichtlich immer noch so, dass die G-Sync Funktion weiterhin nur mit NV-Karte und Treiber angesprochen werden kann
Falsch. Die Schnittstelle ist nicht G-Sync oder FreeSync. Die Schnittstelle ist Adaptive Sync. Oder HDMI VRR.engineer123 schrieb:ist keine native Schnittstelle, die Funktionen und deren Bandbreite und Eigenschaften garantiert
Da ist kein technisches Argument drin. Das einzige was du fordern könntest wäre eine Zertifizierung von einer neutralen Stelle. So wie es Vesa DisplayHDR gibt hättest du gerne eine Adaptive Sync Zertifizierung. Dafür wäre aber weder Nvidia noch AMD zuständig. Und wir wissen zB wie viel Luft Vesa bei den DisplayHDR Zertifzierungen lässt und entsprechend wie wenig sie taugen. Und am nächsten kommst du daran mit Tests von kompetenten Reviewern.engineer123 schrieb:Diese Situation ist meiner Meinung nach nach wie vor Bullshit was den Gesamtmarkt betrifft.
Wie sehr kannst du meine Erklärungsversuche ignorieren und dann überzeugt Mist behaupten.engineer123 schrieb:G-Sync Technik als Adaptive Sync über alle Karten nativ und mit garantierter Performance ansprechbar zu machen, dann müssten sie entweder ihren Standard öffnen für alle Graka-Hersteller oder sie müssen sich mit AMD/Intel zusammensetzen und glaube mit der sog. VESA Organisation einen entsprechenden Standard auf die Beine stellen.
Das stimmt ja vorne und hinten nicht. VRR gibt es zb nur ab HDMI 2.1. Es gibt aber g-sync compatible Monitore die nur HDMI 2.0 haben, und es über DP realisiert wird. Und das dürfte die Hauptzahl von g-sync compatible Monitoren sein.Suspektan schrieb:Weil viele bis heute selbst in Foren wie diesen nicht verstanden haben, dass "g-sync compatible" eh nur nvidia's eigene Bezeichnung für hdmi forum vrr ist.
Stimmt so nicht, kann auch mit hdmi 2.0 realisiert werden, auch wenn das Feature erst mit hdmi 2.1 vorgestellt wurdedernettehans schrieb:VRR gibt es zb nur ab HDMI 2.1.
Das hört sich so an als hätte Nvidia VRR erfunden und dann die anderen nur abgeschaut, das ist aber mitnichten so. Die offene Spec ist schon älter meines Wissens nach.SoDaTierchen schrieb:Also nicht falsch verstehen, die technischen Errungenschaften hinter GSync feiere ich und nutze selbst einen VRR-Monitor.
Naja, ich beziehe mich auf die in den Specs der jeweiligen GPU angegebene Version.Ray519 schrieb:Das ist jetzt aber weil du die Geschwindigkeiten mit den Spezifikationsversionen mischst.
Das Prinzip von VRR nein. Das ist ja auch nicht schwer auf die Idee zu kommen.blackiwid schrieb:Das hört sich so an als hätte Nvidia VRR erfunden und dann die anderen nur abgeschaut, das ist aber mitnichten so.
Ist das so? Hatte ich gar nicht mitbekommen.Suspektan schrieb:Eine rtx2060 unterstützt auch hdmi forum vrr (gsync compatible via hdmi) und dennoch wird hdmi 2.0(b) angegeben.
Und was hatte die Konkurrenz von ner funktionierenden 100% geschlossenen Lösung, konnten sie da den Source kopieren ja wohl nicht... also Nvidia hat genau 0% Verdienst daran was die Konkurrenz gemacht hat.Ray519 schrieb:wo die anderen Monitor/Scaler Hersteller und AMD hin mussten.
Der Aufschlag sollte "gänzlich" reduziert werden. Würde so einige Kunden von NVIDIA garantiert freuen.der G-Sync-Aufschlag soll künftig aber drastisch reduziert werden.
Motivation aufzuschließen. Konkurrenzdruck ist gut für den Konsumenten, drückt Preise und fördert Innovation.blackiwid schrieb:Und was hatte die Konkurrenz von ner funktionierenden 100% geschlossenen Lösung,
Das ist halt keine Fehlinformation. Klar, man kann VRR auch ohne GeForce haben, auch ohne G-Sync-Modul/Scaler, aber dann heißt es halt im allgemeinen Sprachgebrauch und insbesondere im wording der Hersteller nicht G-Sync, sondern wenn überhaupt G-Sync Compatible. Wir müssen diese Begriffe nicht gut finden, aber sie sind halt nun einmal da und das einfach zu ignorieren und über die technischen Hintergründe zu gehen verwirrt 99 % der Leser mehr als das es hilft. Das, was Nvidia alles unter den Begriff G-Sync packt und was auch in dieser News hier gennant wird, beispielsweise so Dinge wie Pulsar, laufen eben nur mit Nvidia-Hard und -Software.Ray519 schrieb:Ok. Vllt muss sich die Redaktion vorher mal selbst informieren wie das so funktioniert. Das erklärt dann auch wieso sich die Fehlinformation so hartnäckig hält.
Zeig mir bitte die Hardware womit es mit HDMI 2.0 "realisiert" wird. Gibt es nicht bei Nvidia.Suspektan schrieb:Stimmt so nicht, kann auch mit hdmi 2.0 realisiert werden, auch wenn das Feature erst mit hdmi 2.1 vorgestellt wurde
Die Info allein wäre quasi nutzlos, weil 99 % der verkauften Scaler ohnehin nicht die technischen Mindestanforderungen von G-Sync erfüllen. Im "High-End"-Bereich sind deren Scaler aber stark verbreitet. Exakte Zahlen hab ich da nicht und kp ob die überhaupt jemand hat.Che-Tah schrieb:Wie viele Monitore nutzen denn aktuell einen Scaler von Mediatek? (Marktanteil) @Vitche
Ohne diese Info kann man doch garnicht einschätzen was das ganze für den Markt bedeutet.
Logisch, wenn die Aussicht wäre, dass sie damit weniger verkaufen, würden sie es obviously nicht machen.Che-Tah schrieb:Mediatek verspricht sich dadurch wohl auch mehr Scaler verkaufen zu können...
Bist du Nvidia PR? Ich hätte jetzt erwartet dass der Daseinszweck von Redakteuren ist, nicht Presse Mitteilungen unreflektiert abzudrucken, sondern das für die Leser etwas aufzuschlüsseln. Das wenn Nvidia das Wort "G-Sync" nutzt, das alles und nichts heißen kann und kunterbunt GPU und Monitor durcheinander mischt, aber in dieser Situation Adaptive Sync oder HDMI VRR bedeutet, beides ist offen und Herstelleragnostisch. Klar hat Nvidia ein Interesse daran das in ihrem Ökosystem anzupreisen und den Eindruck zu hinterlassen (ohne es zu sagen, weil falsch), dass ein Monitor immer auch eine topaktuelle Nvidia GPU braucht. Die schlüsseln das ja absichtlich nicht auf, weil man sonst verstehen würde, dass die wichtigsten Features für die meisten Leute am Monitor hängen und mit jeder GPU gehen, Marketing hin oder her.Vitche schrieb:dann heißt es halt im allgemeinen Sprachgebrauch und insbesondere im wording der Hersteller nicht G-Sync,
Dann musst du mir jetzt mal erklären wie Backlight Strobing im Monitor die GPU oder der ihren Treiber braucht.Vitche schrieb:Das, was Nvidia alles unter den Begriff G-Sync packt und was auch in dieser News hier gennant wird, beispielsweise so Dinge wie Pulsar, laufen eben nur mit Nvidia-Hard und -Software.
...und hat doch mehr Substanz als:engineer123 schrieb:Das ist letztlich "Hören-Sagen"
engineer123 schrieb:Würde mich nicht wundern, wenn die Endkunden Preise nur um 30 Euro sinken, obwohl die G-Sync Pendants 150 bis 200 Euro höher in der UVP als die gleiche Modellreihe ohne G-Sync sind.
Das wäre dann die ultimativ Lachnummer "Neuerung" von Nvidia in Bezug auf G-Sync.