-Legend-Storm-
Commander
- Registriert
- Dez. 2015
- Beiträge
- 2.703
ich hab mir den neuen treibern in rainbow six siege plötzlich 100% gpu auslastung und frame drops ... vorher 60-80% ohne drops
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
aivazi schrieb:Dann zeig mal diese "fundierten" Test ...
Alles was ich bisher gelesen habe hat auf ein Gleichstand mit wenigen Millisekunden unterschiedlichen hingewiesen, vorausgesetzt das LFC funktioniert richtig.
Sobald das der Fall ist gibt es keine Unterschiede.
Also bitte einen fundierten Testder nicht Freesync 1 sondern Freesync 2 mit G Sync vergleicht
AnkH schrieb:Hat eigentlich jemand schon mal die "neue" Funktion "Latency" im nVIDIA Treiber getestet? Irgendwie kam das in den letzten Treiberversionen neu hinzu und man findet nicht sonderlich viel Infos diesbezüglich. Bringt das was? Nur Marketing-Blabla?
Dai6oro schrieb:Du würdest bei nem Doppelblindtest auch nix merken. Versprochen.
Jawoll! So höret, so höret! Dai6oro merkt keinen Unterschied! Das Wort ist gesprochen, es gibt nichts mehr zu sehen!Dai6oro schrieb:Ich merke absolut 0 Unterschied zwischen Freesync und Gsync. Aber immer schön dem Marketing glauben.
till69 schrieb:Muss der LG TV direkt an die GPU oder gehts auch mit AVR dazwischen?
Dai6oro schrieb:Ich hatte zumindest die Gelegenhit beide Syncs live zu erleben. du auch? Weder ich noch meine Kumpels haben nen Unterschied bemerkt. Aber immer feste dran glauben ist immer gut.
RichieMc85 schrieb:Ich weiß gar nicht wie oft man noch erwähnen muss, dass das G-sync Modul noch weiteren Aufgaben übernimmt als die schnöde Adaptiv Sync Variante.
Atent123 schrieb:Das G-Sync Modul ist halt ein sehr hochwertiges aber auch überteuertes Scaler Modul, wie es jeder Monitor/Fernseher hat. Bei Freesync wird halt meist zu günstigeren Scalern gegriffen.
Es gibt (z.B. auf dem Notebookmarkt) einige Hochwertige Module. Nur sparen da die Hersteller lieber.
Stört aber glaube ich eh die wenigsten ab einem gewissen Punkt.
Rollensatz schrieb:Ein gute Sache. HDMI 2.1 kommt mit den nächsten Grafikkarten von AMD/NV 2020. Dann wirds interessant.
Dai6oro schrieb:Habe nicht gesagt, dass Gsync scheiße ist. Habe schließlich eine Gsync Monitor. Aber Gsync kann nix besser als Freesnyc. Musste jetzt wohl damit leben. Und dein HDR auf Gaming Monitoren sowie deren Bildqualität im Allgemeinen kannst eh vergessen (Im Vergleich zu aktuellen OLED TVs). Das erste mal im Leben dass mein TV ein wesentlich besseres Bild hat als mein PC Monitor. Und das wird sich so schnell nicht ändern.
Ah jetzt versteh ich langsam. Da verteidigt jemand sein 2000€ Monitor
Dai6oro schrieb:Wie jetzt so ganz ohne super duper Gsync Modul? Wie das? Ist das überhaupt möglich?
RichieMc85 schrieb:das G-sync Modul noch weiteren Aufgaben übernimmt als die schnöde Adaptiv Sync Variante.
G-Sync Monitore haben alle einen niedrigeren Input Lag als die Pedants mit Freesync.
RichieMc85 schrieb:Das würde ich ja auch nicht bestreiten. Mir geht es halt nur im diese permanenten Falschaussagen. Das G-Sync Modul wäre abzocke und die AMD Version wäre besser. Das ist halt nicht so. Ob der Aufpreis gerechtfertigt ist oder man den Unterschied merkt steht ja nicht zur Debatte.
RichieMc85 schrieb:TFT Central. Guck dir die Reviews an steht immer wieder drin das G-Sync besser ist. Das Thema wurde hier aber schon oft genug diskutiert. Billig ist halt nicht immer besser.
MaverickM schrieb:Ist halt nur Compatible. Gnädigerweise kriegt das ein Ehrenabzeichen, aka Fleißbienchen, seitens nVidia.
nVidia wird ja nicht müde, herauszustellen, wie aufwendig doch ihr Zertifizierungsprozess ist. Und wie hochwertig die Panele, die ihr "begehrtes" G-Sync Logo kriegen. Ich frag mich, wie dann so ein Schlierenmonster wie der neue ASUS VA mit G-Sync Ultimate dann ins Bild passt...
aivazi schrieb:Sehr sportlich diese Aussage, auf diesem Artikel basiert: https://www.tftcentral.co.uk/articles/variable_refresh.htm
Da werden faktisch nur Aussagen ohne Belege
getätigt... und entsprechend kommt dann dein Statement aus der Pro und Contra zustande die du dann selber zuende interpretiert hast ?
Im Artikel gibt es schließlich nicht einmal ein zusammenfassendenes Fazit...
Wirkt für mich relativ halbgar, wenn man diese genannten Unterschiede, die nicht einmal mit Zahlen oder Fakten belegen kann, und sogar noch schreibt , dass NVIDIA besser ist weil keine Latenz Aufgrund des fehlenden Scaler vorliegt...
Eine Zeichnung, warum diese Logik zutrifft wäre wünschenswert, schließlich sind das Original die
Statements mit denen NVIDIA geworben hat.
Einfach nur Marketing ohne Erklärung..