News Kooperation mit MediaTek: Nvidias teures G-Sync-Modul wird überflüssig

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.211
  • Gefällt mir
Reaktionen: Pry_T800, Kazuja, Redundanz und 8 andere
bin gespannt wie sich das auf die Preise und die Verbreitung auswirkt..
 
  • Gefällt mir
Reaktionen: alonsie, mehmet_b_90, Schwobaseggl und 4 andere
Andere Gründe für Nichtnutzung von G-Sync waren zweifelsohne auch, dass das Ultimate Modul aktive Belüftung brauchte und nicht zuletzt, dass es mittlerweile auch ohne läuft.

Ich habe mir beim vorletzten Monitor noch genau angeschaut, ob die Freesync-Option auch mit nvidia Karten funktionieren wird. Beim Monitorkauf dieses Jahr war ich einfach davon ausgegangen, dass VRR unabhängig von dem GPU Hersteller funktionieren wird.


Daher wäre meine Frage erstmal - brauchen wir überhaupt noch G-Sync als separate Marke für VRR?
 
  • Gefällt mir
Reaktionen: kiffmet, Wallwatcher, lalanunu und 21 andere
Schon für eine sehr spezielle Zielgruppe, wenn es bei AMD quasi immer fast genauso gut funktioniert…
 
  • Gefällt mir
Reaktionen: Holzkerbe, medsommer, Epistolarius und 7 andere
der Scam wird endlich aufgelöst. diese G-Sync Module waren schon was für Homöopathie-gamer
 
  • Gefällt mir
Reaktionen: lalanunu, Gaspedal, Derenei und 28 andere
Rickmer schrieb:
Ich habe mir beim vorletzten Monitor noch genau angeschaut, ob die Freesync-Option auch mit nvidia Karten funktionieren wird. Beim Monitorkauf dieses Jahr war ich einfach davon ausgegangen, dass VRR unabhängig von dem GPU Hersteller funktionieren wird.
Tut es das etwa nicht? Oder verstehe ich dich falsch?
 
Ich bin mir sicher, das wird sich preislich zu Gunsten der Endkund:innen auswirken. Ganz bestimmt. Definitiv. Mit an Sicherheit grenzender Wahrscheinlichkeit.

:)
 
  • Gefällt mir
Reaktionen: Strahltriebwerk, Epistolarius, Hellyeah und 8 andere
Was sind denn nun die Aufgaben des Moduls die so blumig im Artikel stehen. Freesync oder VRR laufen bestens.
 
  • Gefällt mir
Reaktionen: Pontus, Redundanz, serve1chilled und 2 andere
Drewkev schrieb:
Tut es das etwa nicht?
Klar funktioniert es. Ich sage nur, dass ich das garnicht explizit geprüft habe weil ich pauschal davon ausgegangen bin, dass es funktionieren wird.
 
  • Gefällt mir
Reaktionen: Drewkev
Oh, da ist mein AW3821DW mit G-Sync Ultimate ja ein richtiger Exot.
Bin nach wie vor begeistert, aber schade finde ich, dass er nur einen Display Port und kein USB-C hat, wenn ich es damals richtig verstanden hatte, lag das an den Limitierungen des G-Sync Moduls, sind die damit weg?
 
  • Gefällt mir
Reaktionen: Spawn182, Rockhound, ThunderS01 und eine weitere Person
Rickmer schrieb:
brauchen wir überhaupt noch G-Sync als separate Marke für VRR?

Eigentlich nur für die im Artikel genannten Sonder-Funktionen. Also eine ziemliche Nische, bisher zumindest. Das FreeSync Premium Pro Label deckt eigentlich bereits alles ab, was man unbedingt haben will/sollte.
 
  • Gefällt mir
Reaktionen: Pontus, Steini1990, SweetOhm und 4 andere
Fällt damit dann auch endlich die notwendige aktive Kühlung weg? Das war immer das nervigste "Feature". Obwohl es auch manche Hersteller geschafft haben einen unhörbaren Lüfter zu verbauen, siehe AW3821DW. :D
 
  • Gefällt mir
Reaktionen: Rockhound
Kann man die tollen Funktionen dann auch mit GPUs verwenden die nicht von Nvidia kommen? Klingt ja eher nicht nach Features die etwas mit der Grafikkarte zu tun haben.
 
  • Gefällt mir
Reaktionen: HolySkillet
Rickmer schrieb:
Daher wäre meine Frage erstmal - brauchen wir überhaupt noch G-Sync als separate Marke für VRR?

Bei sehr niedrigen framerates ist Gsync im Vorteil, sonst wohl eher nicht
 
  • Gefällt mir
Reaktionen: Spawn182, pacifico und Cerebral_Amoebe
Es war kein Kriterium beim Kauf für mich. Kam nicht mal in Frage. Ich müsste sogar doch googlen um zu sehen, ob meine Monitore es besitzen. :D:evillol:
 
@metoer
Warum sollte Ngreedia sein Feature Set für andere Karten öffnen? Man hat schlicht erkannt das man kaum Umsatz mit dem G-Snyc Modul generiert und sucht eben neue Wege um seine Vormachtstellung am Markt weiter zu festigen. So kann man fast überall jetzt G-Sync auf die Monitore kleben, so wie es eben AMD mit seiner Version von VVR auch macht.
 
  • Gefällt mir
Reaktionen: Sebbi, Topflappen, Aldaris und eine weitere Person
Um alle Features von Nvidia G-Sync zu nutzen, bedarf es bisher eines proprietären G-Sync-Moduls. Dieses ist vor allem teuer und treibt Monitorpreise in die Höhe, sodass es selten genutzt wurde.

Dann werden diese Monitore gewiss günstiger. Oder? ODER? :D
 
  • Gefällt mir
Reaktionen: Slim.Shady, electronish und engineer123
Hmmm, mit meinem G-Sync Monitor bin ich super zufrieden, G-Sync funktioniert immer und wirklich
wunderbar. Selbst mit FPS im Bereich 40-60 fühlt sich das Spielerlebnis damit flüssig an.

Allerdings sind mir einige Sachen unklar mit dem Artikel:

Ist es jetzt immer noch proprietär?
Kann es immer noch nur von NV Grakas genutzt werden?
Ist es also nur eine Auslagerung der Chip-Produktion auf Mediatek?

Oder kann und darf auf die Meditek Scaler nun auch AMD/Intel zugreifen und G-Sync auf
diesen Monitoren ermöglichen?
Ergänzung ()

Laphonso schrieb:
Um alle Features von Nvidia G-Sync zu nutzen, bedarf es bisher eines proprietären G-Sync-Moduls. Dieses ist vor allem teuer und treibt Monitorpreise in die Höhe, sodass es selten genutzt wurde.

Dann werden diese Monitore gewiss günstiger. Oder? ODER? :D
auch diese Frage stellt sich, wenn NV und Mediatek es ernst meinen mit "günstiger" müssten
die UVPs mindestens 100 Euro günstiger als gleich spezifizierte Monitore sein.
Oftmals liegt der Aufpreis aber auch bei 150 bis 200 Euro für G-Sync Monitore bislang.
 
  • Gefällt mir
Reaktionen: HolySkillet, serve1chilled, Christian1976B und eine weitere Person
es war eigentlich nur interressant wegen dem Variablen Overdrive von LCD Monitoren..

bei OLED jedoch total unnötig da die kein Overdrive brauchen
VRR funktioniert mittlerweile auch mit jedem VRR fähigen Monitor zufriedenstellend unter ner Geforce

vorallem Besser als AMDs version von VRR .. vorallem in zusammenhang mit HDR was extremst buggy ist und bei vielen HDR Monitoren das tonemapping versaut und nicht die Maximalen Nits erreicht

von daher nett.. aber eigentlich auch nicht von belang.
 
  • Gefällt mir
Reaktionen: BlueBringer
Hab nie verstanden, warum es von den G-Sync Modul nicht mehr Revisionen gab.
Afaik waren es 2-3, und selbst die letzte ist meines Wissens nach ein FPGA, also mind. Faktor 10 ineffizienter als ein "fixed hardware" Chip.
Diese bis heute verbaute Revision kann DP 1.4, nicht DP 2.0, hat noch nicht einmal Support für DP 1.4a DSC (Compression).
Beim AW3423DW führt das zu folgender Limitierung:
175 Hz @ 8bit
144 Hz @ 10 bit

Naja wenigstens jetzt gibt es Fortschritt.


domian schrieb:
Bei sehr niedrigen framerates ist Gsync im Vorteil, sonst wohl eher nicht
Die von Nvidia geforderten Tests, damit ein Monitor mit "G-Sync Gütesiegel" verkauft werden darf, sind schon nicht ohne. Der AW3423DWF mit FreeSync Support kam spaeter und war trotzdem in manchen Kriterien schlechter als das Vorgänger Modell (AW3423DW mit nativen G-Sync).
Stichwort: VRR Flicker: 5.1/10 Freesync Model vs 9.1/10 G-Sync Model:
https://www.rtings.com/monitor/reviews/dell/alienware-aw3423dwf#test_24453
https://www.rtings.com/monitor/reviews/dell/alienware-aw3423dw#test_24453

Leider beziehen sich diese Tests "nur" auf Eigenschaften des Display selber, nicht auf Bugs in der Monitorsoftware (schaut AW3423DW streng an), wie buggy OSD, etc.
 
  • Gefällt mir
Reaktionen: autopilot, xexex und KlaasKersting
Zurück
Oben