News UHD-Monitore mit 144 Hz: Neues G-Sync-Modul treibt Preise in die Höhe

Warum NVIDIA ein Extramodul für G-Sync verbaut? Weil man mit dem Verkauf von Hardware Geld verdient.
Ist doch ganz einfach.
Und warum wird diese Hardware immer aufwendiger und teurer? Nun, weil je teurer etwas ist, desto mehr kann man daran verdienen. Wenn das Modul nur 50 Euro kostet, kann NVIDIA vielleicht nur 10 Euro daran verdienen. Kostet es hingegen 500 Euro, so kann NVIDIA vielleicht sogar 100 Euro daran verdienen. So einfach ist das.
 
Den Monitor würde ich nichtmal benutzen, wenn man ihn mir schenken würde. Das Einzige, das bei mir Geräusche machen darf, sind die Lautsprecher.
 
Ich habe jetzt nicht alle Beiträge gelesen, aber kann man so etwas nicht "einfach" auf die Grafikkarte pflanzen?

Also im Grunde nur ein günstiges Modul/Schnittstelle am Bildschirm und auf die Grafikkarte dann das Hauptmodul?
Die Frage ist natürlich wie das dann mit den Latenzen ist und so aber der Weg ist bei mir als Laie ja gleich lang.
 
@IceKillFX57 weil das modul direkt mit der Hardware des Monitors kommuniziert

mich würde ebenfalls interessieren was das modul genau macht. da es ein FPGA ist kann mans auch auslesen.
edit: hab eh langeweile und lese mir grad ein paar dokus durch. (edit: ist so spannend - ich penn gleich ein)
vielleicht kann man sich ja ein altes gsync modul oder einen moni besorgen und das modul dort mal auslesen.
 
Zuletzt bearbeitet:
Marcus Hax0rway schrieb:
weil es hier nicht um Nvidia geht, sondern um das Marketing von AMD.

Hier geht es um einen G-Sync Monitor ... hat mit AMD absolut gar nichts zu tun.

btw ... danke an die neue Foren Software. Die Geblockten werden super ausgeblendet.
 
  • Gefällt mir
Reaktionen: .fF
IceKillFX57 schrieb:
Ich habe jetzt nicht alle Beiträge gelesen, aber kann man so etwas nicht "einfach" auf die Grafikkarte pflanzen? .
Könnte schon, nur dann müsste man an der Monitorhardware einiges umstellen.

cruse schrieb:
@IceKillFX57 weil das modul direkt mit der Hardware des Monitors kommuniziert
Richtig, es kommuniziert direkt mit der Hardware des Monitors, genauer gesagt ersetzt es den Scaler/Taktgeber.

Das GSYNC-Modul ist im Endeffekt nichts weiter als der Scaler bei einem Monitor. Also der Taktgeber für die restliche Hardware, der sagt, wann ein neues Bild angezeigt werden soll. Erkennt das GSYNC-Modul, dass die Signalquelle - Grafikkarte - nicht von nVidia stammt, verhält sich das Modul wie jeder x-beliebige Scaler und sendet entsprechend das Taktsignal für die Monitorfrequenz.

GSYNC und FreeSync bedienen sich dem Zusatzkanal, der im Displayport-Standard definiert ist, um mit der Grafikkarte zu kommunizieren.

FreeSync und GSYNC sind, wenn man sich denn mal damit beschäftigt, nicht wirklich unterschiedlich und können prinzipiell auch das Gleiche. Geht man nach dem technisch machbaren, hat GSYNC und nun GSYNC HDR keine Vorteil gegenüber FreeSync und FreeSync2 HDR.

nVidia bietet den Monitorherstellern aber nur einen Weg GSYNC zu unterstützen, nämlich in dem man das GSYNC-(Scaler)-Modul kauft. Das hat in soweit Vorteile, dass nVidia sichergehen kann, dass der Scaler bestimmte Voraussetzungen erfüllt (Minimal- und Maximalfrequenz, dass entsprechende Vorankündigungen für ein Frame - nichts mit Vorhersage, die Grafikkarte meldet, wann der nächste Frame wahrscheinlich fertig ist -, sodass die Elektronik darauf reagieren kann.).

AMD macht bei FreeSync keine entsprechenden Vorgaben, sondern sagt einfach: Sobald ein flexiblen Scaler verbaut ist, kann dieser mit unserer Grafikkarte entsprechend des DP-Standards kommunizieren und sich anpassen. AMD bietet dabei viel "Kann" aber eben kein "Muss" bei FreeSync 1 an. Das ändert sich nun mit FreeSync2, bei dem die Vorgaben verschärft werden - manche Sachen die bei GSYNC "Pflicht" sind (Module kommt ja von nVidia) sind bei FreeSync2 aber weiterhin optional.

AMD hat aktuell einfach nicht die Marktmacht schärfere Vorgaben zu machen oder gar ein Dongle getarnt als Scaler voraus zusetzen und muss, damit die Hersteller entsprechende Monitore anbieten, gewisse Kompromisse eingehen.

nVidia wiederum kann durch die aktuelle Vorherrschaft schärfere Vorgaben machen für GSYNC, gleichzeitig wollen sie aber ihr System aber auch abschotten, weswegen sie eine eigene Lösung entwickelt haben samt DRM-Maßnahmen.
 
  • Gefällt mir
Reaktionen: .fF und Unnu
What? Ich arbeite grad auf einem Arria 5 und hab den mit zwei Dual Lockins grad mal auf 80% inklusive USB, PCIe und anderem Kram. Was machen die mit einem so fetten Arria? Wäre da ein ASIC Design nicht günstiger gekommen oder verkaufen sich die GSync Monitore so mies?
 
  • Gefällt mir
Reaktionen: Herdware
Diablokiller999 schrieb:
What? Ich arbeite grad auf einem Arria 5 und hab den mit zwei Dual Lockins grad mal auf 80% inklusive USB, PCIe und anderem Kram. Was machen die mit einem so fetten Arria? Wäre da ein ASIC Design nicht günstiger gekommen oder verkaufen sich die GSync Monitore so mies?
Die Verkaufen sich recht gut. Es geht mit sehr großer Wahrscheinlichkeit einfach darum, dass nVidia ihr GSYNC weiter abschotten möchte.
 
Teralios schrieb:
Es geht mit sehr großer Wahrscheinlichkeit einfach darum, dass nVidia ihr GSYNC weiter abschotten möchte.
Ich frage mich eher, wieso sie für sowas einen so teuren FPGA nutzen. Machen die aus der Schaltung ein ASIC und lassen das in 28nm oder meinetwegen 45nm fertigen, ist die benötigte Chipfläche im Vergleich zum FPGA noch immer ein Witz und die Yield Raten bei so alten Prozessen bei fast 100%.
Gab es Updates für GSync Module? Das wäre für mich die einzige Erklärung die mir grad einfällt >_>
 
Hab jetzt nicht alle komentare gelesen, aber gibt es schon mehr infos zu dem uhd 144hz gate ??

Der monitor soll einen trick benutzen, das nicht die native auflösung benutzt wird wenn man hdr und 144hz einstellt.


Wie hoch genau die auflösung ist ab wieviel herz die bildquali reduziert wird etc ?
 
@LaZz
steht doch im Artikel
[...] und eine nötige Farbunterabstastung (Chroma Subsampling) durch einen Schnittstellenengpass bei 144 Hz stoßen bereits sauer auf
 
@cruse
Ich komm auf 104 Hz (25,92 GBit/s geteilt durch 30*3850*2160)
 
Mhh, evtl hab ich ein overhead vergessen. Die Größenordnung stimmt immer hin :)
 
  • Gefällt mir
Reaktionen: cruse
Dark-Silent schrieb:
AMD hat Freesync in einen offenen Vesa Standard einfliessen lassen den jeder Hersteller Lizenzgebührenfrei unterstützen kann und bekommt ergo keine Lizenzgebühren dafür. Bevor du Nonsens verbreitest bitte erst richtig informieren.
hier verdrehst du etwas.
Die Technik wurde zum Stromsparen in Notebook Displays verwendet. Nvidia hat für die Spiele Umsetzung das Modul mit Scaler umgesetzt und verkauft das Modul als Zulieferer an Monitor Hersteller bevor hier irgendetwas spezifiziert wurde.
AMD hat als Treiber bei der Vesa um eine Umsetzung der Technik im Display Standard gebeten. Raus kam eine halbgare Definition namens Adaptiv Sync.
Damit allein kann leider niemand etwas anfangen, weder der GPU Anbieter, noch der Grafikkarten Hersteller, noch der Monitorhersteller und schon gar nicht der Endkunde.
Darauf hin hat AMD den proprieäteren Standard "FreeSync" definiert.
Das ist im Prinzip genau die gleiche Schei#e wie bei Nvidia mit den einzigen Unterschied, dass hier der Monitorhersteller sich den Scaler entsprechend Adaptiv Sync selbst aussuchen kann. Führt aber dazu, dass dabei so halbgare Produkte rauskommen, bei denen der Frequenzbereich für Freesync nur sehr eingeschränkt ist.
 
Diablokiller999 schrieb:
Wäre da ein ASIC Design nicht günstiger gekommen oder verkaufen sich die GSync Monitore so mies?

Genau das frage ich mich auch. Bei den Stückzahlen, mit denen G-Sync-Monitore laufen, ist es schon sehr merkwürdig, dass auf FPGAs gesetzt wird.
Vielleicht liegt es daran, dass die G-Sync-Hardware immer noch nicht richtig fertig ist und die FPGAs im Feld per Firmware-Upgrade immer mal wieder nachträglich umprogrammiert werden müssen?
 
  • Gefällt mir
Reaktionen: cruse
Wieso muss man diesen seltsamen und teuren Weg eigentlich gehen? Wozu muss da so eine CPU mit fettem RAM im Monitor sitzen? Das Ding muss doch eigentlich nur wissen, wieviel FPS gerade anliegen. Kann man das nicht per USB machen oder die information der FPS direkt mitgeben pder DVI/HDMI?
 
@mkdr
Das muss direkt mit den Frames über DP (bei Freesync auch HDMI) mitkommen, damit das Timing stimmt. Da jeder Frame unterschiedlich lang ist, langt eine (asynchrone) Information über USB über die FPS (die ja nur eine durchschnittliche Angabe der Frametimes ist) nicht aus.
 
Zurück
Oben