News UHD-Monitore mit 144 Hz: Neues G-Sync-Modul treibt Preise in die Höhe

Kann man bei dem EK und den absehbaren Stückzahlen nicht auch gleich Custom Silicon auflegen? Ich mein Altera gehört inzwischen Intel, die werden zwar ihrer Highend-Konkurrenz gerne palettenweise sackteure FPGAs verkaufen, aber preislich nicht beliebig weit entgegen kommen (schon alleine weil sie an G-Sync ja nicht ran dürfen - würde sich dann viel eher anbieten). Klar kostet die Entwicklung was, aber man steckt halt auch bei gleichem Verkaufspreis die Differenz selber ein, und muss nicht für jeden verkauften Monitor mit der eigenen Technik einen satten Batzen Geld bei den Blauen lassen. Und man könnte sich den Fertiger selber aussuchen und zweigleisig fahren - wie stünde denn Nvidia da, wenn Intel sagt "Fab ist leider abgebrannt, wir liefern nächstes Jahr wieder"? Vertragsstrafe und Imageschaden (auf beiden Seiten) hin oder her, aber so hat doch Intel in der Hand, ob Nvidia G-Sync-Module liefern kann.
 
  • Gefällt mir
Reaktionen: Flaimbot und Mabot
@Mustis: Das ist aber eine sehr Waage These^^

Es gibt schließlich schon Freesync 2 Monitore mit HDR : https://www.computerbase.de/2018-04/aoc-ag322qc4-benq-ex3203r-freesync-2/

Die Spezifikationen sind jetzt nicht so prickelnd, aber die Farbinformation für das HDR muss die Grafikkarte ausgeben der Monitor interpretiert nur das HDR Signal.
Ebenso beim Freesync selbst, der Monitor kriegt schließlich nur die Frames geliefert und der Scaler zeigt dann eben die Bilder so an wie diese in den Frequenz Rahmen passen^^

Irgendwelche Speicherbuffer oder Chips haben da eigentlich nichts verloren. Weil die Information sofort angezeigt werden sollte ^^
 
  • Gefällt mir
Reaktionen: .fF, Teralios, 9Strike und eine weitere Person
aivazi schrieb:
Rein von den kosten her würde es keinen Unterschied machen, wenn die Hersteller einfach nur einen Freesync 2 Monitor herstellen und dabei, den Proprietären Nvidia Slot für das FPGA Modul mit auf das Board Löten...
Ein Monitor der Beides beherrscht, wird es wohl nie geben. Dafür wird Nvidia schon mit Knebelverträgen sorgen.
 
aivazi schrieb:
Die Spezifikationen sind jetzt nicht so prickelnd, aber die Farbinformation für das HDR muss die Grafikkarte ausgeben der Monitor interpretiert nur das HDR Signal.
Genau das Funktioniert aber so wohl nicht mehr mit HDR und aktiven Sync. Ob Das Sync hier überhaupt mit HDR zusammen funktioniert und welches HDR wie umgesetzt wird, ist doch aus der Quelle gar nicht ersichtlich. So sehe ich zum Beispiel nicht, ob local Dimming vorhanden ist, was für ordentliches HDR eigentlich zwingend notwendig ist. ICh schrieb eigentlich ganz klar, dass ich von einem Freesync 2 HDR rede, dass auch das selbe kann wie G-Sync. HDR 400 ist eben nicht das selbe und wie der Artikel in meinem Posts klar aufzeigt, ist in Freesnyc2 HDR derzeit keine Spezifikation für HDR hinterlegt, der Name an sich Etikettenschwindel.

Man kann Nvidia ja vorwerfen was man will, aber die offensichtlich notwendige Hardware ist ja sicher nicht aus Spass verbaut und ksotet auch NVidia Geld, welches sie einspielen müssen. Also aus reiner Geldgier werden sie sicher keinen so teuren Chip und soviel Ram da verbauen oder? Wenn sie geldgierig wären, würde das Modul trotz billig Hardware teuer sein. Fakt ist aber, dass die Hardware an sich teuer ist.
 
  • Gefällt mir
Reaktionen: Lübke82
Wieviele hier wieder jammern. Dann kauft doch den AMD-Quatsch einfach. HDR mit 1000Nits + Sync bis 30Hz runter und 144Hz wird es allerdings dort niemals geben. Nvidia hat hier nunmal weiterhin die beste erhältliche Technik parat und die kostet nunmal Geld. Was denkt ihr denn was die BFGDs kosten werden? Das ist nunmal nichts für AMD-Knauser.
 
  • Gefällt mir
Reaktionen: MEDIC-on-DUTY
Replay86 schrieb:
Mit aktiver Kühlung? Dachte das wäre mit den letzten Plasma TVs gestorben. Schon krass.
Ich bleib bei meinem Asus PG278Q bis der verreckt.

So ziemlich alles "guten" TVs haben eine Kühlung, guck einfach mal hinter deinem Fernseher ;-)
Mein 65er hat 5 Lüfter wenn ich das richtig in Erinnerung habe und hören tut man die erst wenn man das Ohr auf den Lüfter legt.
 
@Mustis mag sein, dass aktuell xxx-Sync mit HDR @ 4K noch nicht möglich ist. Das könnte aber z. B. durch neuere HDR Standards behoben werden. Jedenfalls ist Nvidias Lösung mit einem übertrieben teueren FPGA, der auch noch aktiv gekühlt werden muss auch nicht gerade optimal. Dann lieber noch 2-3 Jahre warten, bis das Zeug ausgereift ist. Es gibt ohnehin keine Grafikkarten, die einen 4K + 144 Hz Monitor auch nur halbwegs befeuern können. Außer man spielt nur Fortnite, Csgo, Overwatch und Dota drauf.

Da stellt sich dann aber die Frage ob man so viel unnötige Technik, die im Monitor verbaut ist, wirklich braucht, da diese Spiele keine HDR Unterstützung haben.

Dieses Jahr sollen 1440p + 240 Hz Panels von AUO kommen. Das würde ich für die genannren Spiele dann eher empfehlen. Mach mehr Sinn..
 
Es wäre schon wenn G-Sync-Monitore auch zusätzlich Freesync bzw. Adaptive-Sync beherrschen würden. Meinetwegen auch nur an einem anderen DP-Eingang o.ä.. Aber ich vermute, dass es aus lizenzrechtlichen Gründen nicht gewollt ist. Ansonsten ist so ein Monitor zwar ein Wunschtraum, aber leider außerhalb meiner Preisklasse :)
 
In 2 Jahren kostet das 200€, und wird dann gekauft. Danke an alle die bis dahin Beta-Tester für mich spielen.
 
Mich würde auch interessieren, was dieses G-Sync Modul genau leistet. Da es aktiv gekühlt werden muss, kanns ja kein Marketing sein, denn wenn das teil nicht mehr macht, als der adative Sync Standard vorsieht, braucht nVidia kein so nachweislich teures Modul verbauen. Da könnten sie auch selbst kosten Sparen und es genauso teuer verkaufen wie jetzt. Aber es ist ja klar, dass das Modul auch für Nvidia relativ teuer ist. Und das ist eben der Punkt.

Ich bin dieses Rätselraten und wilde behauptungen aufstellen leid, ich würde endlich gerne mal wissen, was G-Sync allgemein anders macht. Preise hin oder her, ich will den technischen Aspekt dahinter verstehen. Kann ja gut sein, dass das teure G-Sync Modul unterm Strich nur 5% "mehr" kann, bzw. die Ausgabe nur nen kleinen Tick besser ist, als bei FreeSync, aber ich will wissen WAS GENAU, WIE und WARUM.
 
  • Gefällt mir
Reaktionen: Schaby
Mustis schrieb:
Das Problem ist aber, dass Freesync nicht mit HDR umgehen kann. Und was Freesync 2 fähige Monitore ksoten werden, die das selbe können wie Nvidias Gsync bei UHD, 144 Hz und HDR wird man sehen. Es wird schon einen Grund haben, warum es die auf dem Markt noch nicht gibt und Freesync 2 in seinen Vorrausetzungen so lasch ist. Man erinnere sich, es heisst zwar Fresync 2 HDR, es kann aber nach aktuellen Stand gar kein HDR, zumindest sind die Spezifikationen bisher ohne einen HDR Standard! SPrich, auch Bildschirme ohne HDR dürften den Titel Freesync 2 HDR tragen. https://www.computerbase.de/2018-06/amd-freesync-2-hdr/

Ich bin mir verdammt sicher, dass das einen Grund hat. Den HDR + Sync ist ziemlich aufwendig um zusetzen. Wenn ich mich recht entsinne, muss das HDR dann der CHip abgleichen und es kann nicht mehr von der Grafikkarte direkt an den Monitor übergeben werden. Kriege das technisch leider nicht mehr ganz zusammen jetzt aus dem Kopf. Das dürfte zum einen erklären, warum der Gsync Chip jetzt so performant und teuer ist und auch warum es seitens AMD für Freesync 2 HDR noch keine entsprechende Spezifikation gibt. Den vermutlich wird es Sync mit HDR ohne aufwendigeren und damit teurerem Chip zunächst oder ggf. generell nicht geben.
GSYNC kann auch kein HDR, erst GSYNC HDR kann es!
So ist es auch mit AMD FreeSYNC2 HDR, es kann HDR , nur wurde es nicht so betitelt. Vielleicht solltest du mal deine eigene Quelle erst lesen!
https://www.computerbase.de/2018-06/amd-freesync-2-hdr/
 
  • Gefällt mir
Reaktionen: Benji18, Iapetus und Teralios
Steht doch gar net fest wie teuer das g-sync Modul wirklich ist.
Am ende kostet es lediglich 50€ für ASUS und keine 500€
 
was ist mich frage, wieso geht auf einmal IPS 4K 144 hz und HDR? Ich hoffe das die paar ips 2K 144hz monitore die es gibt bald mal für ~500 € gibt.
 
Verzichte gerne auf HDR, aber 4K G-sync hätte ich schon gerne.
 
  • Gefällt mir
Reaktionen: Muxxer
eselwald schrieb:
So ziemlich alles "guten" TVs haben eine Kühlung, guck einfach mal hinter deinem Fernseher ;-)
Mein 65er hat 5 Lüfter wenn ich das richtig in Erinnerung habe und hören tut man die erst wenn man das Ohr auf den Lüfter legt.
Seit Plasma hat eigentlich kein TV mehr eingebaute Lüfter.
 
  • Gefällt mir
Reaktionen: .fF
Florianw0w schrieb:
was ist mich frage, wieso geht auf einmal IPS 4K 144 hz und HDR?
Ich glaube das nennt sich "Technischer Fortschritt", oder?
Finde es ziemlich süß wie sich jeder angesprochen fühlt. Stand Heute ist es ein reines Enthusiastenprodukt. In 2-3 Jahren wird das dank Weiterentwicklung ohne aktive Kühlung seinen Weg in den (bezahlbaren) Mainstream Markt finden.
 
Wers braucht ... hab nen G-Sync Monitor. Habs getestet, für schlecht befunden und nie wieder genutzt. Bei jedem fps drop flackert die hintergrundbeleuchtung. Adaptiv V-Sync ist ein Segen zu dem unbrauchbaren Rotz von G-Sync. Den HDR-Müll können die auch behalten.
 
ottoman schrieb:
Seit Plasma hat eigentlich kein TV mehr eingebaute Lüfter.

Mein alter LCD hatte einen, und auch mein AV-Reciever hat einen, der immer an ist wenn der TV auch läuft.

@Beefsupreme Da hast du wohl einen defekten erwischt. Ich geb meinen Gsync nicht wieder her (ausser für einen neuen).
 
  • Gefällt mir
Reaktionen: scorpionking95
5120*2160 (Curved) @ 144 Hz, basierend auf MicroLEDs. Das wäre mal interessant, aber so wie jetzt ist es m. M. n. nur ein überteuerte Stück Technik und den Aufpreis nicht wert.
 
Zurück
Oben