News UHD-Monitore mit 144 Hz: Neues G-Sync-Modul treibt Preise in die Höhe

Gibt es eigentlich einen technischen Unterschied zwischen G-Sync und Freesync? Bei beiden Technologien gibt es einiges an Gestaltungsspielraum, wie groß der Bereich ist usw.

Aber ist eine der beiden Technologien (Kompatibilität und kosten abgesehen) wirklich besser als die andere?
 
Fänd es auch sehr interessant was dieses Modul jetzt wirklich macht.
Und warum kann man das Modul nicht direkt in die GPU verlegen?
 
Den aktuell höchsten zertifizierten HDR-Standard gibts halt net gratis. Ob es einem das Geld als Early Adopter wert ist, muss eh jeder für sich entscheiden. Da bei AMD in Sachen Grafikkarten aber bis mindestens 2019 keine Consumerkarten zu erwarten sind, stellt sich die Frage bei 4k, HDR und bis zu 144hz eh nicht.

Zumal AMD bisher den hauseigenen Freesync 2 HDR Standard in irgendeiner Weise festgelegt hat und womöglich eh jeder machen kann, was er will. Nvidia stattdessen fast den G-Sync HDR Standard in sehr engen Grenzen, wo der Käufer mit diesem Siegel weiß, was er bekommt. Kann man mögen, kann man nicht mögen.
 
Mustis schrieb:
Genau das Funktioniert aber so wohl nicht mehr mit HDR und aktiven Sync. Ob Das Sync hier überhaupt mit HDR zusammen funktioniert und welches HDR wie umgesetzt wird, ist doch aus der Quelle gar nicht ersichtlich. So sehe ich zum Beispiel nicht, ob local Dimming vorhanden ist, was für ordentliches HDR eigentlich zwingend notwendig ist. ICh schrieb eigentlich ganz klar, dass ich von einem Freesync 2 HDR rede, dass auch das selbe kann wie G-Sync. HDR 400 ist eben nicht das selbe und wie der Artikel in meinem Posts klar aufzeigt, ist in Freesnyc2 HDR derzeit keine Spezifikation für HDR hinterlegt, der Name an sich Etikettenschwindel.

Man kann Nvidia ja vorwerfen was man will, aber die offensichtlich notwendige Hardware ist ja sicher nicht aus Spass verbaut und ksotet auch NVidia Geld, welches sie einspielen müssen. Also aus reiner Geldgier werden sie sicher keinen so teuren Chip und soviel Ram da verbauen oder? Wenn sie geldgierig wären, würde das Modul trotz billig Hardware teuer sein. Fakt ist aber, dass die Hardware an sich teuer ist.

Man kann Nvidia den Einbau von überflüssiger Hardware vorwerfen um proprietäre Standard zu fördern, statt die Vesa Standards zu unterstützen.
Ich bin mir ziemlich sicher, dass die verbaute Hardware nicht zu 100% notwendig ist damit alles funktioniert.

AMD macht es mit dem Scaler, den gab es in jedem Monitor auch schon nur waren diese nicht für dynamische Frequenzen ausgelegt. Entsprechend kann ein Monitor mit entsprechendem Scaler Chip auch die Frequenzen ansprechen. Das ist nicht einmal eine Änderung am Monitor Design der letzen Jahren und Nvidia braucht dafür einen FPGA Chip für dieselben Resultate ? Das stinkt nach proprietär.

Schließlich ging es damals auch schon ohne dieses Mistmodul. Da sind am Ende nur Sicherheits Mechanismen drinnen, damit das auf keinen FALL mit AMD oder Intel funktioniert.

BTW: Bezüglich HDR bin ich mir ziemlich sicher, dass es nicht vom Modul abhängt, sondern wie gut einfach die Schaltzeiten für die Dimming Zonen sind. HDR funktioniert schließlich auch auf der PS4 ohne Zusatzmodul.

Die One kann auch HDR und sogar Adaptive Sync als Zusatz, alles das was bei Nvidia ein Zusatzmodul benötigt ?
 
  • Gefällt mir
Reaktionen: Benji18, Neronomicon, Teralios und eine weitere Person
@RYZ3N, dann kann ich ja gleich den PC verkaufen und weiter mit einer Ps4 Pro spielen.
 
  • Gefällt mir
Reaktionen: Muxxer
yo das passiert wenn man nicht genug kohle ausgeben will und einen ASIC zu entwickeln
 
  • Gefällt mir
Reaktionen: Flaimbot und Mabot
Ich wollte den ASUS-Monitor unbedingt haben. Aber je mehr ich über die gewählte Implementierung lese, desto mehr neige ich dazu, auf die Nachfolgegeneration zu warten. Leisten könnte ich es mir, aber würde dann im Gegenzug auch keine Kompromisse akzeptieren. Und das ist mit aktueller Technik wohl schlicht nicht machbar... echt schade :(
 
  • Gefällt mir
Reaktionen: Zockmock
CB_KeinNameFrei schrieb:
Ich wollte den ASUS-Monitor unbedingt haben. Aber je mehr ich über die gewählte Implementierung lese, desto mehr neige ich dazu, auf die Nachfolgegeneration zu warten. Leisten könnte ich es mir, aber würde dann im Gegenzug auch keine Kompromisse akzeptieren. Und das ist mit aktueller Technik wohl schlicht nicht machbar... echt schade :(

Du wirst dich noch mindestens 3 Jahre gedulden müssen bis eine effiziente und preisgünstige Lösung rauskommt, die Pixelmenge die durchgeschoben wird ist einfach noch zu groß. Und auf ASICs haben die Entwickler noch kein Bock, da 144hz 4k noch Niche ist
 
Gibt es am Monitor Panel Markt eigentlich irgendeine Art von Wettbewerb? Habe mir vor 2 Jahren einen Acer Predator XB271HUbmiprz gekauft und der Preis hat sich seit dem nicht verändert.

Ich lese auch nur von AUO aber andere Hersteller scheinen irgendwie unter zu gehen?
 
  • Gefällt mir
Reaktionen: Unnu, Flaimbot, Zockmock und 2 andere
tookpeace. schrieb:
Du wirst dich noch mindestens 3 Jahre gedulden müssen bis eine effiziente und preisgünstige Lösung rauskommt, die Pixelmenge die durchgeschoben wird ist einfach noch zu groß. Und auf ASICs haben die Entwickler noch kein Bock, da 144hz 4k noch Niche ist
Schaumerma. Wenn es so ist, dann ist es eben so... kann ja nur das kaufen was es auch gibt. ¯\_(ツ)_/¯
 
aivazi schrieb:
Man kann Nvidia den Einbau von überflüssiger Hardware vorwerfen um proprietäre Standard zu fördern, statt die Vesa Standards zu unterstützen.
Ich bin mir ziemlich sicher, dass die verbaute Hardware nicht zu 100% notwendig ist damit alles funktioniert.

AMD macht es mit dem Scaler, den gab es in jedem Monitor auch schon nur waren diese nicht für dynamische Frequenzen ausgelegt. Entsprechend kann ein Monitor mit entsprechendem Scaler Chip auch die Frequenzen ansprechen. Das ist nicht einmal eine Änderung am Monitor Design der letzen Jahren und Nvidia braucht dafür einen FPGA Chip für dieselben Resultate ? Das stinkt nach proprietär.

Schließlich ging es damals auch schon ohne dieses Mistmodul. Da sind am Ende nur Sicherheits Mechanismen drinnen, damit das auf keinen FALL mit AMD oder Intel funktioniert.

BTW: Bezüglich HDR bin ich mir ziemlich sicher, dass es nicht vom Modul abhängt, sondern wie gut einfach die Schaltzeiten für die Dimming Zonen sind. HDR funktioniert schließlich auch auf der PS4 ohne Zusatzmodul.

Die One kann auch HDR und sogar Adaptive Sync als Zusatz, alles das was bei Nvidia ein Zusatzmodul benötigt ?

Viel heftiger noch: nicht nur AMD kann ohne Modul, NVidia GSync klappt wunderbar auf Notebookdisplays ohne jenes Modul.

Ich kann NVidia einfach seit Jahren nicht mehr ernst nehmen, Performance hin oder her, aber mit was die ihre Kunden verarschen (und auch noch damit durchkommen) will einfach nicht in meinen Kopf.

Und @ Topic: Zu teuer für das Gebotene. Wenn ich so viel Geld für einen Bildschirm in die Hand nehme, dann muss schon wirklich alles stimmen, da will ich nicht an Displaylotterien teilnehmen oder einen evtl. brüllend lauten Lüfter haben.
 
  • Gefällt mir
Reaktionen: Neronomicon, Inxession, duskstalker und 5 andere
Lübke82 schrieb:
Wieviele hier wieder jammern. Dann kauft doch den AMD-Quatsch einfach. HDR mit 1000Nits + Sync bis 30Hz runter und 144Hz wird es allerdings dort niemals geben. Nvidia hat hier nunmal weiterhin die beste erhältliche Technik parat und die kostet nunmal Geld. Was denkt ihr denn was die BFGDs kosten werden? Das ist nunmal nichts für AMD-Knauser.

Ja ganz toller Monitor wo du einen Haloeffekt beim Mauszeiger auf schwarzem Untergrund hast, weil die Dimmingzone immer noch zu wenige sind und nen aktiven Lüfter, den man mitunter hört. Man kann sich ja vieles schön reden aber den Preis is das Ding nicht wert. Auch den "AMD Knauser" kannst mal ruhig stecken lassen.
 
  • Gefällt mir
Reaktionen: .fF, Benji18, Kalsarikännit und 8 andere
Beefsupreme schrieb:
Wers braucht ... hab nen G-Sync Monitor. Habs getestet, für schlecht befunden und nie wieder genutzt. Bei jedem fps drop flackert die hintergrundbeleuchtung. Adaptiv V-Sync ist ein Segen zu dem unbrauchbaren Rotz von G-Sync.

G-Sync ist deutlich besser als (adaptive) V-Sync.

Das eigentliche Problem bei Dir sind die FPS drops und die kommen entweder durch Deine Grafikeinstellungen oder eine Graka, die einfach zu langsam ist. Dass G-Sync unter 30 FPS nicht gut funktioniert ist kein Geheimnis.
 
Ich finde den Preis nicht so schlimm in anbetracht der Daten , jedoch würde ich mir bei dem Preis auch eine Schnittstelle wünschen die das ohne Probleme schafft.
Und Lüfter ist auch ein no go es sei den er wäre wirklich lautlos.

Naja Monitor ist gottseidank keine Anschaffung die man so oft tätigen muss normalerweise.
 
cor1 schrieb:
G-Sync ist deutlich besser als (adaptive) V-Sync.

Nope beides hiergehabt --> kein Unterschied. Sorry sieht kein Mensch und bevor jetzt einer mit der Refreshrate bis runter auf 30Hz kommt. Mit LFC bei Freesync nie Probleme gehabt.
 
  • Gefällt mir
Reaktionen: Benji18, Balikon, Muxxer und 5 andere
cor1 schrieb:
G-Sync ist deutlich besser als (adaptive) V-Sync.

Das eigentliche Problem bei Dir sind die FPS drops und die kommen entweder durch Deine Grafikeinstellungen oder eine Graka, die einfach zu langsam ist. Dass G-Sync unter 30 FPS nicht gut funktioniert ist kein Geheimnis.

Was ist besser? Kann man das so pauschal sagen oder wäre das ungefähr so als würde ich sagen Dieselautos sind besser als Benzinautos (und umgekehrt). Der Monitor selbst macht aus wie gut er das verarbeitet, oder nicht?
 
Killer1980 schrieb:
Ich hoffe der gsync Rotz stirbt bald ab. Bin gespannt was die freesync 2 Modelle kosten werden mit ähnlichen Spezifikationen

Ich hoffe prioritäre Rotz beider stirbt schnell ab und viele investieren endlich mal in eine halbwegs taugliche Grafikkarten oder begnügen sich eben mit 60 Hz.
 
Zuletzt bearbeitet:
Ich bleibe dabei, das ist unreifer Tech-Schrott. Das die Arria-Logik-Einheit jetzt plötzlich (im Vergleich zum Vorgänger) gekühlt werden muss, zeigt imho überdeutlich, dass man hier jetzt schnell den nächsten Schritt vollziehen möchte, statt auf eine bessere Entwicklungsstufe der Logikeinheit zu warten.

Der Markt der Consumer-Bildschirme driftet IMHO schon seit einiger Zeit auf ähnlichen Abwegen, wie der Markt für Consumer-Drucker vor vielen Jahren. Deshalb versucht man jetzt den Wechsel-Zyklus geneigter Konsumenten mit Gaming-Feature-Ping-Peng-Lawinen zu beschleunigen.
 
Zurück
Oben