News UHD-Monitore mit 144 Hz: Neues G-Sync-Modul treibt Preise in die Höhe

RayKrebs schrieb:
Meine Güte, was hat sich Nvidia da einfallen lassen. Was eine NoGo!
Du sollst ja auch nicht zu den Early-Adoptern gehören. Keiner sagt, dass dies ein Mainstream-Monitor sein soll.
Die ersten GSync Monitore der 1. Generation hatten auch teure FPGAs verbaut während die aktuellen mittlerweile custom ASICs verbaut haben, die deutlich günstiger sind.
Das wird bei den 4k Modellen auch irgendwann so sein, wenn sich die Technik bewiesen hat und sich die Produktion eines ASICs lohnt. Dann darfst auch du die Monitore zu einem günstigeren Preis kaufen.

IngoKnito schrieb:
Faszinierend wie viele Menschen 2018 immer noch nicht FPS und Hertz auseinander halten können.
Erstaunlich ist eher, dass du nicht weißt, dass Hertz nichts anderes als 1/s bedeutet und somit die Einheit von Frames/s ist.
Die Framerate lässt sich also sehr wohl in Hertz ausdrücken und wenn jemand die Refresh rate eines Monitors mit fps bezeichnet ist das auch nicht falsch, denn so viele Bilder pro Sekunde stellt er dar.

paul1508 schrieb:
Was ist besser? Kann man das so pauschal sagen oder wäre das ungefähr so als würde ich sagen Dieselautos sind besser als Benzinautos (und umgekehrt). Der Monitor selbst macht aus wie gut er das verarbeitet, oder nicht?
Wenn es rein um die adaptive-sync Technik geht, dann GSync. Kann man so pauschal sagen, weil GSync hardwaremäßig im Monitor sitzt und mehr Informationen über den Refresh zur Verfügung hat als Freesync, welches auf der Grefikkarte ausgelöst wird.
Ganz wichtig für mich ist zum Beispiel, dass GSync Panels vorhersagen können, wann der nächste Refresh kommen wird und anhand dessen die Overdrive-Spannung entsprechend anpassen können. Variable Overdrive
FreeSync Panel können das nicht. Die Panel wissen nichts von ihrer variablen Refreshrate und wissen nicht wann der nächste Refresh kommt. Der kann früher oder später kommen, was dazu führt, dass die Overdrive-Spannung bereits überschwingt oder noch nicht hoch genug ist. Das Ergebnis sind schlieren, die du auf einem GSync Panel nicht hast.
Wichtig ist auch, dass die Monitore bei schlagartigen Schwankungen in Frameraten, zum Beispiel bei Szenenwechseln, nicht in's Stocken geraten. Das können die GSync Module auch besser, besonders wenn die Frameraten dabei in Bereiche rutscht, die Freesync nicht mehr mitmacht.
Auch dort GSync besser. Es deckt einen viel größeren Bereich ab und die Übergänge zwischen GSync, Vsync und diversen Übergängen in den Bilddopplungen sind nicht spürbar.

Dies sind ein paar kleine aber für mich wichtige Vorteile, die man sich für ca. 100€ erkauft. Muss jeder selbst entscheiden ob einem das Wert ist oder nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BosnaMaster, cruse, estros und 3 andere
Häschen schrieb:
Steht doch gar net fest wie teuer das g-sync Modul wirklich ist.
Am ende kostet es lediglich 50€ für ASUS und keine 500€

Ich denke auch, dass das Modul wohl kaum 500€ für die Hersteller kostet. Die Preise welche im Artikel von Mouser für die FPGAs genannt werden gelten auch jeweils für ein Paket, beim alten Modell sind das 27 Stück, beim neuen 24 (Factory Pack Quantity). Macht dann pro einzelnem FPGA:
28€ beim alten GSync
89€ für das 144Hz 4K Modell
wie gesagt nur für den FPGA, und bei den entsprechend höheren Liefermengen die die abnehmen ist der reale Preis sicherlich noch niedriger. Wobei das schon viel Geld für son Feature ist.
 
Dai6oro schrieb:
Nope beides hiergehabt --> kein Unterschied.

Klaro ist da ein Unterschied. Kein Tearing mehr, solange man über 30 FPS bleibt. Bei Adaptive V-Sync schon, dafür halt kein Stutter mehr.

Wenn Du da keinen Unterschied siehst, ist es ja ok. (Vermutlich die gleiche Diskussion wie 120Hz vs 144Hz usw... halt vieles subjektiv). Ich seh da jedenfalls einen.

Dai6oro schrieb:
Mit LFC bei Freesync nie Probleme gehabt.

Das ist schön... Beefsupreme und ich haben Freesync aber nie erwähnt.
 
  • Gefällt mir
Reaktionen: Smagjus und scorpionking95
Für den Preis würde ich mir niemals einen 27“ Monitor kaufen, sondern einen Highend 4K HDR TV um die Xbox One X auszureizen.

G-Sync ist schon eine gute Sache, aber mehr wie 700 Euro gebe ich nicht für einen PC Monitor aus.
 
cor1 schrieb:
Klaro ist da ein Unterschied. Kein Tearing mehr, solange man über 30 FPS bleibt. Bei Adaptive V-Sync schon, dafür halt kein Stutter mehr.

Du bist nicht auf einem aktuellen Stand, oder die grüne Brille trübt den Blick.
 
  • Gefällt mir
Reaktionen: aivazi, Iapetus, Steini1990 und eine weitere Person
cor1 schrieb:
Klaro ist da ein Unterschied. Kein Tearing mehr, solange man über 30 FPS bleibt. Bei Adaptive V-Sync schon, dafür halt kein Stutter mehr.

.

LFC oder Framedoubling sind dir keine Begriffe ?
Ergo hat der 144 Hz Freesync auch kein Tearing bei 30 FPS, wenn du da einen unterschied sehen kannst dann hast du meinen Respekt :D denn es gibt keinen..^^
 
  • Gefällt mir
Reaktionen: .fF und 9Strike
Tom_Magnum schrieb:
Ich bleibe dabei, das ist unreifer Tech-Schrott. Das die Arria-Logik-Einheit jetzt plötzlich (im Vergleich zum Vorgänger) gekühlt werden muss, zeigt imho überdeutlich, dass man hier jetzt schnell den nächsten Schritt vollziehen möchte, statt auf eine bessere Entwicklungsstufe der Logikeinheit zu warten.

Der Markt der Consumer-Bildschirme driftet IMHO schon seit einiger Zeit auf ähnlichen Abwegen, wie der Markt für Consumer-Drucker vor vielen Jahren. Deshalb versucht man jetzt den Wechsel-Zyklus geneigter Konsumenten mit Gaming-Feature-Ping-Peng-Lawinen zu beschleunigen.

Naja ob es jetzt Sinn macht oder nicht, den Arria gibt es auch in mehreren Ausbaustufen, je nachdem wieviele Transceiver bzw. wie viele Logic-Einheiten man braucht. 4K UHD hat auch nicht gerade die kleinste Datenrate. Ich gehe mal davon aus das man nicht freiwillig einen extra Lüfter verbaut, ist auch wieder eine mechanische Schwachstelle. Wahrscheinlich ist die Abnahmemenge zur Zeit noch so gering das es sich nicht lohnt das in einen ASIC zu gießen. Vielleicht ist man auch noch nicht ganz fertig mit der Entwicklung und da bietet sich ein FPGA zur Optimierung der digitalen Signalverabeitung meiner Ansicht nach sicherlich besser an als pro Versuch einen neuen ASIC raus zu werfen. Auch wenn es im Consumer Bereich mit Sicherheit vom Preis overkill ist.
Preislich gesehen ist das schon krass, solche FPGAs kenne ich eigentlich nur aus Spezialtechnik die nur geringe Stückzahlen hat, z.B. Messhardware jenseits der 20k € oder dort wo noch massiv entwickelt wird z.B. bei neuen Technologien wobei es da auch um Hardware geht die Preislich jenseits von gut und böse ist.
 
Bin gespannt auf Euren Testbericht von 4k Gaming mit 144 Hz und HDR, @CB :daumen:

Der Fail in diesem Umfeld ist jedoch die Tatsache, dass man nun einen Lüfter im Monitor mit drin hat :freak:
 
Äh, 480 LE wäre etwas wenig :-)
Sind kLE also 480000
 
  • Gefällt mir
Reaktionen: MichaG
Der Einsatz eines FPGA ist unnötig und Nvdia ist entweder zu gierig, oder zu faul, um ein ASIC zu designen, welches dieselbe Funktion erfüllt, und deutlich weniger kostet. Der einzige Vorteil, der sich durch den Einsatz eines FPGA ergibt, ist die Möglichkeit, nachträglich per Treiber Bugs rauszupatchen. Meiner Meinung nach ist es das aber nicht Wert, vorausgesetzt, die Hersteller sind in der Lage, von Anfang an funktionierende Produkte auf den Markt zu bringen.
 
  • Gefällt mir
Reaktionen: .fF, Flaimbot und Zockmock
Nicht jammern...
Immerhin gibt es mal 4k @ 144Hz!
Der nächste Schritt wäre eben FS + niedrigere Preise.
 
Verstehe immer das Argument nicht ala "es gibt doch gar keine Karte die die 4k 144hz befeuern kann"

öhm hallo? Wenn ich mir nen Monitor kaufe will ich ihn mindestens 3-5 Jahre behalten, bis dahin kommt schon was neues an GPUs und man ist mit dem Monitor auf der sicheren Seite.
 
  • Gefällt mir
Reaktionen: TheBear1517, scorpionking95 und Zockmock
Und ich weiß nicht was dieser sinnlose Krawall wieder mal soll , Monitore mit 4K und 144hz werden von Haus aus schon gesalzene Preise haben ohne jegliche Module , das sich aktuell so extrem an dem gsync hochgezogen wird schulde ich einfach mal den news ..... weiß nicht was sich die Schreiberlinge dabei denen ..... generiert Klicks wenn man auf ein Feindbild rumhackt da stürzt sich dann immer die gegnerische Gruppe drauf

Jeder neue Monitor der ein Sprung Auflösung / hz gemacht hat war anfangs nicht billig
 
  • Gefällt mir
Reaktionen: scorpionking95
Ich freue mich auf den Test! G-Sync sollte unterm Strich ein besseres Erlebnis liefern.
 
Ganz ehrlich ... bei 144Hz kann ich auf solche Sync-Geschichten doch gut und gerne verzichten.
Dafür 500€ oder mehr Aufpreis zahlen zu müssen, ist nur noch dumm und bescheuert.
Ich meine, hey, bietet's von mir aus alternativ an. Aber lasst den Kunden doch die Wahl, ob sie die Monitore ohne solchen Schnickschnack bevorzugen, wenn sie dafür 500€ weniger zahlen. Zumal Freesync wohl komplett kostenlos zu haben wäre.

Schade daß der dumme Kunde seine Marktmacht nicht nutzt, sondern brav alles kauft, was gerade neu und "toll" ist.

Und daß man bei so einem teuren Monitor mit HDR und Schnick und Schnack dann am Port spart und somit nur ein deutlich sichtbar komprimiertes Bild bekommt, setzt dem ganzen die Krone auf.
Wenn Display Port 1.4 nicht reicht, muss man eben auf Thunderbolt 3 setzen ... eine Schnittstelle, die nun auch schon seit Ewigkeiten existiert, aber leider kaum genutzt wird.
Oder man benutzt eben 2 Ports für die Übertragung. Das gab es in der Vergangenheit bereits.
Ein komprimiertes Matschbild ist bei dem Preis einfach nicht akzeptabel.
 
noxon schrieb:
[...]

Erstaunlich ist eher, dass du nicht weißt, dass Hertz nichts anderes als 1/s bedeutet und somit die Einheit von Frames/s ist.
Die Framerate lässt sich also sehr wohl in Hertz ausdrücken und wenn jemand die Refresh rate eines Monitors mit fps bezeichnet ist das auch nicht falsch, denn so viele Bilder pro Sekunde stellt er dar.

[...]

Du misst folglich auch die Geschwindigkeit eines Fahrzeuges oder den Volumenstrom eines Lüfters in Hertz. Ohne näher darauf einzugehen möchte ich dir nur mitteilen, dass das absoluter und substanzloser Blödsinn ist.

Topic:
Nichteinmal als Machbarkeitsstudie vermag mich das zu beeindrucken. Next.
 
  • Gefällt mir
Reaktionen: .fF, ottoman, Berserkus und eine weitere Person
Ich glaub ja nicht dass AMD das Selbe kostenlos leisten kann, so wie hier einige tun, aber wird sich schon zeigen.
 
jackii schrieb:
Ich glaub ja nicht dass AMD das Selbe kostenlos leisten kann, so wie hier einige tun, aber wird sich schon zeigen.
Lass doch bitte diese Unterstellungen sein. AMD hat preislich gesehen hier weniger zu tun als NVIDIA. Die Scalerhersteller entscheiden maßgeblich über den Preis. Man kann davon ausgehen, dass FREESYNC 2 HDR mindesten 150,-€ oder mehr günstiger werden wird! Siehe jetzige Monitore von FREESYNC und GSYNC!
 
Fantasy schrieb:
Vor Allem kommt nächstes Jahr HDMI 2.1 mit 4K@120Hz, Dynamic HDR und besonders für Spieler auch Adaptiv-Sync bzw. "Free"-Sync, dann frage ich mich, wozu man G-Sync noch braucht?

Das ist ja gut und schön, dass das nächstes Jahr kommt - aber womit spielst du dann HDMI 2.1 zu? Und vor allem, auf welches HDMI 2.1 fähige Ausgabegerät willst du das übertragen?
-> soll heißen, bis der Spaß im Laden steht, sowohl auf der Ausgabeseite (GPUs) als auch Monitorseite dürfte es 2020 sein, vllt sogar noch später...
Wenn du warten willst, gut, wenn nicht??

Laggy.NET schrieb:
Ich bin dieses Rätselraten und wilde behauptungen aufstellen leid, ich würde endlich gerne mal wissen, was G-Sync allgemein anders macht. Preise hin oder her, ich will den technischen Aspekt dahinter verstehen. Kann ja gut sein, dass das teure G-Sync Modul unterm Strich nur 5% "mehr" kann, bzw. die Ausgabe nur nen kleinen Tick besser ist, als bei FreeSync, aber ich will wissen WAS GENAU, WIE und WARUM.

Soweit ich das mitbekommen habe bringt das GSync Modul eigene Scaler mit. Bei den FreeSync Monitoren ist das nicht der Fall.
Des weiteren munkelt(e) man in der Vergangenheit, dass die NV GPUs möglicherweise gar nicht in der Lage waren/wären, den Spaß via DP oder HDMI abzudeckeln, weil sie es vllt gar nicht könn(t)en. Dazu gabs damals mal nen Thread in p3d Forum.

Bei aller Liebe oder Hass ggü. den Machenschaften der Hersteller. Mittlerweile besteht wahrscheinlich kein echter Zwang mehr zu diesem externen Modul. Früher, also VOR der Spezifikation im DP1.2a Standard sah das allerdings scheinbar anders aus. (abseits vom unüblichen eDP Standard im Desktop Geschäft)
Auch scheint NV mit diesem Modul gewisse Basiswerte zu kreieren, selbst wenn die interne Hardware des Monitors dazu nicht in der Lage wäre. Das lese ich beim Querüberfliegen der ganzen Artikel dazu zumindest herraus (Thema <48 Hz bei FreeSync bspw. -> mit GSync geht das zumindest).
Nichts destotrotz, das Modul ist also nun einmal da - es jetzt wegzukürzen wäre technisch vllt machbar, aber würde dann bedeuten, dass all die Leute mit alter GPU dann nicht auf neuere Monitore gehen könnten (auch ungünstig)

Streiten kann man sich, ob so ein Modul für die zweite Generation nun ebenso möglich ist. Theoretisch wohl wieder nicht zu 100%, praktisch lässt sich damit aber eben wieder das Thema steuern. Vllt fehlts NV auch wie damals spekuliert immernoch an der technischen Umsetzung auf der GPU Seite. Oder man möchte einfach mehr liefern als der Standard vorsieht (was unabhängig von GSync 1 und GSync HDR der Fall ist)
Beim neuen Modul soll wohl UHD Premium Vorraussetzung sein. Und 10 Bit Panels? Das sieht FreeSync so erstmal nicht vor. Ein FreeSync (2 HDR) Monitor mit den eher laschen Voraussetzungen kann also schlechter als das GSync HDR Gegenstück sein oder auch besser, je nach Gutdünken des Monitorherstellers - was andersrum auch ein Problem, weil es für den Kunden nicht mehr transparent ist. Der HDR600 Standard setzt wohl auf 8Bit Panele im Minimum. Mehr ist optional. Das ist gut für die Flexibilität und den Geldbeutel, aber schlecht für den, der es nicht weis... Und das ist in der Form (leider) bei den Displaystandards häufig der Fall - siehe HDMI 2.0 - technisch MUSS ein HDMI 2.0 fähiges Gerät nichtmal UHD Auflösung bieten, weil es einfach kein muss ist.
Im Vergleich, bei NV ist mit dem neuen GSync Modul die Spezifikation ziemlich eineindeutig...
Nach den Infos zu FreeSync 2 HDR gibt es bei AMD bspw. nen API zum ansteuern des Monitors. Diese ist (unabhängig von AMD selbst) erstmal fix - sprich wenn der Monitor ausgeliefert ist, sollte diese nicht mehr ändernbar sein, es sei denn der Hersteller bringt ggf. ein Update. Hier hat das Modul auch wieder klar nen Vorteil - Der FPGA ist wohl klar voll umschreibbar durch NV. Anpassungen im Nachgang sind damit eigentlich kein Problem.

ottoman schrieb:
Seit Plasma hat eigentlich kein TV mehr eingebaute Lüfter.
Also mein Samsung UE55HU8590 hat ganz eineindeutig einen Lüfter im Anschlussmodul. Das Ding wird dazu noch wirklich extrem heiß - allen voran bei Darstellung von HighRes Kontent und auch wenn da diverse "Bildverbesserer" aktiv sind - also der Prozessor was zu tun hat. Das Teil hört man... In den oberen Klassen ist das meine ich eher sogar die Regel als die Ausnahme...

paul1508 schrieb:
Was ist besser? Kann man das so pauschal sagen oder wäre das ungefähr so als würde ich sagen Dieselautos sind besser als Benzinautos (und umgekehrt). Der Monitor selbst macht aus wie gut er das verarbeitet, oder nicht?

Schwer zu sagen - da die Basis nicht die gleiche ist.
Wie oben schon mal erwähnt - GSync HDR setzt auf UHD Premium + 10 Bit Panels und noch weitere Voraussetzungen. NV möchte offenbar explizit Enthusiasten ansprechen.
FreeSync 2 HDR ist "lascher" in den Spezifikationen, entsprechend auch in den Umsetzungen bei manchen Modellen. AMD hingegen möchte wohl die breite Masse über verschiedene Klassen abdecken.
Am Ende kommt es klar auf die Umsetzung an - FreeSync 2 HDR am absoluten Spezifikations-Minimum lässt sich klar als schlechter bezeichnen. Nach oben raus ist es aber nicht zwangsweise schlechter. Problem ist nur, AMD kann es nicht direkt steuern. NV hingegen schon.

PS: der Vergleich Diesel/Benzin hinkt - denn dort ist eher die Frage, besser in WAS?
Kosten? Unterhalt? Verbrauch? Abgas? -> ggü. GSync/FreeSync ist das schon recht unterschiedlich, dort gibts halt nur Kosten und Benefit vom Produkt.
 
  • Gefällt mir
Reaktionen: paul1508, Zockmock und SavageSkull
jackii schrieb:
Ich glaub ja nicht dass AMD das Selbe kostenlos leisten kann, so wie hier einige tun, aber wird sich schon zeigen.
Naja was heißt "kostenlos". Der Vorteil an Freesync ist, dass die Technik direkt von den Scaler-Herstellern verbaut werden kann, da die Implementierung bei Vesa einsehbar ist. Das macht den Scaler in den Entwicklung zwar etwas teurer, aber nicht wirklich nennenswert.
 
Zurück
Oben