News UHD-Monitore mit 144 Hz: Neues G-Sync-Modul treibt Preise in die Höhe

kiffmet schrieb:
Der Einsatz eines FPGA ist unnötig und Nvdia ist entweder zu gierig, oder zu faul, um ein ASIC zu designen, welches dieselbe Funktion erfüllt, und deutlich weniger kostet. Der einzige Vorteil, der sich durch den Einsatz eines FPGA ergibt, ist die Möglichkeit, nachträglich per Treiber Bugs rauszupatchen. Meiner Meinung nach ist es das aber nicht Wert, vorausgesetzt, die Hersteller sind in der Lage, von Anfang an funktionierende Produkte auf den Markt zu bringen.

Also mal abgesehen davon, dass du fürs Design eines ASIC mal eben tausende von Ingenieursstunden mehr bezahlen kannst, was ebenfalls nicht billig kommt ... die Produktion von ASICs lohnt sich prinzipiell erst so ca. ab einer Stückzahl von einer halben Million.
Kann man sich auch eigentlich recht gut mit der Fließband-Produktion erklären. Wofür meinst du zahlst du mehr, ein Auto, das genau nach deinen Vorstellungen als Unikat gebaut wird, oder der neue VW Golf, der in Serie produziert wird und den neben dir noch tausende von anderen fahren werden?

Back to topic: Momentan gibt es zwei Displays, die ein solches Modul verbaut bekommen. Ich weiß nicht wie viel Asus und Acer planen von ihren 2k+€ Gamer Displays abzusetzen, aber ich bezweifle mal dass sie die Größenordnung anstreben werden, in denen sich ein ASIC tatsächlich lohnt.

Treiber Bugs lassen sich auch bei einem ASIC rauspatchen. Hardware Bugs kann man bei einem ASIC hingegen nicht beheben. Ich bezweifle aber mal, dass das Design in diesem Stadium noch große Hardware Bugs hat. Das wäre recht peinlich für NVidia bei einem so teuren Gerät.

Alles in allem reichen die Displays gerade mal als Machbarkeitsstudie. Für HDR-Video Bearbeitung sind sie nicht geeignet, dazu fehlen ihnen die 10bit Farbtiefe und wie viele Leute bereit sein werden über 2.5k€ für 144Hz und G-Sync auszugeben, wenn es professionelle Displays mit HDR und Local Dimming für fast die Hälfte gibt, bleibt abzuwarten.
 
  • Gefällt mir
Reaktionen: Zockmock
Killer1980 schrieb:
Ich hoffe der gsync Rotz stirbt bald ab. Bin gespannt was die freesync 2 Modelle kosten werden mit ähnlichen Spezifikationen
lol sagt der der eine GTX1080 hat...die 1080 läuft dann sicher super auf Freesync
 
Aus meiner Sicht wäre es mir den Aufpreis ja Wert. Ob ich jetzt 1799€ oder 1899€ zahlen müsste dürfte egal sein. Auch ob ich später 799€ oder 899€ zahle wäre auch egal, WENN der Monitor auch sein Geld Wert wäre!
Aber das, was ich bisher gesehen habe, Stichwort Lüfter, überzeugt mich bisher überhaupt nicht.
Außerdem muss sich für 4K 144Hz erstmal bei den Grafikkarten viel mehr tun.
Da warte ich lieber noch 2-3 Jahre.
 
  • Gefällt mir
Reaktionen: Zockmock
fox40phil schrieb:
Was macht diesen Chip so teuer?
die tatsache, dass irgendein genie bei NoVideo© auf die schnappsidee kam da ein fpga reinzuhauen, anstatt einen ASIC zu entwickeln.
 
  • Gefällt mir
Reaktionen: Majestro1337
Lübke82 schrieb:
HDR mit 1000Nits + Sync bis 30Hz runter und 144Hz wird es allerdings dort niemals geben.
Kannst du nicht wissen!

jackii schrieb:
Ich glaub ja nicht dass AMD das Selbe kostenlos leisten kann,
Warum glaubst du das nicht?

9Strike schrieb:
Das macht den Scaler in den Entwicklung zwar etwas teurer, aber nicht wirklich nennenswert.
Scaler die es nicht unterstützen dürften teurer sein.
 
Also statt dem FPGA könnte man die Logikschaltung, die man dort rein programmiert hat auch in einen eigenen chip auflegen, der vermutlich winzig ausfällt und nix kostet. Außer die Verkaufszahlen sind unendlich schlecht. Aber wenn man als Konsequenz daraus mit sündhaft teuren FPGAs arbeitet ist das ja genauso zum scheitern verurteilt.
 
  • Gefällt mir
Reaktionen: fox40phil und Flaimbot
Mustis schrieb:
Genau das Funktioniert aber so wohl nicht mehr mit HDR und aktiven Sync. Ob Das Sync hier überhaupt mit HDR zusammen funktioniert und welches HDR wie umgesetzt wird, ist doch aus der Quelle gar nicht ersichtlich. So sehe ich zum Beispiel nicht, ob local Dimming vorhanden ist, was für ordentliches HDR eigentlich zwingend notwendig ist. ICh schrieb eigentlich ganz klar, dass ich von einem Freesync 2 HDR rede, dass auch das selbe kann wie G-Sync. HDR 400 ist eben nicht das selbe und wie der Artikel in meinem Posts klar aufzeigt, ist in Freesnyc2 HDR derzeit keine Spezifikation für HDR hinterlegt, der Name an sich Etikettenschwindel.

Man kann Nvidia ja vorwerfen was man will, aber die offensichtlich notwendige Hardware ist ja sicher nicht aus Spass verbaut und ksotet auch NVidia Geld, welches sie einspielen müssen. Also aus reiner Geldgier werden sie sicher keinen so teuren Chip und soviel Ram da verbauen oder? Wenn sie geldgierig wären, würde das Modul trotz billig Hardware teuer sein. Fakt ist aber, dass die Hardware an sich teuer ist.

Es gibt eine Vesa HDR 400,600,1000 Spezifikation wie auch die für Sync/Sync 2. Beherrscht ein Monitor beide Specs so kann man dies als Sync/2 HDR Monitor bezeichnen.
Doch NV tut es unter anderem auch aus reiner Geldgier .Ist nunmal ein Börsennotiertes Unternehmen. Wenn sich damit Geld verdienen läßt wird dies auch versucht und das so viel wie möglich. Das NV damit seine eigenen Specs den Monitorherstellern aufzwingt kommt erschwerend hinzu. Wobei die in der Regel meist nutzbare Sync Range 30+Hz hier das einzige aktzeptabe Restargument auf NV Seite bleibt.

HDR ansich ist leider eine sehr schwammige Spezifikation da mit 8bit FRC wie auch nativ 10bit Panels gearbeitet werden kann sowie unterschiedlichen min. Helligkeitswerten. Dolby Vision ist da sehr viel enger bei den verbauten Panels 10bit only und auch gleichzeitig flexibler da für jedes Bild der HDR Umfang angepasst werden darf. Bei HDR wird dies nur einmal zu Beginn zwischen Abspieler und Monitor abgestimmt.
 
Zuletzt bearbeitet von einem Moderator:
Dark-Silent schrieb:
Doch NV tut es unter anderem auch aus reiner Geldgier .
AMD tut auch ALLES aus Geldgier. AMD ist kein Robin Hood. Es kann nur mit seinen Marktanteilen und Ruf nicht alles so durchsetzen wie es Nvidia kann. Wenn es das könnte, würde es das genauso tun. Leute, glaubt doch nicht, dass der rote Konzern ein Deut besser wäre.
Besagte Umsetzung ist eine Early Adopter High End Enthusiast Umsetzung. Und ein FPGA ist bei der Absatzmenge die einzig sinnvolle Lösung, wenn man denn den Scaler selbst bestimmen und umsetzen will.
Bei 150€ billigst Monitoren geht das natürlich nicht mehr, aber in der Kategorie habe ich noch gar keinen Sync Monitor gesehen, was wohl der Fall wäre, wenn AMD Robin Hood wäre.

Warten wir mal das Ergebnis bei dem CB Test des Asus Monitors ab.
 
FirstJune schrieb:
Da du dich nicht so gut mit Grafikkarten auskennst, ES GIBT AUCH NOCH ANDERE AMD Karten neben der Radeon 580. Zudem kommt 2019 schon NAVI!!!!

Erstens wird es niemanden geben, der garantiert, dass es 2019 Gaminggrafikarten auf Navi Basis geben wird.
Zweitens wird Navi die Mittelklawar bedienen. AMD wird auf Jahre hinaus keine konkurrenzfähigen High End Grafikkarten auf den Markt bringen.
 
  • Gefällt mir
Reaktionen: fox40phil
pmkrefeld schrieb:
Häh? Also das was ich im Inet gesehen habe...

Ja, du siehst natürlich auch die Qualität DIESES Monitors im Internet über DEINEN Monitor der eben nicht diese Qualität liefert. Joa, is klar ne. :rolleyes:
 
  • Gefällt mir
Reaktionen: .fF
SavageSkull schrieb:
AMD tut auch ALLES aus Geldgier. AMD ist kein Robin Hood. Es kann nur mit seinen Marktanteilen und Ruf nicht alles so durchsetzen wie es Nvidia kann. Wenn es das könnte, würde es das genauso tun. Leute, glaubt doch nicht, dass der rote Konzern ein Deut besser wäre.
Besagte Umsetzung ist eine Early Adopter High End Enthusiast Umsetzung. Und ein FPGA ist bei der Absatzmenge die einzig sinnvolle Lösung, wenn man denn den Scaler selbst bestimmen und umsetzen will.
Bei 150€ billigst Monitoren geht das natürlich nicht mehr, aber in der Kategorie habe ich noch gar keinen Sync Monitor gesehen, was wohl der Fall wäre, wenn AMD Robin Hood wäre.

Warten wir mal das Ergebnis bei dem CB Test des Asus Monitors ab.

AMD hat Freesync in einen offenen Vesa Standard einfliessen lassen den jeder Hersteller Lizenzgebührenfrei unterstützen kann und bekommt ergo keine Lizenzgebühren dafür. Bevor du Nonsens verbreitest bitte erst richtig informieren.
Ausserdem gibt es einige 150€ und auch günstiger Freesyncmonitore auch hier statt Nonsen absondern erst Googeln. Hilft dabei sich nicht so zu blamieren.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: 9Strike
Majestro1337 schrieb:
Also statt dem FPGA könnte man die Logikschaltung, die man dort rein programmiert hat auch in einen eigenen chip auflegen, der vermutlich winzig ausfällt und nix kostet. Außer die Verkaufszahlen sind unendlich schlecht. Aber wenn man als Konsequenz daraus mit sündhaft teuren FPGAs arbeitet ist das ja genauso zum scheitern verurteilt.

Wenn es so eine einfache "Logikschaltung" wäre bin ich deiner Meinung, aber ich gehe davon aus dass der FPGA für die digitale Signalverarbeitung eingesetzt wird und da braucht man auch genug wums dafür. Die Arria Chips sind speziell für DSP Logik konzipiert und haben auch mehrere Transceiver mit sehr hoher Datenrate. Ohne jetzt Fan von G-Sync zu sein fasziniert es mich aber schon was da sehr wahrschenlich an Datenraten durch gejagt werden.
 
  • Gefällt mir
Reaktionen: Flaimbot
Marcus Hax0rway schrieb:
Macht ja auch Sinn für AMD. So sieht es so aus als wären Nvidia die Bösen, ergo kaufen mehr Leute AMD.
Nein, wir haben es ja in der Vergangenheit gesehen, wo ATI jetzt AMD mit ihren Radeon Nvidia überlegen waren, siehe "GeForce FX 5800 (Ultra) (Im Test vor 15 Jahren) mit nV30 war mit extremer Lautstärke bei schlechter Leistung für Nvidia eine Katastrophe." Und trotzdem haben die Leute Nvidia gekauft.
Marketing und möglicherweise viel Ignoranz der Kunden haben immer Nvidia gerettet.
 
  • Gefällt mir
Reaktionen: TheBear1517, yummycandy und Flaimbot
Vitec schrieb:
Naja Monitor ist gottseidank keine Anschaffung die man so oft tätigen muss normalerweise.

Ich gebe dir Recht, allerdings stimmt hier das gebotene zum preis überhaupt nicht.
In dem anderen thread, schrieben einige user dass der Asus und acer kein natives 4k beherrschen.

Wir bewegen uns hier bei dem preis im Profi Segment wo man für eizo und nec Monitore
Perfekte Geräte für Fotografie und grafikbearbeitung bekommt.
Mit den gamern kann man es aber machen?


Der Gamer nimmt aber ne Panel Lotterie und abstriche bei nem 2500€ Monitor in kauf?
Bei dem Preis muss der Monitor perfekt abgestimmt sein, was diese Monitore scheinbar nicht sind.
 
  • Gefällt mir
Reaktionen: The Fool, Unnu und Flaimbot
In der Theorie ist es jedenfalls so. Im Endeffekt ist es auch nichts Anderes als Marketing von AMD, dass sie sich als die "Guten" darstellen. ;)
 
Sync-Technik hin oder her, für UHD ist 27" eigentlich schon zu klein: der Unterschied zwischen 1440p und 2160p ist m.E. kaum sichtbar und darüber hinaus wird Schrift oftmals winzig klein. Als Zweitbildschirm für Filme oder Bilder ist 4k+IPS auch in dieser Größe beeindruckend, aber dafür sind 144Hz wiederum unnötig.
Ich habe mich letztlich gegen GSync entschieden weil das Angebot bisher doch sehr überschaubar wurde, wenn man WQHD oder höher und IPS-Panel sucht - und die Berichte über Verarbeitungsmängel dieser Geräte taten ihr übriges. Wie dem auch sei, ich bin mit meinen beiden (FreeSync-)LG's zufrieden.
 
Marcus Hax0rway schrieb:
In der Theorie ist es jedenfalls so. Im Endeffekt ist es auch nichts Anderes als Marketing von AMD, dass sie sich als die "Guten" darstellen. ;)
Diese Polemik kommt eher von Usern die ohne Feindbild nicht glücklich sein können weil sonst nix um sich künstlich aufzuregen da wäre. Intel vs. AMD , NV vs. AMD bei jeder noch so schwachsinnigen Randnotiz ließt man immer die selben hates und bashes von immer den selben Leuten. Mit den immergleichen teilweise seit der IT Steinzeit gepflegten Argumenten völlig egal ob die noch up to date sind oder es jemals waren.

csch92 schrieb:
wozu gsyn wen nvidia fast sync hat? gibt es sogar bei jeder Nvidia graka
Was möchtest du uns damit sagen??????
 
Marcus Hax0rway schrieb:
In der Theorie ist es jedenfalls so. Im Endeffekt ist es auch nichts Anderes als Marketing von AMD, dass sie sich als die "Guten" darstellen. ;)
Ach wirklich, wo haben sie sich denn als die guten dargestellt? Und wie, erkäre uns das doch mal, ich habe dir wenigsten die Quelle von CB genannt. Welches Marketing denn, als ob AMD Geld hätte?! Nvidia hat es ja bewiesen, dass die nicht gerade mit sauberen Mitteln arbeiten, siehe GeForce Partner Program (GPP).:evillol::heul:
https://www.computerbase.de/2018-04/asus-arez-amd-radeon-grafikkarten/

Du redest Unsinn!
 
Zurück
Oben