News UHD-Monitore mit 144 Hz: Neues G-Sync-Modul treibt Preise in die Höhe

noxon schrieb:
Und du wärst wahrscheinlich auf die Idee gekommen gleich zu Anfang der Produktentwicklung einen millionenschweren Auftrag für einen ASIC zu vergeben den du in riesen Stückmengen abnehmen musst nur um dann festzustellen, dass der anschließend Bugs enthälst, die du nicht mehr fixen kannst.

Deiner ignoranz kann man bereits ablesen, dass du keinen dunst von hardwareentwicklung hast. Besuch mal nen elektro/info studiengang und dir wird schon im zweiten semester des bachelors erklärt wieso und zu welchem zeitpunkt in der produktentwicklung noch ein fpga benutzt wird und ab wann auf asics umgestellt wird. Bis dahin bitte das berühmte zitat von dieter nuhr befolgen.
 
  • Gefällt mir
Reaktionen: Fragger911
Flaimbot schrieb:
Besuch mal nen elektro/info studiengang und dir wird schon im zweiten semester des bachelors erklärt wieso und zu welchem zeitpunkt in der produktentwicklung noch ein fpga benutzt wird und ab wann auf asics umgestellt wird

Wenn du danach nen BWL Studiengang besuchst wird dir das wahrscheinlich nochmal erklärt, aber mit ganz anderem Ergebnis.
 
  • Gefällt mir
Reaktionen: Fragger911
Auch die Kollegen von PCGH fanden Gefallen am Asus PG27UQ und sprechen vom „Nonplusultra“ für Spieler...

Denkfehler meinerseits vielleicht, aber Nonplusultra setze ich mit makellos gleich und das sind die Monitore ja erwiesenermaßen nicht.
 
  • Gefällt mir
Reaktionen: Flaimbot
@KingLz: da die Funktionen von G-Sync unter Freesync auch ohne FPGA auskommen und dort keinerlei Leistungsverlust bedeuten, macht das einen FPGA Chip absolut über flüssig, Nvidia will einfach nur seinen Standard vor dem Vesa Standard durch drücken und das ist einfach nur scheisse. Das sind absolut vermeidbare kosten....
Wer da mitmacht ist eigentlich nur selber schuld und gehört auch an den Pranger gestellt.
 
  • Gefällt mir
Reaktionen: cryoman und Flaimbot
DocWindows schrieb:
Wenn du danach nen BWL Studiengang besuchst wird dir das wahrscheinlich nochmal erklärt, aber mit ganz anderem Ergebnis.

Das wird Dir bei den E-Technikern genauso erklärt: Bsp. Literatur (unten Tabelle + Graph)
Niemand entwickelt ein AISC wenn er davon nur eine Hand voll verkauft, außer Geld spielt keine Rolle.
Für extrem simple Lösungen würde man zudem sowieso auf irgendeine Form Mikrocontroller zurückgreifen.

Aufgrund des großen geforderten Datendurchsatzes ist dies hier aber nicht möglich, deswegen das FPGA.

aivazi schrieb:
da die Funktionen von G-Sync unter Freesync auch ohne FPGA auskommen und dort keinerlei Leistungsverlust bedeuten, macht das einen FPGA Chip absolut über flüssig

Bieten diese Monitore auch 4k Auflösung, 144hz und HDR? Wenn ja ist der Monitor in der Tat vollkommen überteuert und die Elektronik überdimensioniert.

Zu bedenken gibt es, dass 4k im Vergleich zu 1080p mindestens den 4-fachen Datendurchsatz/Rechenleistung braucht. 144hz und HDR schlagen sicher auf diesen Faktor nochmal was drauf.

Ich habe bei geizhals nicht einen freesync Monitor mit 4k Auflösung gefunden, wenn es die gibt so würde ich das gerne sehen.
 
Zuletzt bearbeitet:
D708 schrieb:
Markige Worte, allerdings selbst mit NVidia Karten sind 4K in 144Hz ohne alle Regler nach links zu stellen in AAA Games aktuell Wunschträume. Und selbst wenn die Neu Vorgestellten NVidia Karten 2018 30% mehr Leistung haben, ist man auch noch davon weg.

Falls sich NVidia treu bleibt, und mit der Navi Ankündigung 2019 kann man sich sicher sein, wird die neue TI erst als Störfeuer zu der Vorstellung Navis kommen. Vorher wird eine „2080“ kommen, die gut sein wird, aber keine 4K 144Hz können wird.
Wer glaubt, 2018 diesen Monitor „einsetzten“ zu können, kann auch darauf hoffen, dass der Weihnachtsmann einen vorbeibringt.

Sicherlich ist man bei +20% zur Ti je nach Titel noch entfernt von 4k mit 144hz, allerdings eben wesentlich näher als mit der Vega 64.

Turing ist dabei wesentlich sicherer einzuschätzen als Navi. Insbesondere wann und wie dieser Chip erscheint. Für 2018 sind von AMD keine Consumer Grafikkarten angekündigt, woher nimmst du also die Gewissheit? Und "sicher" kann man sich nach der Vega Salami Taktik nicht wirklich sein.

Wann genau die Turing Ti kommt, ist mir persönlich zweitrangig. Es ist ein Hobby, davon hängen keine Menschenleben ab. Aber wenn sie kommt, dürfte sie wohl die schnellste Consumer Grafikkarte (bei halbwegs akzeptabelem Preis exklusive Titans) darstellen und ist gekauft. Kontern muss mMn Nvidia gar nichts wirklich, denn die Ti ist ja bisher noch auf dem Treppchen, weshalb man sich nur selbst Konkurrenz macht.
 
DocWindows schrieb:
Wenn AMD schlau wäre, hätten sie nichts dagegen. Sollte nVidia eine eigene Adaptive Sync Implementation mit anderem Namen ankündigen, wäre das meiner Meinung nach verheerend für die Verbreitung des Begriffs FreeSync.

Der Begriff FreeSync beschreibt aber nunmal eine probritäre AMD-Technik, die in (neueren) AMD-GPUs und den dazugehörigen Treibern integriert ist. AMD wird diese Technologie garantiert nicht mit Nvidia teilen, selbst wenn es technisch möglich/sinnvoll wäre. Das ist es aber mit Sicherheit nicht, da AMDs GPUs und Treiber ganz anders funktionieren als Nvidias.

Eine neue, propritäre Nvidia-Technologie ebenfalls FreeSync zu nennen, die nichts mit AMDs FreeSync zu tun hat, außer das beide auf der Monitorseite Adaptive Sync nutzen, wäre einfach nur verwirrend und von beiden Seiten aus Marketinggründen auch ganz sicher nicht gewollt. Die wollen nicht in einen Topf geworfen werden.
Auch der Verbraucher würde da weiterhin unterscheiden wollen, denn die beiden Technologien würden sicher auch unterschiedlich (gut) funktionieren, selbst wenn der selbe Adaptive-Sync-Monitor genutzt wird.
 
Die Frage ist, was eine entsprechende Freesync Komponente mehr kostet als eine Standard. Da muss auch irgendwas anders sein, kann mich aber nicht mehr erinnern was. Wenn das entsprechende Teil für Freesync 2 400€ kostet und GSYNC eben 500€ wäre der aufpreis nur 100€. Abgesehen davon, weiß ja niemand ob dier 500€ überhaupt stimmen.
 
aivazi schrieb:
Das ist doch Super absurd, wenn die Funktionen der Grafikkarte in den FPGA eines Monitores wandern... alleine einen zweiten Chip zu verbauen und eine Platine etc. der programmier Aufwand. Das alles hat überhaupt keine Daseinsberechtigung, wenn das AMD mit einem Scaler im Monitor hinbekommt.

Vielleicht habe ich mich etwas falsch ausgedrückt.
Der Scaler im Monitor ist nichts, was von AMD kommt. Ein Panel ist ja nicht nur ein Panel, sondern beinhaltet noch die Ansteuerungselektronik und auch (unter anderem) einen Scaler. Dann sind noch diverse Look-Up-Tables für Farben(Konversionen) und und und... Für NVidia-Zwecke, reicht es also nicht, diesen Panell-Controller zu nutzen. Mit einem FPGA kann dieser komplett entfallen. Je mehr in so einen FPGA wandert, desto weniger muss sich dann die Grafikkarte darum kümmern.
Etwas Ähnliches hat ja schon der Apple-iMac 5K -- "custom timing controller chip". NVidia möchte genau dahin!
Die wollen eigenen Timing-Controller haben, um die Kette komplett unter Kontrolle zu halten.

FirstJune schrieb:
Das klingt ziemlich abenteuerlich, mit Miesen verkaufen die Monitorhersteller es bestimmt nicht, dazu ist der Wettbewerb zu groß und NVIDIA wird da bestimmt nichts subventionieren, weshalb auch.

NVIDIA subventioniert dies 100%! Anders ist es nicht zu machen. Dies ist ein Vorzeige/Prestige-Projekt, was sonst keiner anbieten kann. Das Ganze muss sich nicht für NVIDIA rechnen, darum geht es hier überhaupt nicht.

FirstJune schrieb:
Nichts für ungut, klingt nach Verschwörungstheorie.
Das du da aus der Branche kommst, netter versucht, aber macht die Sache auch nicht glaubwürdiger!

Keinesfalls. Meinen ersten Scaler auf Basis von einem FPGA habe ich vor 10 Jahren gebaut (1080p60). Ich weiß, wovon ich rede, worauf es dabei ankommt und wie teuer so etwas ist.
 
  • Gefällt mir
Reaktionen: .fF
time-machine schrieb:
Mit den gamern kann man es aber machen?

Der Gamer nimmt aber ne Panel Lotterie und abstriche bei nem 2500€ Monitor in kauf?

Bei dem Preis muss der Monitor perfekt abgestimmt sein, was diese Monitore scheinbar nicht sind.

- Gamermonitore haben aber andere ansprüche.
- Muss man da es eben noch nicht den perfekten Allroundmonitor gibt bis jetzt
- Stimmt. Die Panellotterie ist bei dem Preis ein absolutes NOGO. Schon bei den "kleinen" 27" High End von Asus / Acer ist die Panellotterie absolut undiskutabel und die sind mit 800€ auch schon nicht billig.
Die verkaufen sich aber auch sehr gut anscheinend weil halt das beste was es für Gamer auf dem Markt gibt, wenn man keine 30" + oder top Farben benötigt, wobei farblich diese auch ganz gut dastehen für TN.
 
Palmdale schrieb:
Sicherlich ist man bei +20% zur Ti je nach Titel noch entfernt von 4k mit 144hz, allerdings eben wesentlich näher als mit der Vega 64.

Turing ist dabei wesentlich sicherer einzuschätzen als Navi. Insbesondere wann und wie dieser Chip erscheint. Für 2018 sind von AMD keine Consumer Grafikkarten angekündigt, woher nimmst du also die Gewissheit? Und "sicher" kann man sich nach der Vega Salami Taktik nicht wirklich sein.

Wann genau die Turing Ti kommt, ist mir persönlich zweitrangig. Es ist ein Hobby, davon hängen keine Menschenleben ab. Aber wenn sie kommt, dürfte sie wohl die schnellste Consumer Grafikkarte (bei halbwegs akzeptabelem Preis exklusive Titans) darstellen und ist gekauft. Kontern muss mMn Nvidia gar nichts wirklich, denn die Ti ist ja bisher noch auf dem Treppchen, weshalb man sich nur selbst Konkurrenz macht.
Darum geht es doch, Beitrag nicht gelesen. AMD wird keine Gaming Navis 2018 bringen. Nvidia wird Turing wohl noch dieses Jahr vorstellen, aber wohl nur einen GTX 1080 Nachfolger. Der wird so um die 30% mehr Leistung haben. Ohne Riesen Shrink ist da nicht mehr drin. Selbst wenn 100% mehr drin wären als der Direkte Vorgänger, wäre 4K 144Hz immernoch nicht erreicht.

2018 wird nichts mehr kommen in der Richtung. Weder von AMD noch Nvidia. Das Argument, BLABLA Navi erst 2019 BLABLA 4K 144Hz AMD sowieso nicht sinnvoll BLABLA , sind komplettes Fanboy gequatsche. 1zu1 auf NVidia übertragbar. Vor 2019 hat Nvidia auch nichts im Portfolio. Maximal eine Graka die sicher 4K 60Hz packt.

Und es geht auch Nvidia nicht ums Kontern 2019. Es geht um Marketingstörfeuer. Jede Vega Graka ist eine Zuviel für Nvidia und die Leute vergessen eben zu schnell. Weshalb hat Nvidia wohl die 1070TI gebracht? Oder die Xte 1060/1050 Version? Reine Störfeuer. Macht AMD übrigens genau so. Ab und zu ein kleine Schmäh Video, um die Fanboyseelen überkochen zu lassen.

Natürlich ist Touring sicherer einzuschätzen. Ändert aber nicht daran, dass erst eine TI was ändern könnte und ob die dann auch 4K 144Hz schaffen wird, ich bezweifle es.
 
Gibt es eigentlich schon By-Pass-Treiber für NV um Freesync zu nutzen?
Finde diese Exklusivität eine Frechheit noch dazu bei dem Aufpreis ...
 
KingLz schrieb:
Bieten diese Monitore auch 4k Auflösung, 144hz und HDR? Wenn ja ist der Monitor in der Tat vollkommen überteuert und die Elektronik überdimensioniert.
Zu bedenken gibt es, dass 4k im Vergleich zu 1080p mindestens den 4-fachen Datendurchsatz/Rechenleistung braucht. 144hz und HDR schlagen sicher auf diesen Faktor nochmal was drauf.
Ich habe bei geizhals nicht einen freesync Monitor mit 4k Auflösung gefunden, wenn es die gibt so würde ich das gerne sehen.

Es ist nicht die Synctechnik die bis jetzt limitiert hatte sondern der Übertragungsstandard. Wenn das Bild nicht erst codiert dann wieder dekodiert werden muss fallen keine grossen Zusätzlichen Datenmengen an. Bei WQHD und 120Hz+ gibt es ja auch beide Techniken. NV prescht im UHD Bereich aktuell einfach nach vorne aber im wahrsten Sinne des Wortes zu welchem Preis. Freesync wird auch in UHD 120+Hz Einzug halten.
 
  • Gefällt mir
Reaktionen: .fF
  • Gefällt mir
Reaktionen: .fF, Fuzzy3000 und Blumenwiese
Vorallem wieso soll das was mit knauserei zu tuhen haben.


Ich würde mich von NV eher verarscht vor kommen für was das es bei AMD für free gibt noch 150-500€ drauf zu zahlen:D
 
rob- schrieb:
Tja, für ein gutes Bild reicht es halt nicht beim Monitor zu sparen und bei der GPU rauszuhauen.
AMD bietet da Preis-/Leistung. Wer das beste will der zahlt halt drauf, ist und war schon immer und überall so.

Aber über 2000€ für einen Monitor ist ohnehin lächerlich, selbst für Enthusiasten. Das sind die early adopter Abzockpreise, nach 6 Monaten kostet das alles 50% weniger. Selbst ein OLED Monitor wäre definitiv billiger als dieser LCD Müll :D

Nunja, wenn der Monitor 10 Jahre hält ist der Preis nicht sonderlich hoch. Das ganze ist wie immer Ansichtssache. Eins muss man auch sagen, im Computer Forum wird immer über die paar Euros geschumpfen. Da gibt es Hobbys, da sind 2k ein Witz, Thema Modellbau oder Auto, Gleitschirm, Segelflug, Paintball....
Ergänzung ()

CastorTransport schrieb:
Ist ja super. 4K mit 144Hz. Wenn man dann noch aktuelle Titel mit Grafiksettings auf "High" spielen möchte... da gibt es noch keine Graka für!?

Meine (alte) GTX 1080 Ti hatte selbst in WQHD/High in BF1 keine konstansten 144Hz. Von Konstanz konnte man da gar nicht reden... Nun gut, Multiplayer - aber wann hockt man schon mal in einer Ecke wo kein Gegner ist, keine Effekte den Bildschirm füllen, damit ein paar Sekunden die fps auf 144 bleiben...

Jaja, Synch macht das Spiel smoother. Aber das oben besagte Tandem schwankt zw. 75 und 144Hz extrem. Wie soll da selbst ein GTX 1080 Ti Nachfolger auf 4K 75-144Hz in High einigermassen stabil liefern?

Gut. Early Adopter. Macht ihr mal ^^

Kennt jemand technische Details zu Adaptive Synch - was da vorgesehen ist?


Jemand der 2k für diese Technik auf den Tisch legt, hat auch keine 1080ti drin sondern deren 2 oder 3 ;)
 
D708 schrieb:
Darum geht es doch, Beitrag nicht gelesen. AMD wird keine Gaming Navis 2018 bringen. Nvidia wird Turing wohl noch dieses Jahr vorstellen, aber wohl nur einen GTX 1080 Nachfolger. Der wird so um die 30% mehr Leistung haben. Ohne Riesen Shrink ist da nicht mehr drin. Selbst wenn 100% mehr drin wären als der Direkte Vorgänger, wäre 4K 144Hz immernoch nicht erreicht.
...

Selbstverständlich habe ich den Beitrag gelesen, sonst würde ich nicht antworten. Denn "Markige Worte" ließen irgendwie darauf schließen, dass Du etwas anderes von Nvidia erwarten würdest. Doch wenn man die letzten 6 Jahre betrachtet, folgt das genau einem ganz bestimmten Schema. Dieses beginnt eben mit xx70/xx80, dem folgt die Ti. Die einzelnen Monate mehr oder weniger dürften geschenkt sein.

Mir ist durchaus bewusst, dass bei aktuellen Titeln keine 144hz möglich sein werden, ohne die Regler zu bedienen. Allerdings ist die provokante Formulierung "ohne alle Regler nach links schieben zu müssen" eben vollkommen deplatziert, da man erstens nicht ausschließlich neue Titel spielt und die G-Sync-Spanne genau dafür da ist, zwischen 30 UND 144hz einen sauberen Fluss hinzubekommen. Selbst in WQHD hab ich bei KDC mit der 1080Ti je nach Situation, Umgebung und Tageszeit Schwankungen von +- 40fps, weshalb ichs grob auf 80 ausgemetert hab und gut is.

2018 wird nichts mehr kommen in der Richtung. Weder von AMD noch Nvidia. Das Argument, BLABLA Navi erst 2019 BLABLA 4K 144Hz AMD sowieso nicht sinnvoll BLABLA , sind komplettes Fanboy gequatsche. 1zu1 auf NVidia übertragbar. Vor 2019 hat Nvidia auch nichts im Portfolio. Maximal eine Graka die sicher 4K 60Hz packt.

Ich bitte um Erläuterung. Nvidia bringt eine Karte, welche auf die Ti nochmals gefühlt 20-30% drauf packt, welche selbst bereits im CB Benchmark 29% gemittelt vor der Vega64 Strix liegt. Was also hat das mit Fanboy Gequatsche zu tun, wenn man schlicht erwähnt, dass vor wohl 2H 2019 nichts von AMD über die Vega64 hinaus geht, wenn nach Deinen Worten bereits die 1080Ti nicht für 4K reicht?! Was also machen die 4k Freesync Besitzer?

Zuguterletzt wird man sich wohl tatsächlich bei Nvidia nur noch auf sich selbst konzentrieren, denn "Störfeuer" dürfte in den kommenden 12 Monaten nicht gebraucht werden. Wie erwähnt ist man dann alleine unterwegs, Konkurrenz ungewiss, sowohl in Leistung wie Zeitpunkt. Der gute Mann hieß übrigens Turing ohne o, hatte es selbst zu Beginn falsch geschrieben ;)
 
Ist ja nicht das erste Mal, dass nVidia so einen Schwachsinn macht. Ich erinnere an den Aufkauf von Ageia Technologies, Inc. , das dümmste was nVidia machen konnte.

Das Unternehmen Ageia hatte sich damals vorgenommen mit Sch... Geld zu verdienen und hat PhysX Karten angeboten. Ein Feature was damals jedes Software besser konnte. Ich erinnere nur mal an Crysis und deren Software Lösung für Physik-Elemente, damit hatte dann PhysX seinen Wert über Nacht verloren. Und nVidia hatte ein Produkt an der Backe, welches sie stark subventionieren musste, weil es keiner wollte.

Bei G-Sync gibt es den Konkurrenten FreeSync, der 4x mehr Monitore anbietet, die keinen Cent extra kosten zu den "normalen Monitoren", außerdem gibt es schon länger FreeSync 2 und TVs mit FreeSync (2) - die dann auch mit Konsolen laufen.

G-Sync Monitore kosten im Schnitt 150,- € mehr also die Konkurrenz und haben einen starren Standard, wobei bei FreeSync der Hersteller die Werte variieren kann.

Wer bei Grafikkarten zu nVidia greift, hat entweder sehr viel Geld oder ist "hart im nehmen". Logisch ist ein nVidia kauf schon lange nicht mehr, das ist mittlerweile nur noch eine Religion.
 
Zuletzt bearbeitet:
KingLz schrieb:
Zu bedenken gibt es, dass 4k im Vergleich zu 1080p mindestens den 4-fachen Datendurchsatz/Rechenleistung braucht. 144hz und HDR schlagen sicher auf diesen Faktor nochmal was drauf.
Wozu Rechenleistung?
Bei Adaptive Sync muß kein verschlüsseltes Signal entschlüsselt werden!

projectneo schrieb:
Wenn das entsprechende Teil für Freesync 2 400€ kostet
So Teuer ist ein Scaler sicher nicht.
 
Whiskey Lake schrieb:
Wozu Rechenleistung?
Bei Adaptive Sync muß kein verschlüsseltes Signal entschlüsselt werden!

Wo ist denn der Filter für die 384 Led Zonen implementiert? Ich bin davon aus gegangen, dass das G-Sync Modul das berechnet. Habe ich da was übersehen?
 
Zurück
Oben