News UHD-Monitore mit 144 Hz: Neues G-Sync-Modul treibt Preise in die Höhe

D708 schrieb:
Nun hat Nvidia eine 4K 60Hz Graka auf dem Markt.
Eine Karte, die in Low und vielleicht manchmal Medium 60FPS packt .. Gratulation nVidia.
 
Also eine 1080TI reicht super für 4K mit 60FPS auf hohen settings.
Ka wo die Leute das mit Low Settings sich immer aus de Finger ziehen.

Schaut man sich benches an gibts in viele spielen auf Ultra inkl. voll AA schon seine 50FPS.
Und da man AA ja weg lassen kann hat man dann auch seine 60FPS ja auch bei ein Witcher 3.

NV ist halt viel besser aufgestellt was 4K Gaming angeht das kann man nun nicht verstecken.
 
Blood011 schrieb:
Ka wo die Leute das mit Low Settings sich immer aus de Finger ziehen.
Liegt wahrscheinlich daran, dass ich eine 1080Ti besitze und deine Aussage Lügen strafen kann.
Die 1080Ti ist für mich keine 4k Graka ... aber das darf jeder gerne ausprobieren oder anders sehen.
 
  • Gefällt mir
Reaktionen: The Fool
Dann lügen wohl die benches ..

Gibt auch genug tests bei YT wo alles auf Ultra ist inkl. AA (Witcher 3 und GTA5 z.b)und da hat man schon rund 50FPS.

Wer dann AA austellt sollte auf seine 60FPS kommen aber für manche reicht eine TI wohl auch nicht für 1080p da frag ich mich was die denne machen.
 
Die Regler, die User, ihre Software und die Lügen.
Ich frag mich echt wie man bei etwa 1000 Unbekannten irgendwo einen gemeinsammen Nenner finden soll.
Bei den einen geht es halt, und bei den anderen nicht. Bei den einen ist das Glas halb voll und bei den anderen halb Leer.

Es gibt so viel grau zwischen schwarz und weiß.

Hohe Settings
gta5_2017_06_22_17_54p2up5.jpg


auch hohe Settings
gta5_2017_06_22_17_46tguz5.jpg


Der Unterschied zwischen den beiden Bildern ist ausschließlich die Anti-Aliasing-Methode.
 
Krautmaster schrieb:
ich frag mich schon etwas was dieses Modul da genau leistet bzw was dann Freesync Monitore "weniger" haben. [...]

Das frage ich mich auch: Wozu braucht man derartige (Echtzeit-) Rechenpower?! Mined nvidia etwa Bitcoins auf den Dingern? Oder verbraten die die Leistung einfach für paranoide DRM-Verschlüsselung?

Nicht, dass rauskommt, dass die das doch bloß machen, um ihr Ökosystem zu protegieren - wie Sony in sachen Cross-Platform-Gaming.

Ich wäre nicht überrascht, wenn Gsync einfach nur VESA Adaptive Sync/ Freesync mit DRM ist.
 
cruse schrieb:
Die verbauen kein 1500$ fpga nur für drm

Klar, das glaube ich auch nicht. Klingt eher nach prototyping. Da benutzt man oft overpowered Hardware, die man frei programmieren kann, bis der endgültige Algorithmus steht. Dann gießt man das ganze in billige ASICs.

Zu dem Punkt scheint es nie gekommen zu sein und die Frage ist warum. Mir scheinen da zwei Szenarien wahrscheinlich:
a) Es ist immer noch ein nicht finaler Prototyp und nvidia hält sich den Weg für nachträgliche tiefgreifende Änderungen frei.
b) Nvidia erwartet, dass sich die Technik vorerst eh nur in kleinen Stückzahlen an Enthusiasten verkauft und macht sich daher nicht die Mühe, eigens ein ASIC zu entwickeln.

Ist natürlich alles nur Spekulation. Bin offen für weitere Perspektiven in der Kristallkugel...
 
  • Gefällt mir
Reaktionen: JackTheRippchen
Nebenbei: wenn da etwas "DRM" ist, dann höchstens irgendeine Authentifizierung zwischen GPU und Monitor bei der Befehlsübertragung, und dafür würde ein 8-Bit-Controller ausreichen. Den gesamten Bilddatenstrom zu verschlüsseln ergibt in diesem Zusammenhang absolut keinen Sinn.
 
NDschambar schrieb:
Klar, das glaube ich auch nicht. Klingt eher nach prototyping. Da benutzt man oft overpowered Hardware, die man frei programmieren kann, bis der endgültige Algorithmus steht. Dann gießt man das ganze in billige ASICs.
es ist kein prototyping ^^
das teil kostet nvda 500$, normaler handelspreis 1500-2000$
das vorgängermodul war von der selben firma, ebenso von der stange - also nix mit eigenes entwickelt.
es ersetzt halt die komplette steuerungselektronik des monitors in dem es verbaut wird.

das alles verschlüsselt wird hab ich auch, außer als gerücht in foren, noch nirgendwo gelesen.
 
Ein FPGA ist kein Massenprodukt. Es gibt so gut wie keine Argumente, so ein Teil in ein Massenprodukt zu bauen. Da, wo große Stückzahlen erwartet werden, versucht man seine Marge durch Kostensenkung zu erhöhen. ASICS erledigen spezifische Aufgaben zu sehr viel geringeren Herstellungskosten, obwohl die erstmalige Entwicklung natürlich nicht billig ist. Insofern hätte ich gerade für Gsync2 erwartet, dass nvidia die Erfahrungen in ein festes ASIC gießt. Zumal so ein ASIC auch deutlich weniger Abwärme entwickelt und ziemlich sicher passiv kühlbar ist. Scheinbar glauben die selber nicht so richtig an einen Erfolg.

Lest mal https://numato.com/blog/differences-between-fpga-and-asics/

Ein Beispiel aus der Praxis: Die ersten MP3-Player Prototypen wurden mithilfe 1000+ US$ teurer FPGAs entwickelt. Nachdem das Featureset komplett und die Software getestet war, hat man von den programmierten Schaltungen fixe Chipdesigns abgeleitet, die dann nur noch wenige cents bis dollars gekostet haben. So wird es auch in der Automobilindustrie gemacht. Ausnahmen gibt es bei neuen Technologien, wo man schnell viele Daten verarbeiten muss und sich die Algorithmen dauernd ändern -> siehe autonomes Fahren und machine vision & learning.
 
  • Gefällt mir
Reaktionen: JackTheRippchen
Ein Monitor für >2000€ ist kein Massenprodukt, das Ding ist für ein paar Enthusiasten mit genügend Kleingeld in der Tasche.
 
JMP $FCE2 schrieb:
Ein Monitor für >2000€ ist kein Massenprodukt, das Ding ist für ein paar Enthusiasten mit genügend Kleingeld in der Tasche.
Klar, aber Gsync2 soll sich doch nach Wunsch von nvidia sicher kein Nischenprodukt bleiben. Vielleicht schätzen sie die Situation aber ausnahmsweise mal realistisch ein und BFGD/Gsync 2 wird bald wieder begraben. Wäre im Sinne von offenen Standards sehr begrüßenswert. Hoffentlich unterstützen die Karten dann auch eines Tages Freesync. Wäre per Software/Treiberpatch sicher machbar.
 
  • Gefällt mir
Reaktionen: JackTheRippchen
Zurück
Oben