News Erste Eindrücke zu Nvidias „G-Sync“-Technologie

uNki schrieb:
...
eben gerade so, dass die flüssige darstellung oberhalb von 30fps stets gegeben ist? ...
Dafür reicht auch Triple Buffering, das seit über 15 Jahren existiert. Es wird nur im Direct3D-Umfeld selten benutzt. Triple Buffering vergrößert die Latenz um maximal ein Frame und den Speicherbedarf des Framebuffers um maximal 50%. Ein Frame hat "Anzahl der Pixel der Ausgabeauflösung" mal 24 Bit mal Anzahl der Pufferspeicher, also bei Double mal zwei und bei Triple mal drei. Ein FullHD-Frame hat knapp unter 48 MiB. Das heißt, bei Double Buffering braucht man 96 MiB für den Framebuffer und bei Triple Buffering 144 MiB - unabhängig von AA, AF oder sonstwelchem Zeugs, das mit dem Framebuffer nichts zu tun hat.

Da Mittelklassekarten seit Jahren nicht weniger als 1 GiB VRAM haben, bleibt also imho als Vorteil von Gsync ggü. Vsync mit Trible Buffering lediglich eine maximal um ein Frame kürzere Latenzzeit.
 
PR3D4TOR schrieb:
@ lordZ:

Ich versteh den Zusammenhang schon: Alles eine Frage der Ansprüche/Qualität. Auf einem TN-Panel sieht man auch das gleiche wie auf einem IPS-Panel, aber halt nicht in der gleichen Qualität. In einem Tata kommt man auch dort hin wo man will, aber halt nicht so angenehm/schnell wie in einem 5er z. B.
Ein Tata ist einem 5er aber in jedem Punkt unterlegen. (vermutlich, ich kenne keinen Tata)

Man kann aber keinesfalls allgemein behaupten, dass jedes TN-Panel jedem anderen Panel in jeder Hinsicht unterlegen ist. Daher ärgert es mich, dass TN-Panels von manchen Usern immer als "schrottig" abgestempelt werden. Wie du selber schreibst, es ist eine Frage der Ansprüche, welche eben sehr individuell sind.

Und um in diesem Zusammenhang zurück zum Topic zu kommen: Denkt ihr, NV hat das per Würfel entschieden und sich für die Umsetzung ausgerechnet die so schrottigen TN Panels ausgesucht?
 
scully1234 schrieb:

Wenn man keine Ahnung hat... Bzw. einfach nur nachplappern möchte.

Die Kühler von Nvidia und AMD in diesem Moment werden wohl gleichgut, AMDs vielleicht ein bisschen besser sein. Das müsste man einfach mal genauer untersuchen.

Aber 1. ist die Leistung der Abwärme schon vom kleineren Chip etwas schwächer, da einfach weniger Fläche.
Bzgl. Luftstrom hätte AMD auf DVI verzichten müssen und am besten 3 DP Ports (ob Mini Stecker oder breiter Stecker ist egal. Mit Mini Stecker wären 6 Anschlüsse möglich) unten anbringen sollen.
Und Nvidia kühlt die Speicherchips nicht mit.

Alles Faktoren die den Kühler von AMD schlecht aussehen lassen.
Und wenn man unter der schönen Abdeckung von Nvidia GPU Gehäuse mal reinschaut, sieht der Kühler von denen nicht viel spektakulärer aus. Man ist einfach auf Kompromisse eingegangen, um die Kühlleistung zu verbessern.
 
Zuletzt bearbeitet:
bei einem 60 hz monitor gehe ich da mit dass g sync ne nette sache ist jedoch wenn man in der glücklichen lage ist einen 120 hz oder 144 hz monitor zu besitzen hat sich das alles aus meiner sicht fast relativiert denn mich störte an meinem alten 60 hz gerät das tearing enorm das problem tritt nun so gut wie nie auf denke das da auch g sync nicht mehr so viel ändern würde. mein tipp 120 Hz ;) und man spart sich das gemurkse :)
 
g-sync passt wunderbar zu den anderen verkaufargumenten von gamer-monitoren, darum wird es sich auch durchsetzen.

die zielgruppe soll froh sein, das es nach all den jahren mal wieder etwas anderes als nur immer schnellere grafikkarten gibt, wofür sie ihr geld ausgeben können.

angenommen ich habe schon eine der passenden grafikkarten(was ja nicht unwahrscheinlich ist, da diese auch unabhängig von g-sync genug argumente zum kauf anbieten) und zufällig auch schon den asus monitor, der unter gamern ja auch schon ohne g-sync sehr beliebt ist, dann krieg ich schon in wenigen wochen, für ~100€ eine revolution der "smoothness".

sowohl im high-fps bereich der kompetetiven shooter wo man endlich das tearing los wird ohne input-lag, als auch im mid-fps bereich der grafikbomber SP-games, die dann bei fps schwankungen ruhiger bleiben, und man in solchen situationen nicht genötigt wird, schon wieder über die nächst stärkere grafikkarte nachzudenken.:p
 
uNki schrieb:
also verstehe ich die vorteile der neuen g-sync technologie so:

man benötigt nur noch entsprechende hardware, die mind. 30fps auf den schirm zaubert - dann gibt es keine unterschiede mehr zu 60, 90 120 oder 144 fps.

schießt man sich als grafikkartenhersteller damit aber nicht selbst ins bein? warum sollte ich eine 800€ grafikkarte kaufen, wenn die 500€ billigere variante das gleiche resultat erzielt, nämlich flüssige, tearingfreie wiedergabe auf dem schirm?

Nur weil die HZ = der FPS sind, ist das andere Problem, die Frametimes immer noch nicht gelöst. Hohe FPS werden also immer noch ein flüssigeres Bild liefern, die Grenze sinkt zwar etwas nach unten, weil ein Faktor wegfällt, wenn die Frames aber schon unregelmäsig zum Monitor kommen, kann da G-Sync auch nicht mehr viel retten.
 
Regenwürmer schrieb:
Wenn man keine Ahnung hat... Bzw. einfach nur nachplappern möchte.

Die Kühler von Nvidia und AMD in diesem Moment werden wohl gleichgut, AMDs vielleicht ein bisschen besser sein. Das müsste man einfach mal genauer untersuchen.

Der Kühler von AMD ist der letzte Witz selbst Fermi 1.0 mit seiner enormen Abwärme steht da akustisch besser da wie der Schrott mit 72,9 db in der Spitze


http://www.tomshardware.com/reviews/radeon-r9-290x-hawaii-review,3650-30.html

We decided to forgo the video demonstrating what a 95% duty cycle sounds like. It’s pointless and potentially bad for your long-term hearing. The noise is simply unbearable without commercial-grade ear protection

Und großspurig hat man verkündet "der nächste wird besser"



Ja "besser" ist er geworden bei der Steigerung des Schalldrucks, also kümmere dich lieber um die Heuchler in den eigenen Reihen da gibt's genug Arbeit
 
Zuletzt bearbeitet:
mein tipp 120 Hz und man spart sich das gemurkse
Und die teurere GraKa, die ja dann auch immer am Limit läuft // heiß wird und viel Strom verbraucht. Ich habe die gleiche GraKa, habe fühlbar das gleiche Ergebnis, ist aber schön leise bei mir und der Stromverbrauch ist auch um über 50W geringer - absolut kein Vorteil :D
Mal abgesehen davon das mir die Hardware länger hält für das "fühlbar" gleiche Ergebnis :freaky:
 
lordZ schrieb:
Ein Tata ist einem 5er aber in jedem Punkt unterlegen. (vermutlich, ich kenne keinen Tata)

Man kann aber keinesfalls allgemein behaupten, dass jedes TN-Panel jedem anderen Panel in jeder Hinsicht unterlegen ist. Daher ärgert es mich, dass TN-Panels von manchen Usern immer als "schrottig" abgestempelt werden. Wie du selber schreibst, es ist eine Frage der Ansprüche, welche eben sehr individuell sind.

Und um in diesem Zusammenhang zurück zum Topic zu kommen: Denkt ihr, NV hat das per Würfel entschieden und sich für die Umsetzung ausgerechnet die so schrottigen TN Panels ausgesucht?

Ich musste auch nach Tata googeln :D
 
lordZ schrieb:
Und um in diesem Zusammenhang zurück zum Topic zu kommen: Denkt ihr, NV hat das per Würfel entschieden und sich für die Umsetzung ausgerechnet die so schrottigen TN Panels ausgesucht?

Nein nVidia hat nicht gewürfelt. Bei nVidia weiß man lediglich der der 13 Jährige-Ultra-Skill0r-Pro-RoxXxoR-G4m3R nicht die 19k EUR für nen EIZO mit 4096x2160 hat, vermutlich hätte man sich bei EIZO auch einen Fackelzug gelacht, wenn nVidia, mit der Anfrage nach nem Aufrüstport für G-Sync angekommt wäre.

Daher richtet man sich direkt an die Klientel, die sich innerhalb des Taschengeldparagraphen bewegt und sich darüber streitet, welcher Sub-200EUR Montior, die beste Smoothness bietet.

So long..
 
schießt man sich als grafikkartenhersteller damit aber nicht selbst ins bein? warum sollte ich eine 800€ grafikkarte kaufen, wenn die 500€ billigere variante das gleiche resultat erzielt, nämlich flüssige, tearingfreie wiedergabe auf dem schirm?
So darf man als Geschäftsmann nie denken, als erstes gilt es die Konkurrenz zu schlagen, so lange bis man ein Monopol hat, dann kann man deine Denke anwenden und sich überlegen ob ein Modell das eigene kanibalisiert. Auf jeden Fall stimme ich mir dir überein, die GPU werden definitiv aufgewertet und zwar enorm, aber eben auch das schnellste Modell, denn das hält hald dann einfach ein paar Jahre länger durch als die günstigen.


Wenn du dazu eigentlich nicht mehr sagen kannst, versteht aber auch niemand den Zusammenhang und deine Aussage ist somit völlig wertlos.
Das es niemand versteht halte ich für ein Gerücht, diejenigen die dazu wirklich nicht in der Lage sind, haben eben Pech gehabt. Da muss jetzt nicht wieder groß die übliche Diskussion los getreten werden.

Ein Tata ist einem 5er aber in jedem Punkt unterlegen. (vermutlich, ich kenne keinen Tata)
Er ist viel billiger und man kann ihn besser warten. :D
 
MountWalker schrieb:
Dafür reicht auch Triple Buffering, das seit über 15 Jahren existiert. Es wird nur im Direct3D-Umfeld selten benutzt. Triple Buffering vergrößert die Latenz um maximal ein Frame und den Speicherbedarf des Framebuffers um maximal 50%. Ein Frame hat "Anzahl der Pixel der Ausgabeauflösung" mal 24 Bit mal Anzahl der Pufferspeicher, also bei Double mal zwei und bei Triple mal drei. Ein FullHD-Frame hat knapp unter 48 MiB. Das heißt, bei Double Buffering braucht man 96 MiB für den Framebuffer und bei Triple Buffering 144 MiB - unabhängig von AA, AF oder sonstwelchem Zeugs, das mit dem Framebuffer nichts zu tun hat.

Da Mittelklassekarten seit Jahren nicht weniger als 1 GiB VRAM haben, bleibt also imho als Vorteil von Gsync ggü. Vsync mit Trible Buffering lediglich eine maximal um ein Frame kürzere Latenzzeit.

Ein Frame extra Latenz ist extrem, bei 60 Hz Monitor und 60 fps sind es >16ms extra Lag. Für einen Shooter inakzeptabel. Dazu ruckelt es bei 35 Fps und Triplebuffering immer noch. Bei GSync hast du weder Lag noch Ruckeln.
 
Ganzir schrieb:
[...] ...
Daher richtet man sich direkt an die Klientel, die sich innerhalb des Taschengeldparagraphen bewegt und sich darüber streitet, welcher Sub-200EUR Montior, die beste Smoothness bietet.

So long..


Made my day :)
 
Ganzir schrieb:
Nein nVidia hat nicht gewürfelt. Bei nVidia weiß man lediglich der der 13 Jährige-Ultra-Skill0r-Pro-RoxXxoR-G4m3R nicht die 19k EUR für nen EIZO mit 4096x2160 hat, vermutlich hätte man sich bei EIZO auch einen Fackelzug gelacht, wenn nVidia, mit der Anfrage nach nem Aufrüstport für G-Sync angekommt wäre.

Daher richtet man sich direkt an die Klientel, die sich innerhalb des Taschengeldparagraphen bewegt und sich darüber streitet, welcher Sub-200EUR Montior, die beste Smoothness bietet.

So long..

Sind wir einer Meinung, dass die G-Sync-Technologie für's Gaming entwickelt wird? Ja, da bin ich mir sicher.

Und sind wir einer Meinung, dass die von dir genannten Monitore nicht für's Gaming entwickelt wurden? Ja, da bin ich mir ebenfalls sicher.

Folgerichtig sind wir auch beide der Meinung, dass deine Argumentation völlig unpassend ist.

Natürlich richtig nV ihre Techniken entsprechend der Zielgruppe aus, alles andere wäre ja recht unwirtschaftlich.

Aber du suggerierst mit deinem Post, dass vor allem die anspruchsvollen Gamer ausschließlich Teenies sind und jeder, der geistig erwachsen geworden ist kommt sowieso um einen mehrere Tausend Euro teuren Monitor nicht herum. Das ist eben von Satzanfang bis Satzende Blödsinn.

Kasmopaya schrieb:
Das es niemand versteht halte ich für ein Gerücht, diejenigen die dazu wirklich nicht in der Lage sind, haben eben Pech gehabt. Da muss jetzt nicht wieder groß die übliche Diskussion los getreten werden.
Man kann deine Aussage nur so verstehen, dass weil jeder 5er scheinbar besser ist als jeder Tata, in weiterer Folge auch jedes TN-Panel jedem anderen Panel in jeder Hinsicht unterlegen ist.

Wenn ich es jetzt also doch in der Lage war, deine Aussage korrekt zu interpretieren, musst aber auch du in der Lage sein, um einzusehen, dass sie Blödsinn ist. Ich beziehe mich natürlich auf die Panels, nicht auf die Tatas. Letztere kenne ich nicht.
 
Das sind ja erstaunlich viele Nörgler Kommentare?! NVIDIA G-Sync klingt extrem (!) vielversprechend, löst es doch ein uraltes Darstellungsproblem. Das nervige V-Sync wäre dann Geschichte. Also wenn ich einen neuen Monitor kaufe, werde ich zu G-Sync greifen (entsprechende Monitorauswahl vorausgesetzt).
 
Schön, wollte sowieso nächstes jahr auf Kepler umsteigen und mir einen 2ten Bildschirm kaufen ;)
 
@ lordZ:

Ich hab das eher im Sinne von "Beide fahren dich mit einem gewissen Komfort ans Ziel, aber der eine halt nicht so gut/schnell wie der andere". Schrott ist TN ganz sicher nicht ... Hatte selbst lange TN & konnte mich nicht groß beschweren.
 
PR3D4TOR schrieb:
Schrott ist TN ganz sicher nicht
Na eben! Das war allerdings die ursprüngliche Aussage, die ich gezwungener Maßen hier scharf kritisieren musste.
 
Zurück
Oben