News Erste Eindrücke zu Nvidias „G-Sync“-Technologie

G-Sync könnte echt was werden. Hab mir das Video angeschaut, es erschlägt einen fast mit Informationen. Aber gut gemacht und auch erklärt.
Leider ist der Hardware/Kostenfaktor ziemlich hoch, speziell für nicht NVler. Im Video wird auch deutlich,warum es erstmal Nvidia only bleibt.
Aber hey,neue Techniken fangen meist klein an, nur selten beim Preis. Good Luck. Was haltet ihr von einer anderen Technik (Dynamik Resolution)
die auf Konsolen wohl schon Anwendung gefunden hat.
 
Ball_Lightning schrieb:
Da die Monitore, die ich besitze oder mal besitzen werde, sicher nicht mit so einer Platine ausgestattet werden, da kein TN Schrott, ist diese Feature für mich ziemlich uninteressant. Bin aber mal gespannt auf erst echte Tests.

Es wird Monitore mit IPS und TN Panel geben die G-Sync kompatibel sind. Bis zu 177hz sind über DP Port möglich, auch @ 2560x1440p

Sharky99 schrieb:
Überhaupt 90% der Kommentare dieses Threads zeugen davon dass kaum einer die Technik verstanden hat.

Der Redakteur hat aber auch alles dafür getan das möglichst viele Fragen offen bleiben. So ein komplexes Thema kann man nun mal nicht in 35 Zeilen abhandeln.

-------------------

-> Pflichtkauf
 
Zuletzt bearbeitet:
Was? Nur auf TN-Panel beschränkt? Dann brauchen die erst gar nicht mit dem Mist zu starten.
Die wollen mir das Bild minimal verbessern durch G-Sync, auf der anderen Seite soll ich mit einem TN-Panel Vorlieb nehmen, der in meinen Augen eine deutliche Verschlechterung gegenüber einem IPS-Panel ist? :rolleyes:
Wenn es sowas für IPS gibt, dann darf Nvidia es erneut vorstellen, dann könnte man es sich überlegen.
Jetzt erstmal Fail.
 
Da die Monitore, die ich besitze oder mal besitzen werde, sicher nicht mit so einer Platine ausgestattet werden, da kein TN Schrott, ist diese Feature für mich ziemlich uninteressant.
Ich finde dazu nix im Artikel, jetzt müsst ihr mir echt mal erklären wo ihr das her habt?

Warum müsst ihr eigentlich immer TN-Schrott schreiben? TN hat zwar viele, aber nicht ausschließlich Nachteile. TN kann je nach Vorliebe durchaus die beste Displaywahl sein. AMD FX Prozessoren sind ja angeblich auch Schrott.
Mit einem Tata kommt man auch von A nach B, das wars dann aber schon. Mehr gibts dazu eigentlich nicht zu sagen.

Das man dann NV only fahren muss ist wirklich nicht optimal, sollte NV mal wieder einen Druchhänger haben, wie bei Thermi und man dann nicht ausweichen kann, aber das sehe ich für mich nicht als Hauptproblem. Ich fürchte eher das es zu wenige Monitore geben wird die das unterstützten, da will ich nämlich nicht irgend einen IPS haben, sondern auch einen ganz speziellen und ich bin mir fast schon sicher das es daran bei mir scheitern wird. Obwohl schon mal Asus dabei ist, aber wohl kaum alle Modelle umgestellt werden.

Aber im Prinzip ist die Technik gerade zu für mich gebaut worden, da ich meine GPU immer bis zum letzten ausreize über die Jahre und so lange wie nur irgend möglich im Rechner habe und G-Sync stärkt die GPU gerade am Ende ihrer Lebenszeit in ihrer Leistung, da die FPS einfach flüssiger werden/anfühlen. Da das Geld das man investiert für den Monitor könnte man dann am Ende zum Teil wieder einsparen weil man die GPU länger fahren kann, das ganze funktioniert natürlich nur mit einem ausreichenden Vram Polster. 4GB wie bei der 290X wären da zb. zu wenig...

Ansonsten:
Dito und zwar bei Maxwell der dann auch DX 11.2 kann, hoffentlich 6GB Vram hat und eventuell wenn NV Lust hat auf Mantle aufspringen kann.
 
Zuletzt bearbeitet:
Nilson schrieb:
Ist das im Grunde nicht das selbe was mit Lucid Virtu MVP (Virtual Vsync™) versucht wurde? Die GPU rechnet so schnell sie kann, sendet das ganze an die iGPU und die rechnet das ganze auf 60 FPS hoch/runter und sendet dann das so geglättet Bild an den Monitor?


Nein, G-Sync sorgt im Prinzip nur dafür, dass der Frame den die GPU berechnet hat auch sofort komplett angezeigt wird. Im Prinzip wird aus der statischen Bildschirmaktualisierungsrate des Monitors eine dynamische die sich an die FPS im Spiel anpasst. Hast du 44FPS läuft der Monitor mit 44Hz, hast du 78FPS läuft der Monitor mit 78Hz. Somit gibt es immer nur ganze Frames zu sehen und nicht wie normal wo ein Bild aus mehreren Frames bestehen kann.


Interessante Frage wäre ob die Technik im Monitor stärker belastet wird und die Lebensdauer eventuell darunter leidet. Ein Monitor wurde gebaut um eine konstante Bildschirmaktualisierungsrate zu liefern und nun wird er gezwungen die Rate ständig und mehrmals pro Sekunde anzupassen.
 
Matzegr schrieb:
Interessante Frage wäre ob die Technik im Monitor stärker belastet wird und die Lebensdauer eventuell darunter leidet. Ein Monitor wurde gebaut um eine konstante Bildschirmaktualisierungsrate zu liefern und nun wird er gezwungen die Rate ständig und mehrmals pro Sekunde anzupassen.

Die Elektronik wird weniger stark belastet weil weniger Bildberechnungen statt finden und das Display kann sich beim refreshen mehr Zeit lassen weil nur weniger Fps als die max Hz Zahl geht, nicht mehr. Die Geräte sollten somit nicht nur weniger verbrauchen, sondern auch länger halten.
 
Grundsätzlich finde ich es sehr begrüßenswert, dass dieses Problem endlich mal angegangen wird. Gerade bei Open-World-Rollenspielen finde ich 30..50 fps bereits ausreichend für das Spielgefühl - aber Tearing geht mal gar nicht. Dann lieber 30 fps.

Solange die Lösung des Problems jedoch nicht in einem Industriestandard mündet, der auch von NEC oder EIZO aufgegriffen wird, werde ich dafür kein Geld locker machen.

4k @ 24" mit variabler Bildwiederholrate... hach, man wird ja mal träumen dürfen. :love:
 
Sharky99 schrieb:
Das ist Unsinn. G-Sync arbeitet von 30 bis 177 Hz. 100 Fps auf einem 144 Hz Monitor sind deutlich flüssiger mit G-Sync als ohne.

Ich bin da ganz bei dir, nur "sehen wollen" wird es im über 60fps wieder kein Mensch der schon 120Hz hat.
Die Technik braucht langfristige Überzeugungsarbeit. Ich mein schau dir an, wieviele Leute glauben mehr als 24 Bilder sei schon immer flüssig, nur weil das in der Steinzeit der Filmindustrie als Minimum etabliert wurde, weil jeder Meter Filmrolle noch ein Vermögen gekostet hat.


Sharky99 schrieb:
AMD wird es sicher irgendwann von NVidia lizensieren und dann haben es alle. Auf der GPU Seite muss man nicht viel ändern.

Ich fürchte das wird AMD nicht machen, die werden den Leuten solang einreden man könne auch mit Softwareoptimierung das gleiche erreichen.
AMDs PR fährt eine so Kleinkind Schiene mit ihrem The Misunderstanding, Fixer 1 & 2 Filmchen gegen Nvidia, da braucht man sich keine Hoffnung machen, dass AMD hier einlenkt.

Sharky99 schrieb:
G-Sync mit einer Action-Cam bei 120Fps aufgenommen und bei 30Fps abgespielt. Die Farbunterschiede kommen von der Kamera. Während der Präsentation gab es keine (ist ja der gleiche Monitor).
http://www.youtube.com/watch?v=NffTOnZFdVs
p.s.

Hier wird eine Stunde lang alles erklärt:
http://www.youtube.com/watch?v=KhLYYYvFp9A

Top Videos. :daumen:
 
Ich frage mich warum das ältere Grafikkarten nicht auch können sollten.
Es ist doch eigentlich nur Monitor/Panelseitig, dass nach gefülltem Framebuffer schnellstmöglich ein scan vom Monitor initiiert wird.

Hoffentlich kann AMD an der gleichen Stelle ansetzen, nicht das wir G-Sync Monitore nur kompatibel zu nV Grafikkarten haben.
 
Ich würde alte Spiele wieder zugreifen, wenn es nie an niedrige Bild(er) pro Sekunde leidet. Hier geht es um neue schwere bzw. fette Spiele.

Einige Postings haben recht: Mehr FPS als x Hz (FPS > Hz) -> braucht keine zusätzliche Hardware. -_-

Fazit, erst bessere Grafikkarte abwarten oder sehr niedrige Videoeinstellungen (vorraussichtlich IMMER bzw KONSTANT mehr FPS als x Hz).

Ich streichele iiyama HM903DT! :D
 
Zuletzt bearbeitet:
Matzegr schrieb:

Danke für die Aufklärung, ist doch interesannter als ich zunächst angenommen habe. Muss nur noch auf IPS laufen (falls das alles stimmt was da gepostet wurde) und man kann sich das echt überlegen.
 
Die Technik ist relativ vielversprechend, ich hätte es aber viel besser gefunden, wenn NV eine Box entwickelt hätte die man einfach zwischen Monitor und Grafikkarte klemmt, so dass man jeden Monitor nutzen könnte. So bleibt die Technik erstmal nur für eine Hand voll Bildschirmen vorenthalten - schade und ehrlich gesagt glaube ich so eher an ein (zusätzliches) "Gimmick" als dass es eine "ernste" Kaufentscheidung für NV ist.
 
Prima Technologie! Ich war schon immer empfindlich fuer diese kleine Ruckler.

Jetzt fehlt nur noch Supersampling Unterstuetzung im Treiber dann kann man alle Spiele mit aufwaendiger Kantenglaettung in Ruhe mit relativ niedrieger Framerate geniessen ;)
 
Bleibt auch immer noch die Frage was man spielt.
Spiele wie Quake 3 wo Geschwindigkeit und Reaktion gefragt sind gibt's in diesem Tempo heute praktisch gar nicht mehr.
Für die ganzen Casual Konsolen Shooter heutzutage ist das einfach ein unnützes Feature.
Ich nutze die Technik eigentlich nur noch um die Bildquali hochzuschrauben, weil mehr FPS bringen mir bei meinen Spielen einfach nichts mehr.
 
MikelMolto schrieb:
So richtig begeistert bin ich nicht.
Nehmen wir einmal an, ich habe eine NV GPU und wollte mir eh einen neuen Monitor kaufen, dann nehme ich einen mit G-Sync. So weit so gut.
Will ich aber irgendwann nächstes Jahr auf eine AMD GPU wechseln, weil die billiger oder besser ist, dann funktioniert mein G-Sync nicht mehr.
Der selbe Mist ist mit Mantle. G-Sync und Mantle zusammen wird es wohl nicht geben.

So ist das halt in der heutigen Zeit. Jeder kocht sein eigenes Süppchen zum Nachteil von und Allen.

Das heißt also jedes nützliche Feature was eine Firma ersinnt, soll dem Mitbewerber kostenlos zur Verfügung stehen?

Wozu?

Und macht das Sinn?


Das Zauberwort heißt sicherlich Kundenbindung u wenn man mehr u mehr Feature besitzt wie Cuda, PhysX , 3D Vision/Suround, und nun G Sync wird es sich der Kunde überlegen was er benötigt u danach seine Kaufentscheidung festlegen

Das Gsync einen riesigen Vorteil bringen wird bei der Darstellung des auszugebenden Bildes steht quasi außer Frage

Sowohl in Form von Einzelkarten als ebenso bei SLI Systemen man löst sich vollends von der starren/unflexiblen HZ Vsync Geschichte u das ohne Lag zu produzieren

AMD kann das alles Lizensieren wenn sie gewillt sind oder selber mal Hirnschmalz investieren um sowas zu ersinnen

Wenn ich mir allerdings Trash FX ansehe u was bisher daraus entstanden ist, oder Mäntelchen u der klare Standpunkt Microsofts dazu sehe ich da für ne halbgare "Gsync" Umsetzung(wie auch immer sie das realisieren wollen ohne Lizenz)eher schwarz
 
Zuletzt bearbeitet:
scully1234 schrieb:
Das Zauberwort heißt sicherlich Kundenbindung u wenn man mehr u mehr Feature besitzt wie Cuda, PhysX , 3D Vision/Suround, und nun G Sync wird es sich der Kunde überlegen was er benötigt u danach seine Kaufentscheidung festlegen
Der Kunde wird sich überlegen, was er benötigt? Ist das dein ernst? Dann würde der Absatz doch rapide sinken.

Ich würde sagen, die Grafikkarten kriegen es nicht gebacken, jetzt muss schon der Monitor mithelfen!
Und sowas wird uns als "neue Technologie" verkauft. Bin begeistert. :rolleyes:
Nö, da zock ich lieber mir dem veralteten V-Sync weiter.
 
Zurück
Oben