News Erste Eindrücke zu Nvidias „G-Sync“-Technologie

Ganzir, welche Meinung vertrittst du hier überhaupt? Ich kann deinen Posts keinerlei Informationen entnehmen, du stänkerst hier nur herum. Wenn dich ohnehin jeder aktuelle IPS Monitor in Verbindung mit der gegenwärtigen Grafikkartentechnik befriedigt und daher das Thema G-Sync keine Relevanz für dich hat, dann lass entweder diesen Thread in Ruhe oder schreibe ordentlich formulierte Sätze und belege diese nachvollziehbar falls erforderlich.
 
Arno Nimus schrieb:
Der Inputlag ist doch massgeblich vom Anzeigegerät (Monitor/TV) abhängig und ggf. zusätzlich noch (beim Onlinespielen) vom Ping, sprich von der Qualität der Internetverbindung!


Inputlag bezieht sich bei der Betrachtung von G-Sync natürlich auf den Monitor allein.
Was da noch für Inputlag im Rest des Systems rumgammelt, kann man nicht wissen.

Mit herkömmlichem V-Sync steigt der Inputlag mehr oder weniger an, je niedriger die FPS fallen.
Weil der Monitor stur seine 60Hz abarbeitet obwohl man weniger als 60fps hat.

Nochmal zur Erklärung:
Bei 60Hz dauert die Anzeige für ein Bild 1/60s oder anders 16,6ms.
Jetzt hast du sagen wir 40fps, hier dauert das zeichnen eines Bildes 25ms.

Um jetzt diese 25ms auf einem Monitor darzustellen, der stur mit 60Hz "rennt", braucht der TFT demzufolge zwei mal 16,6ms = 33,3ms.
Zu den 25ms für das zeichnen des Bildes kommen nochmal 8,3ms inputlag durch den TFT dazu pro Bild => d.h. bis zu 249 ms Inputlag pro Sekunde @ 40fps!
 
Zuletzt bearbeitet:
für mich wäre das gsync mal wieder ein echter kaufgrund pro nvidia.

mit einer mittelklasse grafikkarte top spiele in bester qualität flüssig spielen zu können und nicht schon beim nächsten titel mit einschränkungen leben zu müssen = aufpreis des monitors gerechtfertigt.

und die stimmen, die ich hier teilweise so deute, dass "wahres gaming" erst mit 120fps+ möglich ist: so etwas liefert keine hardware der welt bei aktuellen spielen (nehmen wir metro und crysis x) und höchstem detailgrad?!


...


und natürlich denkt ein "geschäftsmann" auch so, dass die mittelklasse nie der oberklasse den rang ablaufen darf. man produziert auch keinen vw golf, der schneller ist als ein audi rs3, oder einen passat, der mehr unter der haube hat als der entsprechende audi der gleichen klasse. sicher wird nvidia hier einbußen im verkauf der oberklasse-grafikkarten hinnehmen müssen, wenn die mittelklasse auf einmal ausreicht, um die spiele in gleicher qualität auf den schirm zu zaubern. ich denke, dass man die einbußen durch den verkauf der entsprechenden g-sync monitore kompensieren will/wird
 
@MountWalker:

Danke für die Info (man merkt, du hast dich damit befasst):

Dennoch lässt es sich wohl nicht abstreiten, dass gerade das Anzeigegerät einen erheblichen Anteil am Inputlag hat, eben - wie du es auch angsprochen hast - wegen der Trägheit der Lithium-Kristalle im LCD-Panel aber wohl auch wegen der Bild-Elektronik dahinter (ich merke das in der Praxis z.B. im direkten Vergleich bei identischer Zuspielung/Quelle bereits deutlich zwischen meinem Dell 3008wfp und meinem Philips 7605H Fernseher ohne Overdrive-Schaltung und ich halte mich nichtmal für besonders empfindlich in dieser Hinsicht bzw. spiele garkeine Shooter oder Rennspiele, wo man es wohl am Ehesten merken würde/müsste.)

Und wie gesagt: Man liest/hört davon bis heute in Testberichten kaum ein einziges Wort! (die Industrie scheint kein Interesse daran zu haben, dass dies thematisiert wird...)

@Amok-Sepp:

Sehr gut veranschaulicht, danke!

Ok, das ist plausibel. Dann ist das neue G-Sync. Konzept von Nvidia sicherlich tatsächlich mehr als sinnvoll und wird ggf. eine starke Verbesserung auch im HInblick auf diesen (je nach aktueller Framerate) variierenden Inputlag bringen!

Trotzdem müssen die Hersteller von Anzeigegeräten daran arbeiten, diese im Hinblick auf den IL spieletauglicher zu machen (mit einem Gaming-Modus, oder der Angabe einer geringen Reaktionszeit = Grau-zu-Grau-Wechsel ist es da eben nicht getan)
 
Zuletzt bearbeitet:
@lordZ:

Da scheine ich ja echt einen wunden Punkt bei dir getroffen zu haben :cool_alt:
Was mich nur darin bestätigt, dass ich mit meinem ersten Post gar nicht so falsch lag.

@Arno Nimus:

Ja warum auch. War doch irgendwie klar, dass man nicht alle Nachteile der LCD-Technologie seitens der Industrie hervorhebt. Die Braunsche-Röhre verbraucht mehr Platz und ggf. Energie, ansonsten war sie aber verdammt schnell, sieht nur eben nicht so schick aus. Aber so ist das nunmal im Consumer-Bereich, da wird eine Sau nach der anderen durch Dorf getrieben und bezahlt wird in 99,5% der Fälle für Autosuggestion.

Big-Foot Killer Netzwerkkarten, für niedrigeren Ping - Borgtechnologie verbaut, die den Rest des Internets mit optimiert oder was?

4x 16PCIe Lanes, mit nem ganz tollen switch-Chip dahinhinter, aber ist ja auch Wumpe, hauptsache GPU-Z zeigt "x16" auf allen 4 Karten an.

6 SATA3 anschlüsse auf Boards für ca. 80EUR, ein industrieller RAID-Controller, kommt so ca. 400 oder mehr - ja komisch aber auch, dass die gekauft werden, wenn man für 80EUR schon einen solchen direkt mit integriertem Mainboard bekommt.

und wenn es das alles immer noch nicht gebracht hat, ja dann müssen eben Gaming-Optimierte Monitore her, die werdens richten.

Das den Menschen die WarCraft II auf einem 486er gespielt haben nicht binnen Sekunden der Kopf explodiert ist, kann als das 8. Weltwunder gelten, wo doch noch gar nichts auf Gaming "optimiert" war.
 
Zuletzt bearbeitet von einem Moderator:
Und schon wieder, du schreibst nichts zum Thema und stänkerst weiter. Warum schreibst du nicht mal ein paar Zeilen mit Inhalt, die man dann sinnvoll diskutieren kann?


********
/edit: Oh, sorry, jetzt hast du ja doch noch einige Zeilen "zum Thema" hinzueditiert. Danke! ;)

********


@uNki
Ja, ich sehe es wie du. Ich hatte schon ewig keine nV mehr, aber wenn G-Sync sich etablieren sollte, dann kann sich das ganz schnell ändern.

Wobei ich noch nicht verstanden habe, warum durch G-Sync plötzlich höhere fps an Relevanz verlieren sollten. Ich verstehe G-Sync nach wie vor so, dass die einzelnen Bilder im Gegensatz zu jetzt dann ordentlich bei meinen Augen ankommen. Aber warum sollen 40 fps mit G-Sync den selben Eindruck vermitteln wie 80 fps, das müsste mir bitte noch jemand erklären.
 
Zuletzt bearbeitet:
Ich stänkere überhaupt nicht, ich hatte lediglich einen leicht humoristisch angehauchten Post verfasst und "Gummert" hat ihn auch genau so verstanden.
 
@Ganzir:

Du hast meinen Sarkasmus verstanden und ihn sogar weit übertroffen (stimme dir natürlich komplett zu bei allem was du schreibst)

Was ich eigentlich kritisere, ist die Haltung der sogn. "Fachpresse" in dieser Frage, von der man sehr genau merkt, von wem sie bezahlt wird bzw. abhängig ist (wobei es ja GERADE die Aufgabe dieser wäre, objektiv aber eben auch KRITISCH über Themen zu berichten und sowas NICHT unter den Teppich zu kehren <- so einer "Fachpresse" kann man eben nicht über den Weg trauen, wenn sie sich letztlich zur "Hure" der Industrie degradieren lässt, was nicht ihrer Aufgabe/Funktion entspricht oder entsprechen sollte!)

@lordZ:

Weil das Ruckeln, was neben dem Inputlag (wobei da ja ein Zusammenhang besteht) wohl die stärkste Trübung des Spielgenusses darstellen dürfte, wie Amok-Sepp das gut veranschaulicht hat, massgeblich dadurch entsteht, dass es beim Abfallen der Framerate (sei es die Graka hat nicht genug "Saft" oder das Spiel ist einfach "schlecht" programmiert etc.) jedesmal zu einer Divergenz zwischen dieser Framerate und der (starren) Bildwiederholrate des Anzeigegerätes (60Hz heute ja meist) kommt. Und dieses Manko wird - wenn ich es richtig verstanden habe - durch G-Sync. behoben, weil es die Bildwiederholrate dynamisch an die aktuelle Framerate angleicht...
 
@Arno Nimus:

Und genau da liegt doch das Problem, sobald du als jemand in der Fachpresse anfängst richtig kritisch zu schreiben, bekommst du keine Testsamples mehr. Bekommst du die nicht mehr, bist du nicht mehr der erste, der ein Review veröffentlicht. Bist du nicht der erste der ein Review veröffentlicht, hast du nicht Klicks jenseits von gut und böse (schau dir nur mal die Kommentare zu jedem Review hier auf CB an, dürfte einen erahnen lassen, wie viele Menschen sowas anklicken). Hast du die Klicks nicht bekommst du kein Geld für Werbung. Bekommst du kein Geld verhungerst du irgendwann. Also lieber mit Awards um sich schmeißen, anstatt kritisch zu schreiben (damit meine ich jetzt nicht CB im speziellen).
 
@Arno Nimus,

dazu möchte ich mal einen bekannten Chefredakteur zu diesem Thema zitieren...

Zitat: " Ich werde jede Woche dafür bezahlt, meine ehrliche Meinung, aus der Zeitung heraus zu halten, bei der ich angestellt bin.
Wenn ich meine ehrliche Meinung in einer Ausgabe meiner Zeitung veröffentlichen würde, wäre ich meine Stellung innerhalb 24 stunden los.
Es ist das Geschäft des Journalismus: Die Wahrheit zu zerstören, unumwunden zu lügen, zu pervertieren, zu verleumden, die Füße des mammons zu lecken, für ihr Täglich Brot! Wir sind die Werkzeuge und Vasallen, der Reichen Männer hinter der Szene. Wir sind intellektuelle Prostituierte " John Swinton New York Times. 1880

Ende.

Ist Heute mehr denn je... wird immer schlimmer.
 
Zuletzt bearbeitet:
Ganzir schrieb:
Das den Menschen die WarCraft II auf einem 486er gespielt haben nicht binnen Sekunden der Kopf explodiert ist, kann als das 8. Weltwunder gelten, wo doch noch gar nichts auf Gaming "optimiert" war.

Wir diskutieren hier über Grafikkarten, von unseren geheizten Büros aus, und wo anders auf der Welt verhungern Menschen. Natürlich explodiert auch ohne G-Sync niemandem der Kopf. Klar, dass es hier um eine Verbesserung auf hohem Niveau geht und wer damit nichts anfangen kann, kann das dadurch gesparte Geld ja gerne der Caritas spenden (soll keinesfalls sarkastisch gemeint sein, ich mache sowas regelmäßig).

Aber dass auf so einem Bild was nicht stimmt, dürfte doch wohl jedem auffallen.

797px-Tearing_%28simulated%29.jpg


Ob es stört, oder nicht, soll jeder für sich individuell entscheiden. Und auch wenn mir (und hoffentlich auch euch) der Kopf nach Betrachten des Bilds noch nicht explodiert ist, bin ich durchaus gewillt dafür etwas Geld auszugeben, dass dieses Bild zukünftig ordentlich dargestellt wird.

@Arno Nimus

Ich bin noch nicht ganz dabei. Ohne G-Sync gehen sozusagen Bilder "verloren", da Graka und Monitor das Bild nicht synchron darstellen. Und dadurch machen 30 fps also diesen wenig flüssigen Eindruck, der nicht wäre, wenn Graka und Monitor synchron arbeiten würden? Ich denke, ich hab' das noch immer nicht ganz verstanden.
 
Ist das Bild aus einem Spiel (wenn ja sieht es verdammt gut aus - also der Rest nicht das tearing) oder aus irgeneiner Demo?

Ich frage nur aus folgendem Grund:

Ich habe in der tat schon auf einem 486er gespielt und so ziemlich die gesamte Hardwareentwicklung seither mitgemacht. Ich spiele so ziemlich jedes Genre, das eine mal mehr das andere wenigier.

Das einzige Mal, dass ich derartiges Tearing erlebt habe, war in Sudden Strike, wo ich mich dann dazu entschied mal V-Sync einzuschalten, was dann für mein Empfinden auch absolut ausreichend war.

Auch sonst hatte ich nie den Eindruck, dass Tearing die Heimsuchung des Gamers schlechthin sei und wir hier alle gebannt auf den Heiland warten müssen, der uns jetzt dank G-Sync endlich geboren werden wird.
 
@ Ganzir

nur weil es dir nicht auffällt heißt das nicht gleich, dass alle anderen Überreagieren oO. Tearing kann schon recht unschön sein, wenn man mal was Spielt was von der Grafik lebt.
 
Es ist ja nicht nur Tearing sondern eben auch die ungleichmaessige Bildabfolge. Wenn man sich im Spiel mit gleicher Geschwindigkeit bewegt, dann kann es vorkommen dass ein Zwischenbild einen ganz anderen Abstand zu den vorherigen zeigt als andere. Und das faellt einem eben als ein gewisses ruckeln auf. Aus der Tomb-Raider Sequenz z.B. kenne ich das recht gut.
 
Ich freue mich, dass wir nun scheinbar doch noch halbwegs ein Diskussionsniveau erreicht haben, daher möchte ich die Frage ganz ohne Sarkasmus beantworten, obwohl sie geradezu herzlich dazu einladen würde.

Nein, das Bild ist aus der wikipedia kopiert, da ich technisch nicht die Möglichkeit dazu habe, dass ich das, was ich täglich mit meinen Augen in PC Spielen sehe, hier darstellen kann. Gut, das ist jetzt ein wenig übertrieben, da ich bei weitem nicht mehr täglich spiele. Aber wenn ich spiele, dann erlebe ich das Tearing noch viel deutlicher, als es das Foto aus der wikipedia darstellt.

Nach deinen jetzigen Zeilen verstehe ich auch deine Einstellung zu dem Thema, aber wir werden uns sicher einig sein, dass jeder Mensch und jedes Auge nunmal verschieden ist.

Es tut mir sehr Leid, dass ich offensichtlich mit einem recht empfindlichen Auge gesegnet wurde und mir zocken mit 40 fps einfach keinen Spaß macht, ich auf so ziemlich allen für mich leistbaren aktuellen IPS Displays entweder die PWM als extrem störend empfinde, oder aber mich der IPS Glow Effekt regelrecht blendet. Und auf meinen TN Displays werde ich gegenwärtig (noch) vom Tearing gestört. Nochmal deutlich für dich, nein, mein Kopf explodiert dadurch nicht.

Aber hey, sei doch froh, dass dir das alles nicht auffällt, aber ziehe niemanden ins Lächerliche, der sich dank so einer Technik für eine nVidia Grafikkarte entscheidet. Und ich bin definitiv kein Fanboy. Siehe Signatur. Und vor der 7870 waren die zwei Vorgänger AMD Karten drinnen.
 
lordZ schrieb:
Ich bin noch nicht ganz dabei. Ohne G-Sync gehen sozusagen Bilder "verloren", da Graka und Monitor das Bild nicht synchron darstellen. Und dadurch machen 30 fps also diesen wenig flüssigen Eindruck, der nicht wäre, wenn Graka und Monitor synchron arbeiten würden?

Verloren geht es in den meisten Fällen nicht. Dein Bild oben zeigt im Prinzip 3 Frames, die zusammen ein Bild ergeben. Mit G-Sync würde so etwas nicht vorkommen weil die Bildwiederholungsrate des Monitors dynamisch so angepasst wird, dass jeder Frame einzeln und vollständig angezeigt wird. Was nicht gehen würde wenn der Monitor statisch aller 1/60s ein neues Bild ausgibt, da die GPU nicht synchron neue Frames liefert -> Tearing.

30FPS ist auch mit G-Sync nicht optimal. Aber mit G-Sync hast du wenigstens aller 33,3ms ein neues Bild, welches nebenbei noch vollständig ist.
 
Zuletzt bearbeitet:
Blublah schrieb:
Es ist ja nicht nur Tearing sondern eben auch die ungleichmaessige Bildabfolge.
Beziehst du das jetzt auf Arno Nimus' Antwort auf meine Frage? Verstehe ich trotzdem nicht, denn wenn ich bei einem Game, das ich konstant mit minimal 30 fps spielen kann, das fps limit auf 30 setze, macht das doch auch keinen flüssigeren Eindruck? Und natürlich liefert die Graka nicht zwingend jedes Bild in zeitlich gleichem Abstand zum vorherigen, aber ich habe G-Sync bisher (noch) nicht so verstanden, dass der zeitliche Abstand der Bilder seitens der Graka dadurch abgeglichen wird.

Ergänzung @ Matzegr

Jaja, ich habe schon verstanden, wie G-Sync gegen das Tearing vorgeht. Aber ich habe noch nicht verstanden, warum mit G-Sync plötzlich 30 fps gleich gut ausschauen sollen wie 80 fps.
 
Zuletzt bearbeitet:
lordZ schrieb:
Aber ich habe noch nicht verstanden, warum mit G-Sync plötzlich 30 fps gleich gut ausschauen sollen wie 80 fps.

Man wird auch mit G-Sync noch einen Unterschied sehen zwischen 30FPS und 80FPS. Der Unterschied wird nur nicht mehr so deutlich sein.
 
Matzegr schrieb:
Der Unterschied wird nur nicht mehr so deutlich sein.
Genauer gesagt, der Unterschied wird einen Hauch geringer ausfallen. Das wäre mir dann klar. Aber eine deutliche Verbesserung könnte ich mir anhand der bisherigen Erläuterungen noch nicht erklären.
 
Es wird einfach nur eine Variable die ein unsauberes Bild erzeugt aus dem Spiel genommen. (Bei 60 HZ Monitoren) verhinderst es Tearing bei FPS größer 60 und ermöglicht ein etwas flüssiger Bild bei FPS kleiner 60, da HZ = FPS sind.
 
Zuletzt bearbeitet:
Zurück
Oben