Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Erste Eindrücke zu Nvidias „G-Sync“-Technologie
- Ersteller Wolfgang
- Erstellt am
- Zur News: Erste Eindrücke zu Nvidias „G-Sync“-Technologie
Whoozy
Banned
- Registriert
- Juli 2006
- Beiträge
- 4.793
Es ist kein Anfang wenn das floppt und ich bin sicher, das es floppen wird. Damit das ein Erfolg hat, muss in Zukunft jeder Monitorhersteller jeden Monitor der neu erscheint mit der Technik kompatibel machen. Und dann müsste noch AMD und Intel ihre GPU's und Software dafür Fit machen.
Amok-Sepp
Lt. Junior Grade
- Registriert
- Okt. 2011
- Beiträge
- 485
TheDuffman schrieb:Das Upgradekit wird $175 kosten. Demnach ist bei Monitoren mit verbauter Zusatzplatine einen Aufpreis von mindestens 150 € zu erwarten.
Zum Preis des Upgradkits gibt es noch garkeine Aussage seitens Nvidia.
btw von PCGH.
http://www.youtube.com/watch?v=dpoLN5UkqC8&hd=1
Zuletzt bearbeitet:
Whoozy
Banned
- Registriert
- Juli 2006
- Beiträge
- 4.793
@Amok-Sepp:
Danke für das Video, ist eigentlich Aufgabe von Wolfgang gewesen ein Video zu stellen, aber naja CB baut bekanntlich ab.
Also mir fällt da kaum bis kein Unterschied auf. Bei dem linken Bild scheint die Pendeluhr leicht zu zucken aber das fällt kaum auf, nur wenn man sich stark darauf konzentriert, zumindest ist das bei mir der Fall.
EDIT: Naja bei mehrmaligem schauen, sehe ich keinen Unterschied mehr . Auch auf der rechten Seite zuckt die Pendeluhr ein wenig. Könnte an der Aufnahme liegen.
Danke für das Video, ist eigentlich Aufgabe von Wolfgang gewesen ein Video zu stellen, aber naja CB baut bekanntlich ab.
Also mir fällt da kaum bis kein Unterschied auf. Bei dem linken Bild scheint die Pendeluhr leicht zu zucken aber das fällt kaum auf, nur wenn man sich stark darauf konzentriert, zumindest ist das bei mir der Fall.
EDIT: Naja bei mehrmaligem schauen, sehe ich keinen Unterschied mehr . Auch auf der rechten Seite zuckt die Pendeluhr ein wenig. Könnte an der Aufnahme liegen.
Zuletzt bearbeitet:
Amok-Sepp
Lt. Junior Grade
- Registriert
- Okt. 2011
- Beiträge
- 485
@Whoozy
Muss jeder selber wissen.
Ich für meinen Teil fand grad den Bereich 40-50 fps immer unspielbar und hab mich gewundert warum.
Jetzt wird mir klar warum und die Technik ist ein Meilenstein in meinen Augen.
Sicherlich nicht sichtbar für jeden und wer einen schnellen 120Hz hat und ein schnelles Rig, das diese 120Hz bedient, der kommt auch ohne G-Sync aus. Auf lange Sicht, kann ein G-Sync Monitor aber die bessere Ergänzung für eine dann irgendwann mal "alte" GTX 600/700 sein, statt eine zweite Karte für ein SLI zukaufen. Oder gleich wieder neues High End.
Niedrige fps bleiben flüssig.
Muss jeder selber wissen.
Ich für meinen Teil fand grad den Bereich 40-50 fps immer unspielbar und hab mich gewundert warum.
Jetzt wird mir klar warum und die Technik ist ein Meilenstein in meinen Augen.
Sicherlich nicht sichtbar für jeden und wer einen schnellen 120Hz hat und ein schnelles Rig, das diese 120Hz bedient, der kommt auch ohne G-Sync aus. Auf lange Sicht, kann ein G-Sync Monitor aber die bessere Ergänzung für eine dann irgendwann mal "alte" GTX 600/700 sein, statt eine zweite Karte für ein SLI zukaufen. Oder gleich wieder neues High End.
Niedrige fps bleiben flüssig.
Zuletzt bearbeitet:
Darkscream
Fleet Admiral
- Registriert
- Feb. 2010
- Beiträge
- 17.542
Es heißt aber auch das man es auf dem Video viel weniger wahr nimmt als live.
Es fällt schon auf, jenachdem ob man es gewöhnt ist oder nicht. Für mich z.B. ist der Unterschied minimal, mein Bruder hat drauf geschaut und den störte es immens.
Aber ein so riesen Problem ist es für die Mehrheit mit Sicherheit nicht, aber trotzdem nette technik, wenn eben nicht an eine Hardware gebunden am Ende :/
Aber ein so riesen Problem ist es für die Mehrheit mit Sicherheit nicht, aber trotzdem nette technik, wenn eben nicht an eine Hardware gebunden am Ende :/
Vivster
Commodore
- Registriert
- Juli 2011
- Beiträge
- 4.233
Dass der Monitor mit einer Zusatzplatine ausgestattet sein muss ist keine Limitierung sondern die Technik, die dahinter steckt. Das wär als würde man sagen, die Limitierung eines Smartphones ist, dass es mit einem Akku ausgestattet sein muss.G-Sync hat jedoch auch einige Limitierungen. So ist eine Kepler-Grafikkarte notwendig und der Monitor muss mit einer Zusatzplatine ausgestattet sein
Ist jedenfalls ein interessanter Ansatz. Ich suche sowieso momentan noch einen neuen Monitor und die 800er Serie steht dann ja auch bald an.
dahum
Lt. Commander
- Registriert
- Juli 2005
- Beiträge
- 1.383
Ich muss mich nun also entscheiden ob ich meine Spiele:
mit hoher Auflösung und guten Farben aber 2d und rucklig oder
mit 3d aber geringer Auflösung, ruckelig und schlechteren Farben oder
mit hoher Bildfrequenz ruckelfrei aber 2d, geringer Auflösung und schlechten Farben
spielen darf. Mir ist das echt zu blöd. Dafür hab ich weder Geld noch Platz.
mit hoher Auflösung und guten Farben aber 2d und rucklig oder
mit 3d aber geringer Auflösung, ruckelig und schlechteren Farben oder
mit hoher Bildfrequenz ruckelfrei aber 2d, geringer Auflösung und schlechten Farben
spielen darf. Mir ist das echt zu blöd. Dafür hab ich weder Geld noch Platz.
Amok-Sepp
Lt. Junior Grade
- Registriert
- Okt. 2011
- Beiträge
- 485
Whoozy schrieb:Was heisst bald ? Wer sagt das ?
Ein mittelgroßer Maxwell (GM104) soll noch im Q1 2014 kommen.
4-6 Monate könnte man schon als "bald" bezeichnen.
G
Ganzir
Gast
Werde mir bestimmt keinen neuen Monitor kaufen nur um da irgendein Klickibunti-Feature nutzen zu können. Ich Spiele seit den frühen 90ern und irgendwie hatte ich nie das Gefühl sowas wie G-Sync zu brauchen. Wenn sich sowas aber einer bestimmten Kartengeneration via Treiber realisieren ließe von mir aus, aber ein Auto, welche spezielle Tankstellen und speziellen Asphalt braucht, wäre auch nicht mein Ding.
Vivster
Commodore
- Registriert
- Juli 2011
- Beiträge
- 4.233
Wie soll denn das gehen mit einem Treiber? Hier geht es darum, dass die Bildwiederholungsfrequenz des Monitors an die des Spiels angepasst wird. Ohne zusätzliche Technik im Monitor geht das wohl kaum. Da kommt mal seit langem wieder eine Innovation im Grafikbereich und schon kommen die Nörgler, die gern neue Technik haben wollen aber null dafür investieren.
Whoozy
Banned
- Registriert
- Juli 2006
- Beiträge
- 4.793
@Vivster
Das Problem ist, wenn es nur eine Handvoll Monitore geben wird, die das unterstützen, ist das ein No-Go. Weil man zu sehr in seiner Auswahl beschränkt wird und dann bleibt noch die Frage offen, was denn so ein Monitor kosten wird, der Aufpreis im Vergleich zu gleichwertigen Monitoren die das nicht können. Und die Frage ob das Individuum überhaupt damit ein Problem hat (Tearing).
So wie ich das schon in Beitrag #62 geschrieben habe kann das nur ein Erfolg für alle werden, wenn alle mitmachen können/wollen.
Das Problem ist, wenn es nur eine Handvoll Monitore geben wird, die das unterstützen, ist das ein No-Go. Weil man zu sehr in seiner Auswahl beschränkt wird und dann bleibt noch die Frage offen, was denn so ein Monitor kosten wird, der Aufpreis im Vergleich zu gleichwertigen Monitoren die das nicht können. Und die Frage ob das Individuum überhaupt damit ein Problem hat (Tearing).
So wie ich das schon in Beitrag #62 geschrieben habe kann das nur ein Erfolg für alle werden, wenn alle mitmachen können/wollen.
Zuletzt bearbeitet:
IXI_HADES_IXI
Commodore
- Registriert
- Apr. 2006
- Beiträge
- 4.254
Monitorupgradekit. Wie soll das aussehen? Selber Hand anlegen und am Monitor rumbasteln? Nö Danke...
Im Grunde vielleicht keine schlechte Sache aber die Umsetzung wird wieder mal ein flop...
Per Software oder Treiber von mir aus G-Sync aber extra Monitor oder Upgrade einfach nur lachhaft!
Im Grunde vielleicht keine schlechte Sache aber die Umsetzung wird wieder mal ein flop...
Per Software oder Treiber von mir aus G-Sync aber extra Monitor oder Upgrade einfach nur lachhaft!
Nova eXelon
Commander
- Registriert
- Jan. 2011
- Beiträge
- 2.526
Das Beispiel ist ja wohl denkbar schlecht. Er spielt in 1920x1080, weil er eben in dieser Auflösung auch - wie du ja selber sagst - streamt! Jeder der Ahnung von Videos kodieren hat, wird dir sagen, dass es besser ist, auch in der Auflösung aufzunehemen, in die am Ende auch kodiert werden soll.terraconz schrieb:Schönes Beispiel dafür wäre Total Biscuit der 2 Titans hat um auf Full HD zu spielen/streamen.
@Topic:
Seufz.......solange man auch hier einen neuen Monitor braucht bzw. sowas nicht am TV nutzen kann, ist das leider für mich überflüssig.
@"Ich verstehe Monitor-Upgrade-Kit nicht":
In US und langsam auch in DE hat Samsung schon seit ner ganzen Zeit TV Serien im Umlauf, denen man solche Kits verpassen kann. Nennt sich in Samsungs Fall Evolution Kit. Die verbessern dann die "Smart" Fähigkeiten oder Interpolationsalgorithmen.
Da muss man auch nicht den TV für auseinander nehmen. Erweiterungsanschlüsse sind entsprechend vorhanden. Einfach mal googeln.......
Wird für Monitore wohl nicht groß anders aussehen. Vielleicht wie ne PCMCIA Karte oder so.....
Amok-Sepp schrieb:G-Sync ist eine verdammt interessante Technik für den unter 60fps Bereich und damit grade für kleine Grafikkarten oder Grafik-Fetischisten interessant.
Wer dagegen immer 100+fps auf einem 120/144Hz TFT hat, und nicht jedes Ultra Setting braucht, der wird den Unterschied nicht merken.
Das ist Unsinn. G-Sync arbeitet von 30 bis 177 Hz. 100 Fps auf einem 144 Hz Monitor sind deutlich flüssiger mit G-Sync als ohne. Überhaupt 90% der Kommentare dieses Threads zeugen davon dass kaum einer die Technik verstanden hat.
G-Sync wird auch nicht in den nächsten Jahren Vesa-Standard aus zwei Gründen.
1. nVidia-Patente
2. es ist sehr hardwareaufwendig; die GSync Monitore haben einen extra ARM Prozessor und 1,5GB Speicher. Das kann man nicht einfach so mit einer Änderung des Protokolls erreichen.
AMD wird es sicher irgendwann von NVidia lizensieren und dann haben es alle. Auf der GPU Seite muss man nicht viel ändern.
V-Sync erzeugt grundsätzlich Inputlag. Ohne hast du aber Tearing und Ruckeln wenn die Framerate nicht exakt mit der Monitorfrequenz überinstimmt (also 60 fps auf 60Hz Monitor oder 144 Fps auf einem 144 Hz monitor). Mit G-Sync hast du alle Vorteile von V-Sync, jedoch ohne den Input Lag. Zusätzlich werden die Grafikkarte und der Monitor besser ausgelastet und verschwenden keine Energie.lordZ schrieb:Okay, danke aber du sagst, der Lag wird dadurch tendenziell mehr? Dann ist das aber auch nichts für mich und ich muss nach wie vor auf VSync verzichten.
Das stimmt, allerdings schafft nicht mal eine Titan bei Crysis 3 konstante 60 fps, und das nur bei 1080p mit 16AF und 4xMSAA.ich_nicht schrieb:Wenn ich meinen 60 Hz Bildschirm mit 90 FPS zuballer habe ich auch kein tearing, vorausgesetzt das die Frametimes halbwegs gleichmäßig sind.
Die meisten anderen Videos zum Thema sind nutzlos weil man auf "normalen" 60Hz Monitoren G-Sync ja nicht darstellen kann. Nur mit einem Trick kann man sehen was da los ist.Whoozy schrieb:@Amok-Sepp:
Also mir fällt da kaum bis kein Unterschied auf. Bei dem linken Bild scheint die Pendeluhr leicht zu zucken aber das fällt kaum auf, nur wenn man sich stark darauf konzentriert, zumindest ist das bei mir der Fall.
EDIT: Naja bei mehrmaligem schauen, sehe ich keinen Unterschied mehr . Auch auf der rechten Seite zuckt die Pendeluhr ein wenig. Könnte an der Aufnahme liegen.
G-Sync mit einer Action-Cam bei 120Fps aufgenommen und bei 30Fps abgespielt. Die Farbunterschiede kommen von der Kamera. Während der Präsentation gab es keine (ist ja der gleiche Monitor).
http://www.youtube.com/watch?v=NffTOnZFdVs
p.s.
Hier wird eine Stunde lang alles erklärt:
http://www.youtube.com/watch?v=KhLYYYvFp9A
Nein, du brauchst nur einen G-Sync Monitor ($75 Aufpreis) + Kepler Grafikkarte die mindestens 30 fps schafft (unter 30 fps ist G-Sync aus). Dann hast du immer ein perfektes Bild ohne Tearing und Lag, egal wie die Framerate rumspringt (was normal ja passiert, mal ist sie 40, mal 50, mal 60 fps). Du musst auch nichts einstellen und es funktioniert mit allen Spielen. In Gegensatz zu V-Sync on erzeugt aber G-Sync keinen Inputlag.dahum schrieb:Ich muss mich nun also entscheiden ob ich meine Spiele:
mit hoher Auflösung und guten Farben aber 2d und rucklig oder
mit 3d aber geringer Auflösung, ruckelig und schlechteren Farben oder
mit hoher Bildfrequenz ruckelfrei aber 2d, geringer Auflösung und schlechten Farben
spielen darf. Mir ist das echt zu blöd. Dafür hab ich weder Geld noch Platz.
Ein Aufristkit gibt es nur für einen bestimmten Asus Monitor und es ist eine Steckkarte (man muss also nicht Löten). Diese kommt schon nächsten Monat. Einige andere Monitore kommen mit gleich eingebauten G-Sync. Allerdings erst Q1 2014.VAN DOOM schrieb:Monitorupgradekit. Wie soll das aussehen? Selber Hand anlegen und am Monitor rumbasteln? Nö Danke...
Im Grunde vielleicht keine schlechte Sache aber die Umsetzung wird wieder mal ein flop...
Per Software oder Treiber von mir aus G-Sync aber extra Monitor oder Upgrade einfach nur lachhaft!
Und nochmals, eine Softwarelösung wird es NIEMALS geben. Die Sache ist technisch extrem aufwendig und der Grund wieso es sowas vor 10 Jahre nicht gab.
Zuletzt bearbeitet:
panopticum
Commander
- Registriert
- Juni 2007
- Beiträge
- 2.572
Kane von Nod schrieb:###Die neue Technik soll alle Vorteile kombinieren: Ein einwandfreies Bild ohne Verzerrungen, hohe Frameraten und keinen (oder einen deutlich geringeren) Input-Lag. ###
LIEBE MONITOR HERSTELLER !
DAS MÜSST IHR SELBER AUF DIE REIHE KRIEGEN !!!
Ps: Wer zockt eigentlich "Ohne" V-Sync on nach dem Kauf einer neuen Graka ????? - Stabile saubere Bilder sind wichtiger als zerissene und den bekannten nachteilen etc.. (Meine meinung)
Ich, da sich Input Lag für mich unspielbar anfühlt.
Ähnliche Themen
- Antworten
- 104
- Aufrufe
- 10.594
- Antworten
- 644
- Aufrufe
- 37.735
- Antworten
- 39
- Aufrufe
- 4.998
- Antworten
- 163
- Aufrufe
- 55.677
- Antworten
- 59
- Aufrufe
- 6.080