News Erste Eindrücke zu Nvidias „G-Sync“-Technologie

Sharky99 schrieb:
Das ist Unsinn. G-Sync arbeitet von 30 bis 177 Hz. 100 Fps auf einem 144 Hz Monitor sind deutlich flüssiger mit G-Sync als ohne. Überhaupt 90% der Kommentare dieses Threads zeugen davon dass kaum einer die Technik verstanden hat.

da muss ich dir zustimmen ^^ mein Beileid.
 
@scully1234, eine Sache ist mir an dir echt richtig unsympathisch. Die Tatsache, dass du dir aus allen Quellen immer nur die Aussagen Pickst, die dir gefallen und dich unterstützen, alles weitere aber unter den Tisch fallen lässt, nur damit du recht hast! Vielleicht liegt es daran, dass ich sowohl als Mensch als auch als Wissenschaftler dazu erzogen wurde und unterrichtet wurde, niemals nur die Aussagen aus Quellen zu picken die mir gefallen, sondern alle, doch dieser Zug an deinen Beiträgen ist mir echt unsympathisch, da so jede Diskussion mit dir im Endeffekt sinnlos ist. Du hast deinen Standpunkt und alle anderen haben unrecht. Zudem scheinst du auch nur die Meinungen zuzulassen, die dir gefallen und in den Kram passen. Keine sehr positiven Eigenschaften.

Ja der aktuellen R290X-Kühler ist laut, doch entscheidet da doch eher das Bios drüber. Sehe ich mir die Werte hier an, ist die R290X leiser und etwas langsamer als die Titan, wenn man das "normale" Bios nimmt. Geht man zum Uber-BIOS ist die Karten deutlich lauter und ein ticken schneller als die Titan. Natürlich mit Ergebnissen nach oben und nach unten im Vergleich zur Titan. Selbst bei vielen anderen Seiten, auch Tomshardware.de, golem.de und. Natürlich muss man dafür die Tests sehr genau lesen und mehr suchen, als nur die Sätze, die einem gefallen.

Man könnte hier fast davon ausgehen, dass du nur ein nVidia-Fanboy bist, der hier gerne jede andere Meinung, die dir nicht passt, unterbinden muss.

Aber genug damit, es sind nur meine Gedankengänge zu den meisten deiner Beiträge hier und in anderen Themen. Zu mal sich weder AMD noch nVidia mit Ruhm bekleckert haben, was Marketing angeht. Beide Firmen sind nicht die Heiligen und nVidia ist mir mit den Aktionen gegen Kyro2 immer noch unsympathisch!

Zum Thema g-Sync. Es hört sich recht gut an nur frage ich mich, wie dies mit der maximalen Bildwiederholungsfrequenz nun wirklich aussieht. Wenn der Monitor 120Hz schafft, dann müsste g-Sync ja auch bei 120Hz dicht machen, weil mehr Herz als der Monitor anzeigen vermag, kann auch g-Sync nicht hervorzaubern. Ich sehe hier also den Vorteil bei den Frequenzen, die unterhalb von der des Monitors liegt. Wie reagiert es aber bei den Frequenzen darüber?

Gut, mir selbst fällt Tearing auch auf, besonders bei bestimmten Spielen, aber nicht bei allen. Es ist schön, dass nVidia diese Thematik angeht, nur ist die Frage, wann es wirklich kommt und ob sie dieses mal vielleicht einen Schritt weiter gehen und wirklich mal daran arbeitet, einen Industrie-Standard zu implementieren und nicht wieder eine eigenen Suppe kocht! Das macht mir nVidia, im Gegensatz zu AMD, wirklich richtig unsympathisch.
 
ganzir schrieb:
daher richtet man sich direkt an die klientel, die sich innerhalb des taschengeldparagraphen bewegt und sich darüber streitet, welcher sub-200eur montior, die beste smoothness bietet.
So long..

:d

N-Sync hät wohl rechtlichr Probleme gegeben :D
 
@ Sharky99

Von diesem angeblichen Ruckeln bei 35 FPS hab ich noch nie etwas gesehen, solange Triple Buffering wirklich läuft. Und ob 16 ms eine wichtige Rolle spielen, hängt nicht so sehr vom Genre ab, sondern stärker davon, wie lang das input-Lag ohnehin schon ist. Bei id Spielen hab ich da noch nie etwas bemerkt, bei The Elder Scrolls Spielen (Morrowind, Oblivion, Skyrim) hingegen merkt mans ziemlich schnell, weil diese Spiele eben bereits mit Double Buffering derart starke Input-Output-Verzögerung, dass dann die 16ms zusätzlich ausreichen, um in der Gesamtverzögerung auf etwas merkbares zu kommen.
 
Finde schön dass Nvidia sich einem lang bekannten und doch nie behandeltem Problem widmet. Das ist lobenswerte Innovation die nebst dem FPS-Kampf in dem Business leider zu wenig oft gesehen wird. Dass man dazu einen speziellen Bildschirm braucht stört mich wenig. Das könnte sich jedoch noch ändern wenn sie dann einfach viel zu teuer werden. Ich hoffe der Preis liegt unter jetzigen Gaming-Monitoren mit erhöhter Hz Zahl.
 
Testen werde ich das ganze sicher, wenn ein WoW Effekt eintritt behalte ich mir den Monitor sonst geht er wieder zurück ganz einfach :)
 
GoZx schrieb:
Finde schön dass Nvidia sich einem lang bekannten und doch nie behandeltem Problem widmet. Das ist lobenswerte Innovation die nebst dem FPS-Kampf in dem Business leider zu wenig oft gesehen wird. Dass man dazu einen speziellen Bildschirm braucht stört mich wenig. Das könnte sich jedoch noch ändern wenn sie dann einfach viel zu teuer werden. Ich hoffe der Preis liegt unter jetzigen Gaming-Monitoren mit erhöhter Hz Zahl.

Asus hat schon einen 24" mit G-Sync für $399 angekündigt.

Übrigens G-Sync ist nicht an einen bestimmten LCD-Typ gebunden, funktioniert also sowohl mit TN auch mit IPS Panels. Nur sind die meisten IPS Panels zu langsam beim Umschalten, deshalb dürften 90% der G-Sync Monitore TN nutzen.
 
scully1234 schrieb:
Der Kühler von AMD ist der letzte Witz selbst Fermi 1.0 mit seiner enormen Abwärme steht da akustisch besser da wie der Schrott mit 72,9 db in der Spitze

72,9db kommt durch 95% Lüfter Einstellung. Und nur damit man die GPU bei 70° bei SPIELELAST betreiben kann, wo man noch Luft nach oben hat...

Wieviel macht der Titan mit 95%? Ach. Hat Toms Hardware gar nicht nötig zu schauen....


Sorry aber du machst dich hier MIR GEGENÜBER nur lächerlich.
 
Entsprechend entsperrt (Bios Mod) ist die Titan genauso laut bei 95%...
1100Mhz sind noch gut zu Kühlen mit 70% bei 1200 wird es laut und heiß und ab 1300 wird es unkühlbar.
1400Mhz macht sie mit, WaKü oder Basteln mittels fetten CPU Kühler auf die GPU inkl. Lüfter auf das PCB gerichtet.
 
Zuletzt bearbeitet:
Übrigens G-Sync ist nicht an einen bestimmten LCD-Typ gebunden, funktioniert also sowohl mit TN auch mit IPS Panels. Nur sind die meisten IPS Panels zu langsam beim Umschalten, deshalb dürften 90% der G-Sync Monitore TN nutzen.

@Sharky99: Danke für den Hinweis.

@Ganzir: Dies auch für dich zur Info ;) Sind also doch nicht wir Schuld, die noch nicht erwachsen genug sind, um einen 19k EUR EIZO zu verwenden.
 
Sharky99 schrieb:
Asus hat schon einen 24" mit G-Sync für $399 angekündigt.

Also $399 geht ja noch. Finde ich nun nicht übertrieben teuer, falls man das Ausstattungsmerkmal nun brauchen sollte (also viel spielt).

Sind zum heutigen Kurs: 289,04 €
 
Zuletzt bearbeitet:
Treiber die adaptiv den Detaillevel anpassen wären auch ein Ansatz, weiß jemand ob so was möglich wäre ?
 
würde das ganze gerne in der praxis sehen, undzwar mit 120fps + 120hz + lightboost mit g-sync.
 
Hier sieht man nun auch einmal die Halbleiterplatte, die für G-Sync benötigt wird. Das sieht nichts so aus, als sei das eine Mittagspausen-Lösung.

g-sync.jpg

NVIDIA_G-SYNC_board.jpg
 
Zuletzt bearbeitet:
lordZ schrieb:
dass die von dir genannten Monitore nicht für's Gaming entwickelt wurden

Fürs Gaming entwickelt worden ... der war gut.

Stichwort von Gamern für Gamer, wir überlisten auch heute wieder die Physik und das für unter 5,99EUR.:evillol:
 
Computerbase schrieb:
Ein einwandfreies Bild ohne Verzerrungen, hohe Frameraten und keinen (oder einen deutlich geringeren) Input-Lag.

Der Inputlag ist doch massgeblich vom Anzeigegerät (Monitor/TV) abhängig und ggf. zusätzlich noch (beim Onlinespielen) vom Ping, sprich von der Qualität der Internetverbindung!

Soll jetzt suggeriert werden, man könne das durch die Grafikkarte "kompensieren"?

Wohl kaum! (auf einem Anzeigegerät mit einem IL von sagen wir 70-100 ms kann man Spielen dennoch vergessen, unabhängig davon wie "toll" die Graka ist)

In entsprechenden Testberichten zu den besagten Anzeigegeräten wird der Inputlag zu 95% bis zum heutigen Tage nichtmal erwähnt, so als wäre er garnicht existent oder nicht relevant für ein optimales Spiele-Erlebnis!

DAS ist dann die Art wie Leute in die Irre geführt und desinformiert werden (man kann das auch dadurch erreichen, indem man bestimmte Wahrheiten einfach "ausspart" <- Die existieren dann eben im Bewusstsein der breiten Masse ganz einfach nicht) und entsprechend fallen dann auch die "Ansichten" und "Meinungen" zu diesem Thema aus:

Nur, um es mal angesprochen zu haben...

jeri schrieb:
würde das ganze gerne in der praxis sehen, undzwar mit 120fps + 120hz + lightboost mit g-sync.

4K hast du noch vergessen: Dann braucht man auch keine 500-fache Kantenglättung und kein Downsampling mehr!
 
Zuletzt bearbeitet:
Soso IPS-Panels sind also zu langsam, sicher dass man nicht beim CRT bleiben sollte, kann mich noch an die lebhafte Diskussion erinnern, als die ersten TFTs kamen, von wegen reaktionszeit und so, naja und wenn man dann noch en header kassiert, dann lag es wohl doch an der Maus. :rolleyes:
 
doppelpost (gelöscht)
 
Zuletzt bearbeitet:
Arno Nimus schrieb:
Der Inputlag ist doch massgeblich...
Nein, er ist von allem abhängig, das zwischen Tastatur und Leuchtkristallen passiert. Insgesamt sollte das ganze dann nicht über einen bestimmten Wert gehen. Es gab mal einen längeren Ars technica Artikel dazu, aber das ist schon Jahre her und ich kann mich nicht mehr erinnern, ob die Gesamtverzögerung bei den meisten Menschen jetzt bei 130 ms oder bei 200 ms problematisch wird - vielleicht auch irgendwo dazwischen. Die öffentliche Debatte hat sich bisher meistens leider auf Bildschirme und Internet-PING beschränkt, die Game-Engine bzw. das Game an sich, denn Designfragen spielen da auch noch mit rein, spielt dabei aber auch eine maßgebliche Rolle. The Elder Scrolls lagt beispielsweise traditionell extrem, während Doom3 oder Quake4 auch mit langsamsten Monitoren kaum laggen.
 
Zurück
Oben