[Sammelthread] ASUS ROG Swift PG278Q, 27" mit 2560x1440 + 144Hz

Alle SLI-Varianten nach der Voodoo 2 sind IMHO sowieso "Pfusch", weil sie für jedes Spiel speziell angepassten Treibersupport benötigen.

DirectX 12 soll angeblich besser damit umgehen können.
 
Microruckler sind seit Jahren ein Problem von sli. Vielleicht kommt da ne Besserung mit dx12, wer weiß. Diese Einschränkungen waren für mich seit jeher Grund genug, stets nur auf eine GPU zu setzen... Das ist auch eine Problematik, die nichts mit dem Monitor zu tun hat.
 
@cb username:

Dass SLI mit dem PG278 @ 3D Vision macht, habe ich schon oft gelesen.
https://forums.geforce.com/default/...rking-correctly-for-asus-rog-swift-pg278q-/1/

Und ja, mit dem neuen 1440p ist die Anforderung natürlich nochmal erheblicher als mit deinem VG278HR.
Da hast du gleich mal die doppelte Pixelmenge zu berechnen und dann eben noch @ 3D.

Du müsstest den Vergleich mit GTX 980 SLI und 980Ti auf deinem alten VG278HR ziehen. Durch das Upgrade zum PG278 ist das Bild natürlich schwer nachvollziehbar bzw. hast du dort den Bullshit mit SLI @ 3D Vision.
 
SuddenDeathStgt schrieb:
Mit dem "Eizo-Monitortest" ...Einfach gocklen, saugen & testen ... :)
Da darf es keine flackernde Linien o.Ä. geben (siehe Pics) & das bei jeder möglichen Hertzfrequenz von deinem Swift. Teste das mal ... :)

Flackern tut da eigentlich nix.
Sind letztendlich eigentlich nur die Vertikalen Linien ( oder Inversion, wie es scheinbar wirklich genannt wird ) die mich stören.

Hier mal ein Bild von mir, wie das aussieht bei Vertikalen Linien/der Inversion.

Ohne vertical lines: https://drive.google.com/file/d/0Byp...ew?usp=sharing
Mit vertical lines: https://drive.google.com/file/d/0Byp...ew?usp=sharing

Das ist jetzt ein Foto meiner Taskbar, das zweite Bild zeigt prinzipiell auch das Problem so, wie es in Spielen zusehen ist bei Bewegung wenn man sich z.B. umschaut oder im Muzzle Flashes etc.
Das Problem kann man sozusagen forcieren, in dem man Clock and phase - Lagom LCD test öffnet und man dabei auf die Taskbar schaut
Dann entstehen, zumindest bei mir, diese Vertikalen Linien/die Inversion ( man muss aber schon etwas genauer hinschauen - Ich hab ein Sitzabstand von ca 70cm und da seh ich die Linien noch ziemlich gut - Bei mehr als 1 Meter würde ich sie vielleicht auch weniger Wahrnehmen, aber das ändert ja nichts daran das sie da sind und bei meinem alten XL2720Z z.B. nicht. )

Und wie gesagt, je niedriger die Hz Zahl des Monitors, desto deutlicher nimmt man diese Wahr.
Bei 60Hz ist es schon echt extrem sichtbar ( darunter sowieso ), bei 144Hz eher weniger aber man sieht es trotzdem noch.
Bei 60Hz braucht man noch nicht mal irgendwas zu bewegen um diese Linien in der Taskleiste oder sonst wo im Bild zusehen ( Je nach Hintergrund ist es deutlicher zusehen )
 
Was heisst "eigentlich" ?...bzw. eigentlich klingt nicht gut. Ggf. mal diverse Pics posten ...
Beide Links funzen leider nicht. Den "Clock & Phase-Test" findest Du auch im Eizo-Monitortest. Bei meinem Swift ist es egal, ob dieser mit 60,120 oder 144Hz taktet & ein sogenannter "Inversion-Effekt" kann ich an meiner Taskleiste nicht erkennen. Mein Abstand zum Moni beträgt ~60-70cm, aber auch wenn ich ganz nah
mit der Nase am Moni klebe, kann ich nichts erkennen. Ich nutze AERO mit einem Transparenzeffekt & kann wie gesagt nix erkennen. Falls möglich, dann wechsel mal das DP-Kabel & bei keiner Besserung stoße den Swift ab, lass diesen Austauschen oder alternativ leitest eine RMA ein ... :-)

addicTix schrieb:
Turbobutton hab ich jetzt auch verstanden wie der funktioniert, wenn sich auf dem Bildschirm nix bewegt dann wird bei einmaligem drücken nur die aktuelle Refresh-rate angezeigt, wenn sich z.B. der Maus-Cursor oder sonst irgendwas auf dem Monitor bewegt,
dann lässt sich bei einmaligem drücken die Refresh-Rate ändern...
Kann ich nicht bestätigen & für einen Wechsel sollte der Turbobutton 2x hintereinander gedrückt werden. Es wär auch äußerst unpraktisch, wenn man bspw. rechtshänder ist, die Maus rechts neben dem Keyboard platziert wurde & man da noch "das Mausfuchteln" praktizieren müsste.
Das würde nämlich nur mit der linken Hand gehen, also die Mausbewegung u. die rechte Hand würde den Turbobutton drücken. Wie gesagt ...einfach 2x hintereinander drücken & gut ist ... :-)

edit:
Poste mal von dem "Eizo-Monitortest" bitte folgende Pics ... :-)
 

Anhänge

  • Desktop_2015_07_27_09_03_35_559.png
    Desktop_2015_07_27_09_03_35_559.png
    63,9 KB · Aufrufe: 464
  • Desktop_2015_07_27_09_03_29_911.png
    Desktop_2015_07_27_09_03_29_911.png
    61,5 KB · Aufrufe: 436
  • Desktop_2015_07_27_09_03_03_700.png
    Desktop_2015_07_27_09_03_03_700.png
    59,3 KB · Aufrufe: 436
  • Desktop_2015_07_27_09_02_55_028.png
    Desktop_2015_07_27_09_02_55_028.png
    60,2 KB · Aufrufe: 468
  • Desktop_2015_07_27_09_00_38_743.png
    Desktop_2015_07_27_09_00_38_743.png
    50,3 KB · Aufrufe: 459
Zuletzt bearbeitet:
Bei dem 'Clock and Phase'-Test stelle ich auch einen Darstellungsmangel fest. Der Bereich mit dem feinen grauen Muster prägt sozusagen auch dem seitlich benachbarten Bildschirm so ein Muster auf. Auf der Taskleiste - die bei mir am linken Rand ist - kann ich es am leichtesten erkennen, aber vorhanden ist dieses Phänomen auch auf dem Desktophintergrund zwischen dem Browserfenster und der Taskleiste.

Dieses Muster würde ich eher als "Raster" denn als "vertikale Linien" beschreiben. Ist auch ziemlich geringfügig ausgeprägt, also im Grunde nicht wirklich störend, da ja nur bei so einem ungewöhnlichen Bild in Erscheinung tretend. Trotzdem sollte sowas natürlich nicht sein bei einem derart teuren Monitor. (Den ich außerdem nicht anständig befeuern kann, grafikkartenmäßig ...)
Ergänzung ()

Auch interessant:
Ich schalte zwischendurch, wenn ich absehbar eine Weile nicht vor dem Bildschirm sitze, diesen aus (während der PC weiter läuft). Gerade eben stellte ich fest, dass nach dem Einschalten alle Programmfenster verkleinert und in die linke Ecke verschoben waren ... Es gab also irgendeinen Grafiktreiber-Reset - warum auch immer. Ich habe mich sodann vergewissert, dass im Control-Panel alles passend eingestellt war bzw. habe es passend gemacht und wollte nochmal Witcher 3 testen.

Aber auf einmal war das 3D total vermurkst. Meiner laienhaften Einschätzung nach stimmte die Synchronisation zwischen Monitor und Shutterbrille überhaupt nicht mehr. Mehrmals neu gestartet, Spieleinstellungen und erneut Control-Panel gecheckt, keine ersichtlichen Fehler - großes Rätselraten.
Da ich mich dunkel erinnerte, dass es bei bestimmten Problemen mit diesem Monitor helfen soll, wenn man ihn ein paar Minuten komplett vom Strom trennt, versuchte ich das. Nach der Wiederinbetriebnahme waren wieder alle Fenster verkleinert und verschoben ... Außerdem erschien diesmal das Nvidia-Meldungs-Popup bezüglich der möglichen G-Sync-Nutzung; das war beim vorigen/ursprünglichen "Reset" nicht aufgetaucht. (Vielleicht war DA hinter meinem Rücken G-Sync aktiviert worden, frage ich mich jetzt? Und vielleicht war DAS die Ursache der 3D-Probleme?)

Abermals überprüfte ich alle relevanten Einstellungen und startete das Spiel. Bingo, jetzt funktioniert 3D wieder tadellos.
 
Zuletzt bearbeitet:
Das Problem kenne ich auch. Nach einer gewissen Zeit aktiviert sich der Bildschirmschoner und wiederum etwas später geht der Monitor in den Stand-by. Das funktioniert problemlos. Schalte ich den Monitor jedoch manuell aus und später wieder an, ist bei mir ebenfalls alles durcheinander - Treiberreset. Da ich es weiß, schalte ich den Monitor einfach nicht aus. Trotzdem sollte so etwas nicht vorkommen. Ich bin der festen Überzeugung, dass der Swift und G-Sync noch nicht wirklich ausgegereift sind und noch etwas mehr Entwicklungsarbeit benötigt gehabt hätten.
 
Swift und G-Sync hätten mehr Entwicklungszeit nötig gehabt ... Ja, das scheint so.

Nun kommt ja demnächst der Nachfolger, der vielleicht, eventuell, könnte sein tatsächlich ausgereifter ist. Aber wann kommt er? Und was wird er kosten? Wenn die Preise in der Anfangszeit wieder bei über 800€ liegen, ist mir das zu teuer. Zumal man ja für 3D noch Zubehör benötigt - Emitter und Brille.

Jedenfalls, da mein Swift-Exemplar zum einen nicht "perfekt" zu sein scheint - ok, was Gravierendes habe ich bis jetzt nicht gefunden, aber immerhin -, es zum anderen ein Riesenproblem ist, ihn (in 3D) adäquat anzutreiben (da SLI bis auf Weiteres nichts nützt), neige ich dazu, ihn zum Händler zurückzuschicken.
 
Ja, cb, SLI und der PG278 machen @ 3D nachweislich zicken und selbst mit ner 980 Ti @ Single sind die 1440p grenzwertig.

Ich würde den technischen Mangel, egal ob treiberseitig oder sonst woher, bei einem Gerät dieser Preislage nicht akzeptieren und dieses zurückschicken.

Gerade wenn 3D für dich ein MUSS ist, was ich bestens nachvollziehen kann, genieße die 980 Ti auf deinem alten VG278HR.
Damit hast du dann auch keine Performanceprobleme.
 
Die Frage ist wohl, ab wann ist es 'flüssig genug' (subjektiv)?

Witcher 3 ist bei mir mit "mittelhohen" Einstellungen durchaus spielbar. Für mich fühlt es sich aber leicht(!) ruckelig an. Ich hab' zuletzt auch mal die Auflösung auf die altbewährten 1080x1920 runtergesetzt - der Zuwachs an FPS, an Gleichmäßigkeit ist für mich völlig eindeutig wahrnehmbar. Und es sieht sogar noch passabel aus.

Im Übrigen korrespondieren meine Erfahrungen mit früheren: Witcher 3 hatte ich mit dem alten ASUS HN274 zu 95% mit "nur" 1 GTX 980 gespielt. Das war auch einwandfrei spielbar; nur fühlte es sich nicht so flüssig an, wie ich es mir wünschte. Mit der zweiten GTX 980 war dies leichte Manko behoben.

Ich muss zugeben, mir im Vorfeld nicht richtig klar gemacht zu haben, dass bei 1440x2560 fast doppelt so viele Pixel gestemmt werden müssen wie bei 1080x1920. Im Grunde ist es nur logisch, dass, wenn bei 1080p eine GTX 980 nicht (ganz) reicht (subjektiv..), bei 1440p auch eine GTX 980 Ti nicht (ganz) reicht (subjektiv).
 
Gerade Assetto und gerade Pcars ist trotz toller Optik extrem resourcenschonend.
Das liegt am Genre und dem schmal zu berechnenden Sichtfeld, welches optisch gut aussehen muss. Die rundherum karge Peripherie neben der Strecke kostet keine Leistung.

Das lief bei mir @ 3D Surround = 1,5 fache Auflösung deines PG278 mit 780 Sli @ 3D am 60 fps vsync.

Davon kann man bei den anderen neuen Games wie Witcher 3 und Co nur träumen.

Diese beiden Renngames sind diesbezüglich kein Maßstab.
 
Ok, waren ja auch nur Beispiele. Trotzdem denke ich, dass eine 980 Ti, die man heute ja auch in verschiedenen OC-Varianten bekommt, idR genug Leistung für alle Spiele hat, auch mit 2K und in 3d. Sicher wird man hier und da Kompromisse eingehen müssen, aber das finde ich noch akzeptabel und würde für mich nicht den Aufpreis zu einer zweiten Graka rechtfertigen, die dann auch noch mit Problemen wie Microrucklern Minuspunkte sammelt. Dann doch lieber ein paar Punkte bei der Grafik auf "Medium" stellen, was beim 3d-Effekt nicht so sehr ins Gewicht fällt. My two cents...

Bin nur mal gespannt, was passiert, wenn ich GTA5 ausprobiere...
 
Ein sogenannter Maßstab wäre "4K-Gaming", also 2160p, denn eine Auflösung @1440p mit 3D-Vision, benötigt ~solch eine Leistung.
Wer da "die Regler" nicht entsprechend bedienen kann & unbedingt "die Ultrakeule" schwingen muss, sollte sich mMn noch gedulden. Ärgerlich an der Geschichte von cb_username ist eigentlich nur, dass sein vorheriges 980er-SLI-Gespann,
in Kombination mit dem Swift, Probleme bereitet.
Wenn man sich einschränken kann & auf eine SGPU "angewiesen ist", dann kann da mMn dennoch Freude aufkommen.
Gradmesser ist da eigentlich HisN, der seit geraumer Zeit "diese Resi fährt", sich einschränken kann, AA deaktiviert & gute, spielbare Frames bekommt/erhält.
Er nutzt zwar eine TitanX, aber eine gut getaktete 980TI sollte da ebenfalls adäquate Leistung abliefern können.
Es wurde ja mMn auch schon richtig & passend angesprochen ..."Zur Not kann man sich da auch mal von der nativen Resi verabschieden" & erhält dadurch natürlich auch entsprechend mehr Performance oder mehr Spielraum bezüglich Settings.
Ich hab' zuletzt auch mal die Auflösung auf die altbewährten 1920x1080 runtergesetzt - der Zuwachs an FPS, an Gleichmäßigkeit ist für mich völlig eindeutig wahrnehmbar. Und es sieht sogar noch passabel aus.
Das waren bzw. sind auch meine Erfahrungen mit dem Swift & wie gesagt, ein recht passabler "Notnagel" ...Wie man anhand meiner Sig natürlich erkennen kann, daddel ich mit einer 970er u. kann da
in Summe nicht klagen, weil ich einfach entsprechende Regler oder Settings nutzen/anpassen kann. Zugegeben, ich daddle noch kein Witcher3 & die Games die ich bisher mit 3D gedaddelt habe, laufen für mein Empfinden tadellos.

Gerade wenn 3D für dich ein MUSS ist, was ich bestens nachvollziehen kann, genieße die 980 Ti auf deinem alten VG278HR.
Damit hast du dann auch keine Performanceprobleme.
Das halte ich für keine gute Idee & Ratschlag, aber das muss bzw. sollte natürlich jeder selber wissen ... :-)
 
Das darfst du nicht ausm Zusammenhang reißen. Der Grund meiner Aussage bezieht sich auf ein technisches Problem des PG 278 @ SLI @!3D und steht ja in den Zeilen darüber:

Ja, cb, SLI und der PG278 machen @ 3D nachweislich zicken und selbst mit ner 980 Ti @ Single sind die 1440p grenzwertig.

Ich würde den technischen Mangel, egal ob treiberseitig oder sonst woher, bei einem Gerät dieser Preislage nicht akzeptieren und dieses zurückschicken.
 
Ja, cb, SLI und der PG278 machen @ 3D nachweislich zicken und selbst mit ner 980 Ti @ Single sind die 1440p grenzwertig.
Wenn SLI unabdingbar ist u. man sich nicht einschränken kann, dann kann wohl auch folglich keine Zufriedenheit einkehren & da sollte man dann wohl ggf. gar nicht lange fackeln & den Moni einfach abstoßen.
Möglicherweise wird mit kommende "Swift-Modelle" oder TreiberUps diesbezüglich Besserung einkehren, aber das bleibt wohl abzuwarten ... :-)
Nun kommt ja demnächst der Nachfolger, der vielleicht, eventuell, könnte sein tatsächlich ausgereifter ist. Aber wann kommt er? Und was wird er kosten? Wenn die Preise in der Anfangszeit wieder bei über 800€ liegen, ist mir das zu teuer. Zumal man ja für 3D noch Zubehör benötigt - Emitter und Brille.
Ca. 3-4 Quartal & es wird mehrere "Ausbaustufen" geben (2160p & 1440p). Preislich sicherlich ~800€+, aber ich würde mal sagen, bei einem 980TI-SLI-Gedanken vermutlich nicht der Rede wert & ein passendes KIT hast Du ja schon ... :-)

@addicTix
Wie siehts aus ...?
 
Ich würde schon sagen, dass für 3D @1440x2560 mit der aktuellen Graka-Generation (und erst Recht mit älteren) SLI unbedingt erstrebenswert ist. Sonst läuft's entweder nicht wirklich glatt (--> FPS), oder man muss die Grafikeinstellungen im Spiel so stark verringern, dass es zu mehr oder weniger deutlich sichtbaren Einbußen kommt - wozu dann der ganze Aufwand für so einen Monitor?
Bei den von mir beschriebenen Eindrücken ist ja noch zu bedenken, dass Witcher 3 in puncto Grafikkarte(n) nicht einmal das anspruchsvollste Spiel ist.

Preislich sicherlich ~800€+, aber ich würde mal sagen, bei einem 980TI-SLI-Gedanken vermutlich nicht der Rede wert & ein passendes KIT hast Du ja schon ... :-)
Meine rundum überzeugende Palit 980 Ti ist eine gute Gebrauchte (635,-€). Wenn ich eine zweite 980 Ti dieser Güte zum "Schnäppchenpreis" ergattern könnte, würde ich mich vielleicht zum Kauf verleiten lassen ...

ABER: Man könnte vermutlich auch mit schnöden GTX 980 in SLI sehr brauchbare Ergebnisse erzielen - wenn SLI bei einem Spiel gut funktioniert (und der Monitor keinen Strich durch die Rechnung macht). Zwei nette GTX 980 bekommt man gebraucht mittlerweile für etwas mehr als den Neupreis einer (der besseren) 980 Ti.

Mein Swift-Monitor ist "refurbisched", also im Grunde auch gebraucht. Hat mich 540€ gekostet. 600€ (oder geringfügig mehr) wäre mir der Spaß auch noch wert, vorausgesetzt, ich bekomme ein in jeder Hinsicht gutes Gerät.
Aber 800€ (oder mehr..), da wird's für mich persönlich extrem grenzwertig ...
 
Sonst läuft's entweder nicht wirklich glatt (--> FPS), oder man muss die Grafikeinstellungen im Spiel so stark verringern, dass es zu mehr oder weniger deutlich sichtbaren Einbußen kommt - wozu dann der ganze Aufwand für so einen Monitor?
Weil es vielleicht nicht nur 3D-Gaming gibt? Ich sehe diese Möglichkeit als Option/Gimmick & kann mich auch wunderbar @2D austoben. Aber klar, jeder tickt da auch nicht gleich & man sollte nicht von sich selber auf andere schließen.
Falls 3D für Dich unabdingbar ist, dann könntest Du auch noch deinen vorherigen 1080p ASUS-Moni, welcher 3D-fähig ist, einspannen ... :-)

Bei den von mir beschriebenen Eindrücken ist ja noch zu bedenken, dass Witcher 3 in puncto Grafikkarte(n) nicht einmal das anspruchsvollste Spiel ist.
Wo "hakt es denn noch", außer beim Hexer, dass da eine SGPU in Form von einer 980TI keine Zufriedenheit aufkommen lässt? Wie bereits angesprochen ...Wenn man sich im Bereich "Bling-Bling" nicht einschränken kann, dann könnte man immer noch von der nativen Resi/Auflösung abweichen.
Zusätzlich werden kommende SGPU-Lösungen ja auch nicht langsamer bzw. der Markt stagniert ja im Bereich Leistung nicht ... :-)
Abschließend ..."PC-Gaming" & das auch noch "mit gewissen Ansprüchen", kostet auch entsprechend & entweder man ist bereit zu investieren oder schränkt sich entsprechend ein. Ich würde Dir raten, stoße den Swift ab/trenne Dich von dem Moni, denn sonst wirst Du nicht glücklich ... ;-)
 
Ich weiß grad nicht, was das hier ist ... 'Ne Diskussion? Ein Streit? Beratung (von Deiner Seite)?

Ich habe zumindest im letzten Beitrag ausdrücklich geschrieben, dass es (mir) um's 3D-Spielen geht. Und ja, für mich kommt "2D" praktisch nicht mehr in Betracht; das ist in meinen Augen Grafik-Steinzeit. ;-)
Den Monitor würde ich - naheliegenderweise - auch in allererster Linie erneuern, um beim Spielen ein noch schöneres visuelles Erlebnis zu haben. Wer hätte das gedacht? :-)
Dass man damit auch einen geräumigeren Desktop erhält - und in meinem Fall auch ein besseres Bild --> Farben usw. -, ist ein willkommener Zusatznutzen, nicht das eigentliche Ziel.

Also ist für mich die gesamte Performance beim 3D-Spielen entscheidend. Und hier lässt sich einfach nicht drumherum reden: Dass der PG278Q in 3D mit SLI-Systemen nicht vernünftig zusammenarbeitet, ist ein schwerwiegender Nachteil. Das darf man doch ruhig sagen, ohne dass sich die zufriedenen Besitzer auf die Füße getreten fühlen müssen?

Natürlich kann es sein, dass die nächste Graka-Generation so viel leistungsfähiger wird, dass man dann auch mit einer einzelnen Karte den Swift (in aktueller Inkarnation) "souverän" (in 3D!) antreiben kann. Aber das ist nicht wirklich absehbar. Und wenn ich auf sowas warten muss, um den Monitor so zu nutzen, wie es für mich einzig Sinn macht, dann warte ich halt auch noch solange mit dem Monitorkauf.

Oder ich hole mir, sobald verfügbar, einen anderen 1440p-Monitor, der leichter zu handhaben ist. Nein, halt, nicht sobald verfügbar, sondern erst, wenn zu "vernünftigen" Preisen verfügbar. ;-)

Jawohl, ich werde den Swift, den ich zurzeit hier habe, wohl nicht behalten. Das hab' ich auch schon mal gesagt, weiter oben. (Oder in 'nem anderen Thread?)
Zum einen, weil er zumindest einen der verbreiteten Darstellungsmängel hat, zum anderen, weil man ihn eben wegen des SLI-Problems bis auf Weiteres nicht adäquat antreiben kann - in 3D!
 
Ich weiß grad nicht, was das hier ist ... 'Ne Diskussion? Ein Streit? Beratung (von Deiner Seite)?
Ich würde dazu sagen einen Austausch & diverse Ratschläge. Von Streit kann ich nix erkennen bzw. sieht das bei mir anders aus ... ;-)

Dass der PG278Q in 3D mit SLI-Systemen nicht vernünftig zusammenarbeitet, ist ein schwerwiegender Nachteil. Das darf man doch ruhig sagen, ohne dass sich die zufriedenen Besitzer auf die Füße getreten fühlen müssen?
Natürlich darf man das sagen & ganz besonders in einem Forum ... ;-)

Oder ich hole mir, sobald verfügbar, einen anderen 1440p-Monitor, der leichter zu handhaben ist. Nein, halt, nicht sobald verfügbar, sondern erst, wenn zu "vernünftigen" Preisen verfügbar. ;-)
Achte dann unbedingt auf eine mögliche 3D-Option ... ;-)

Jawohl, ich werde den Swift, den ich zurzeit hier habe, wohl nicht behalten. Das hab' ich auch schon mal gesagt, weiter oben. (Oder in 'nem anderen Thread?)
Und das wurde Dir jetzt auch schon mehrfach angeraten. Auf den Punkt gebracht ...der Swift ist für dein Nutzerprofil nix & dann sollte man natürlich auch entsprechend handeln ... :-)
 
Zurück
Oben