4K oder 1440p? 27" oder mehr

Gamerock schrieb:
Wenn der Acer XF270HUA tatsächlich das M270DAN02.6 panel verwendet, ist es ein ziemlicher Geheimtipp für alle die auf FreeSync setzen oder auf G-Sync verzichten können.

Du kannst mit AMD eh nicht vernünftig auf WQHD zocken. Das Video wo jemand eine RX 580 @ 1425 MHz (also fast schon max oc) in Rise of the Tomb Raider @ 1440 p getestet hat, hat mir schon wieder gereicht. Die 300 - 330 Euro Karte schaffte gerade mal 30 - 40 FPS.

Wenn ich da eine GTX 1080 die mit Cashback und Gameverkauf gerade mal knappe 400 Euro kostet sehe, wird mir richtig schlecht. Und dann sage mir noch einer Nvidia zockt ab. Ich finde, dass das P/L-Verhältnis bei Nvidia wesentlich besser ist.

Unter Vega wird bei der Auflösung mit einer AMD Grafikkarte keine gute Spielbarkeit rumkommen.
 
Zuletzt bearbeitet von einem Moderator:
Ja, der XF270HUA hatte einen leichten Gelbstich, den man auch nicht rausbekommen soll. Liegt vermutlich an einer Folie. Bin mir aber ziemlich sicher, dass der Gelbstich den meisten nicht auffallen würde. Die Bildqualität des XB271HU fand ich insgesamt jetzt nicht wesentlich besser.

asus1889 schrieb:
Du kannst mit AMD eh nicht vernünftig auf WQHD zocken. Das Video wo jeman eine RX 580 @ 1425 MHz (also fast schon max oc) in Rise of the Tomb Raider @ 1440 p getestet hat, hat mir schon wieder gereicht. Die 300 - 330 Euro Karte schaffte gerade mal 30 - 40 FPS.

Wenn ich da eine GTX 1080 die mit Cashback und Gameverkauf gerade mal knappe 400 Euro kostet sehe, wird mir richtig schlecht.

Unter Vega wird bei der Auflösung bei AMD keine gute Spielbarkeit rumkommen.

Da kann ich nur zustimmen. Ich habe eine GTX 1070 und die reicht so gerade eben für ein (meiner Meinung nach) gutes Spielerlebnis in WQHD mit relativ hohen Grafikeinstellungen. Mit einer RX 480 oder RX 580 wäre das dann schon nicht mehr ganz so flüssig alles und für mich persönlich grenzwertig.
 
Zuletzt bearbeitet:
Marcus Hax0rway schrieb:
Ja, der XF270HUA hatte einen leichten Gelbstich, den man auch nicht rausbekommen soll. Liegt vermutlich an einer Folie. Bin mir aber ziemlich sicher, dass der Gelbstich den meisten nicht auffallen würde.

War dieser Gelbstich auch auf dem XB271HU vorhanden?
 
@Marcus Hax0rway

Und die GTX 1070 ist besonders übertaktet sehr viel schneller als eine RX 580. Die GTX 1080 OC ist dann noch mal eine Schüppe schneller als die GTX 1070 OC. Der RX580 8 G dürfte selbst als bestes custom Design keine 200 Euro kosten. Eher 150 - 170 Euro.

Schon non OC ist die GTX 1070 sehr weit von der RX580 entfernt. Die popelige AMD geht maximal auf 1450 - 1475 MHz. Die Nvidia geht bis mindestens 2 GHz und hat von Grund auf einen viel besseren Chip. Also bewirkt OC pro Takt wesentlich mehr als bei der RX 580.
 
Zuletzt bearbeitet von einem Moderator:
Gamerock schrieb:
War dieser Gelbstich auch auf dem XB271HU vorhanden?

Nein betrifft nur den XF270 und den XB270.
Ergänzung ()

Marcus Hax0rway schrieb:
Da kann ich nur zustimmen. Ich habe eine GTX 1070 und die reicht so gerade eben für ein (meiner Meinung nach) gutes Spielerlebnis in WQHD mit relativ hohen Grafikeinstellungen. Mit einer RX 480 oder RX 580 wäre das dann schon nicht mehr ganz so flüssig alles und für mich persönlich grenzwertig.

Kann ich so nicht sagen bei mir läuft alles auf hoch mit 60FPS muss auch sagen das ich nicht jedes spiel spiele.

Und TR ist wieso ein krüppel aber noch ganz gut mit 40FPS spielbar was die wenigsten spiele sind.

Aber ich brauch auch kein AA was ordentlich leistung freischaufelt.

Zocke ja sogar in 4K damit bei um die 40-60FPS gut für den einen reicht das nicht ich kann damit noch leben.

Also ich würde das *reich oder reicht nicht* nicht verallgemeinern.
 
Zuletzt bearbeitet:
Ich spiele im Moment etwas Mafia 3. Habe letztens mal spaßeshalber 4K in dem Spiel ausprobiert und hatte auf den niedrigsten Grafikeinstellungen ohne Anti-Aliasing um die 40 FPS mit einer übertakteten GTX 1070. Habe so kaum Gegner getroffen, die sich bewegt haben, also ich könnte so nicht spielen, aber da ist jeder anders.
 
Mafia 3 hatte auch auf einer GTX 1080 mit 2,05 GHz GPU Takt nur knappe 50 FPS avg @ 1440 p. Eigentlich bräuchte man schon optimalerweise eine GTX 1080 Ti, aber die hat leider bald, wenn Volta Ende des Jahres kommt oder eine gute und günstige (was ich wegen HBM2 bezweifele) Vega im Mai/Juni kommt, einen sehr hohen Wertverlust. Viel mehr als die GTX 1080 für knappe 400 Euro. Deswegen nicht sehr empfehlenswert.
 
Zuletzt bearbeitet von einem Moderator:
Die Performance scheint sich ordentlich verbessert zu haben, da ich jetzt mit der GTX 1070 im Schnitt 60-65 FPS habe in WQHD + Max. Settings.
 
Dazu kann ich nix sagen Mafia spiele ich nicht.
Und wenn man bei WQHD bleibt dann sind da auch 60FPS drinne wenn man alles auf Hoch hat statt maxed.

Klar bei 4K siehts bissel anders aus aber wie gesagt ich spiel auch nicht jedes neue spiel meistens hänge ich in BF1,Dota oder DayZ ab und die laufen alle super auf 4k und sehen sehr geil aus.

Klar kann das nächste spiel auf 4K dann nicht mehr so fluppen aber das muss man vorher wissen.
Will ich jedes neue spiel spielen in 4K würde ich auch ne andere GPU in betracht ziehen aber da meine *main* spiele alle fluppen wozu denne ne andere GPU.

Zumal bei AMD eh grad tote Hose ist mit bessere GPU als 480...
 
Bei 4 K schafft gerade mal eine GTX 1080 Ti max OC knappe 50-60 FPS in "neueren" Spielen. Eine RX580 wird da wohl bei 20 - 30 FPS (tendenziell eher 20 FPS) rumkrebsen.
 
Blood011 schrieb:
Zumal bei AMD eh grad tote Hose ist mit bessere GPU als 480...

Zum Glück gibt es nicht nur einen GPU-Hersteller. :p
Klar, da muss man dann wieder einen Aufpreis wegen G-Sync zahlen, aber wer High-End-Performance und High-End-Auflösung will, muss dementsprechend auch bereit sein, High-End-Preise dafür zu zahlen.

Wird bei Vega allerdings auch nicht anders sein. Denke nicht, dass Vega plötzlich nur die Hälfte einer gleichwertigen Nvidia-Karte kosten wird, besonders mit HBM nicht.
 
Zuletzt bearbeitet:
Für G-Sync bezahlt man auch nur einmal. Das Problem bei AMD ist, dass sie kontunierlich nicht neue Grafikkarten liefern. Die RX 580 ist einfach nur eine Art tdpshrink einer R390. AMD liefert schon seit 2015 nicht mehr performance. Und diese war damals mit einer spulenfiependen Referenzplatine und einer GPU mit maximal 50 - 75 MHz OC kombiniert. Sodass selbst eine übertaktete GTX 980 Ti schon wesentlich schneller war und vorallem wesentlich leiser war.

Aufgrund des teuren HBM Speichers krebst diese ehemalige AMD Highendkarte (Fury X) immer noch bei 500 - 600 Euro Verkaufspreis rum. Von der Leistung her müsste der Preis bei maximal 250 Euro liegen. Vom Stromverbrauch und der Akustik her bei maximal 200 Euro.

AMD hat immer noch nicht kapiert, dass man mit teurem HBM nicht auf dem Markt bestehen kann und auf Dauer auch den Preis nicht auf Nvidia Niveau senken kann.

Marcus Hax0rway schrieb:
Wird bei Vega allerdings auch nicht anders sein. Denke nicht, dass Vega plötzlich nur die Hälfte einer gleichwertigen Nvidia-Karte kosten wird, besonders mit HBM nicht.

Vega wird mindestens 600 - 700 Euro kosten. Und außerdem wird kaum OC möglich sein. AMD hat die Effizienz auch bei Ryzen immer noch nicht kultiviert. Sprich es sind nur wenige Promille OC möglich.

Vega wird wie Fury ein riesiger, heizender Monsterchip sein, der sich wieder mal kaum übertakten lässt.

Selbst beim winzigen Polaris Chip ist es AMD auch mit dem Refresh nicht gelungen nur annähernd in Nvidias OC Regionen vorzustoßen. 1,45 - 1,475 GHz vs. 2,0 - 2,08 GHz sprechen für sich ;).

Und trotz des geringen Takts und der geringen Leistung verbrät der RX580 Strom ohne Ende.
 
Zuletzt bearbeitet von einem Moderator:
Marcus Hax0rway schrieb:
Zum Glück gibt es nicht nur einen GPU-Hersteller. :p
Klar, da muss man dann wieder einen Aufpreis wegen G-Sync zahlen, aber wer High-End-Performance und High-End-Auflösung will, muss dementsprechend auch bereit sein, High-End-Preise dafür zu zahlen.

Wird bei Vega allerdings auch nicht anders sein. Denke nicht, dass Vega plötzlich nur die Hälfte einer gleichwertigen Nvidia-Karte kosten wird, besonders mit HBM nicht.

Tja und bei 4k+G-sync muss man wieder AUO Panel nehmen...und bezahlt mal locker 300€ mehr...

Man könnte ja noch ne 2te 480 in betracht ziehen aber jedesmal sich rumärgern wenn das nicht geht in Games nervt auch..
 
Das stimmt, aber es gibt sowie so kaum Grafikkarten die moderne Spiele ansehnlich bei 4 K @ 60 FPS bewerkstelligen können.

Wenn man hingegen ältere Spiele @ 4 K spielt, kann man das machen und das ist dann gegenüber 2 K sicherlich auch ein Augenschmauß.

Eine zweite Grafikkarte ist nie eine gute Idee, da es Ruckler ohne Ende gibt. Habe ich damals schon mit 2 x 980 Ti @ 4 K getestet. Es war zum :kotz:. Das mehr an Leistung wurde komplett durch das permanente, starke Geruckel zerstört. Ich würde so ein Multi GPU System nie wieder zum Spielen verwenden.
 
Zuletzt bearbeitet von einem Moderator:
Sehr ansehnlich sehen die Games schon aus auf 4K also nen ganzes stück besser als auf WQHD.

Von der Seite kann ich nicht meckern.

Ja das ist es mit Multi GPU der Stromverbrauch würde mich ja noch nicht mal so stören aber wenn das kaum funktioniert dann kann man sich das sparen.
 
Outlast 2 auf dem Dell S2716DG :lol::

900x900px-LL-455b737f_34249246756_4762937b1e_b.jpeg


Das Bild zeigt auch das Banding :kotz::

900x900px-LL-edbfafcc_IMG_3145.jpeg
 
Zuletzt bearbeitet von einem Moderator:
Ganz so krass sieht es bei mir zum Glück nicht aus. :D Sieht mir nach Revision A04 mit noch stärkerem Banding und schwächerer Pixel Inversion aus. Werde es aber trotzdem erst weiterspielen, wenn ich ein VA-Panel habe. Das Game macht weder auf dem Dell noch auf dem Acer wirklich Spaß.
 
Wie es aussieht kann man echt kein 144 - 240 Hz TN Panel mehr nehmen, sofern man kein Progamer ist und es nur auf kills/stats/wins ankommt.
 
LOL wasn das sowas hat noch nicht mal mein 7Jahre alter TN Monitor...^^

Meine etwas Banding ist ja normal da es wirklich nur mit 10Bit ganz weg ist aber so wie beim Dell das kann nicht normal sein.

Und da gibts echt Leute die meinen das se kein banding haben^^

Also bei meinen anderen monitore muss ich schon sehr genau hinschauen um banding zu erkennen das ist so minimal das es garnicht auffällt.
 
Zurück
Oben