Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Neue Grafikkarte für Wqhd?
- Ersteller Tirreg420
- Erstellt am
N
Noninterlaced
Gast
Ich sags mal so, es gibt von namhaften Herstellern NTs, die nicht viel besser sind, aber mehr kosten.
Ich weiß, durch Tests, auch von hier, daß bestimmte Xilence Modelle echt gut abschneiden, und keine China Böller (mehr) sind.
Wenn es daher etwas enger im Geldbeutel ist, und es keine HighEnd HW ist, auch von der abverlangten Leistung her nicht, finde ich die halt ne vernünftige, preislich attraktive Alternative.
Und mal was anders als das was sonst hier empfohlen wird, und im bisherigen Ratgeber ist das A+ III auch drin gewesen. Und bevor sich jemand ein MARS gaming NT antut, soll er lieber zu Xilence greifen.
Ich weiß, durch Tests, auch von hier, daß bestimmte Xilence Modelle echt gut abschneiden, und keine China Böller (mehr) sind.
Wenn es daher etwas enger im Geldbeutel ist, und es keine HighEnd HW ist, auch von der abverlangten Leistung her nicht, finde ich die halt ne vernünftige, preislich attraktive Alternative.
Und mal was anders als das was sonst hier empfohlen wird, und im bisherigen Ratgeber ist das A+ III auch drin gewesen. Und bevor sich jemand ein MARS gaming NT antut, soll er lieber zu Xilence greifen.
wrglsgrft
Admiral
- Registriert
- Feb. 2019
- Beiträge
- 8.282
Aha, komisch... Mit meiner RTX 2070 komme ich dafür erstaunlich gut zurecht...PTS schrieb:Eine 3440x1440 Auflösung wie bei dem 34" Monitor, da wirste nicht glücklich mit so einer mittelklasse-grafikkarte.
Für diese Spiele sind Grafikkarten wie die 6700 XT auch für UWQHD absolut in Ordnung.Tirreg420 schrieb:Welche Spiele genau? Overwatch, Conan Exiles, Cod, LoL, Minecraft
Das wäre übrigens UWQHD mit 21:9. WQHD hat 16:9 und 2560x1440.Tirreg420 schrieb:WQH (3440x1440)
Von WQHD sind es rechnerisch grob 30 % mehr Pixel auf UWQHD. Dementsprechend hat die Grafikkarte mehr zu tun. Aber wie oben schon erwähnt, spiele ich mit einer RTX 2070 (vergleichbar mit einer RTX 3060 bzw. RX 6600) auf UWQHD mit den von dir gewünschten Einstellungen und fps. Das passt schon ganz gut.
Bei aktuellen AAA-Spielen kann das aber auch ganz anders aussehen (siehe den Technik-Test zu Forspoken hier auf CB).
wrglsgrft schrieb:Aha, komisch... Mit meiner RTX 2070 komme ich dafür erstaunlich gut zurecht...
Na wenn dir lowfps reichen in neueren games, hf
mir hat nicht mal eine 3080 so wirklich gereicht, hab ja kein bock die grafik settings immer runter schrauben zu müssen.
mit ner rtx 2070 in cyberpunk beispielsweise kommste nicht weit in der auflösung, sieht auch nicht anders aus bei neueren games aber jeder wie er mag =)
Vor allem wenn man dann noch nen 144hz oder mehr Monitor hat, dann will man ja nicht weniger fps als die hz-zahl haben, sonst brauch man so einen monitor ja gar nicht ne?
wrglsgrft
Admiral
- Registriert
- Feb. 2019
- Beiträge
- 8.282
Und um genau die geht es hier aber nicht:PTS schrieb:neueren games
Tirreg420 schrieb:Möchtest du mit der Grafikkarte spielen?
- Welche Spiele genau? Overwatch, Conan Exiles, Cod, LoL, Minecraft
Was für ein Käse... Von einem 144 Hz-Monitor profitiert man auch, wenn man nur mit 75 Hz spielt. Tearing wird dadurch massiv vermindert. Und von der höheren Bildrate profitiert man genau so bei weniger fps.PTS schrieb:Vor allem wenn man dann noch nen 144hz oder mehr Monitor hat, dann will man ja nicht weniger fps als die hz-zahl haben, sonst brauch man so einen monitor ja gar nicht ne?
wrglsgrft schrieb:Was für ein Käse... Von einem 144 Hz-Monitor profitiert man auch, wenn man nur mit 75 Hz spielt. Tearing wird dadurch massiv vermindert. Und von der höheren Bildrate profitiert man genau so bei weniger fps.
selten so einen Quatsch gelesen, du brauchst 144fps damit die 144hz angesprochen werden, sonst wiederholen die bilder sich.
Wenn ich bei mir mit 60fps spiele und 144hz habe, merke ich nen extremen unterschied zu 144fps, es ist einfach nicht flüssig dann, es fühlt sich dann genauso wie auf meinem 2. monitor mit 60hz an, da gibt es null unterschied aber kannst gerne bei deiner meinung bleiben, allerdings ist die schlicht weg falsch in der praxis.
wrglsgrft
Admiral
- Registriert
- Feb. 2019
- Beiträge
- 8.282
Trotzdem hast du deutlich weniger Tearing, weil der Monitor öfter aktualisiert und dadurch eine flüssigere Darstellung.PTS schrieb:selten so einen Quatsch gelesen, du brauchst 144fps damit die 144hz angesprochen werden, sonst wiederholen die bilder sich.
Dann machst du was falsch.PTS schrieb:Wenn ich bei mir mit 60fps spiele und 144hz habe, merke ich nen extremen unterschied zu 144fps, es ist einfach nicht flüssig dann, es fühlt sich dann genauso wie auf meinem 2. monitor mit 60hz
Nope.PTS schrieb:allerdings ist die schlicht weg falsch in der praxis.
Soll ich dir die Kresse reichen?
Schon oft gelesen und noch nie festgestelltwrglsgrft schrieb:Trotzdem hast du deutlich weniger Tearing, weil der Monitor öfter aktualisiert und dadurch eine flüssigere Darstellung.
Wenn min/max zu jeder Zeit 60FPS haben würde ich bei einem Blindtest wohl versagen.
Egal ob mit 60/100/165Hz...ich kann da beim zocken keinen Unterschied feststellen. Auf dem Desktop ist das eine ganz andere Sache.
Zuletzt bearbeitet:
Es kommt auch auf das Spiel an. Hatte die letzten Tage Deathloop, Darktide und Cyberpunk gespielt. Habe mit Radeon Chill die FPS auf 85-142 FPS eingestellt. Chill passt die FPS an, je nachdem ob viel oder wenig Bewegung stattfindet (mehr Bewegung= mehr fps) Bei Darktide und Cyberpunk überhaupt kein Problem.
Bei Deathloop musste ich die untere Grenze von Chill auf 100 fps anheben, weil ich sonst eine starke Irritation auf den Augen gespürt habe, die das Spielen nach kurzer Zeit unmöglich gemacht hat.
Woran das nun genau lag weiß ich nicht. Mit dem alten PC hatte ich selten mehr als 50fps und nie Probleme.
Bei Deathloop musste ich die untere Grenze von Chill auf 100 fps anheben, weil ich sonst eine starke Irritation auf den Augen gespürt habe, die das Spielen nach kurzer Zeit unmöglich gemacht hat.
Woran das nun genau lag weiß ich nicht. Mit dem alten PC hatte ich selten mehr als 50fps und nie Probleme.
wrglsgrft
Admiral
- Registriert
- Feb. 2019
- Beiträge
- 8.282
Ich hatte das zuletzt bei Icarus festgestellt. Läuft bei mir nur mit ca. 60 fps. Ich bin in der Zeit umgezogen und wegen umstöpseln lief mein Monitor die ersten Tage nur mit 60 statt 144 Hz. Aufgefallen ist es mir dann, weil ich in Icarus auf einmal massives Tearing hatte. Wieder auf 144 Hz gestellt und das Tearing war Geschichte.DaHell63 schrieb:Wenn min/max zu jeder Zeit 60FPS haben würde ich bei einem Blindtest wohl versagen.
Egal ob mit 60/100/165Hz...ich kann da beim zocken keinen Unterschied feststellen. Auf dem Desktop ist das eine ganz andere Sache.
Als ich noch meine 2 27"er hatte konnte man das auch super sichtbar machen. Den einen auf 60 Hz runter regeln, Bild spiegeln und was spielen. Den Unterschied hat immer sofort jeder gesehen.
Tearing hatte ich nie, hab auch Freesync aktiviert. Es war vom Gefühl eher so, als ob man auf einen stark flimmernden Bildschirm schaut ohne das man ein Flimmern sieht.
Kann es auch mit der Texturfülle zu tun haben? Deathloop hat ja weniger Texturen als Darktide oder Cyberpunk.
Kann es auch mit der Texturfülle zu tun haben? Deathloop hat ja weniger Texturen als Darktide oder Cyberpunk.
wrglsgrft schrieb:Trotzdem hast du deutlich weniger Tearing, weil der Monitor öfter aktualisiert und dadurch eine flüssigere Darstellung.
Was soll denn der Monitor da aktualisieren wenn es dann 2x die gleichen Bilder beinhaltet, dadurch entsteht für das Auge eben die Ruckler, hast du nur 100fps beispielsweise bei einem 144hz monitor, fehlen einfach 44 Bilder und von den 100 erscheinenden Bilder doppelten sich dann einige Bilder, da kannste dann lieber auf 100hz runter stellen und es wirkt besser als auf 144hz. Deine These ist kompletter Käse.
Anders rum würde ich es ja noch verstehen, z.b. man hat nen 60hz monitor und spielt mit 300fps, dann ist wenigstens der input lag besser.
wrglsgrft
Admiral
- Registriert
- Feb. 2019
- Beiträge
- 8.282
@PTS
Du hast scheinbar einige grundsätzliche Dinge noch nicht verstanden. Angefangen damit, dass die Bildausgabe der Grafikkarte etwas absolut unregelmäßiges ist, über die Tatsache wie Tearing entsteht bis zu dem Zusammenhang, wie Bildausgabe der Grafikkarte und des Monitors korrelieren.
Ich stelle hier auch keine These auf, sondern gebe eine Tatsache wieder. Bloß weil du das nicht verstehst, ist das deswegen nicht automatisch falsch.
Ich werd das jetzt nicht mehr weiter ausführen. Fakt ist, dass man von einer höheren Bildrate des Monitors auch bei niedrigeren fps ohne jegliche Synchronisation profitiert.
Aus diesem Grund und aufgrund der Tatsache, dass @Tirreg420 ohnehin eher ältere Spiele spielt kann er also bedenkenlos zu einer Mittelklasse-Grafikkarte und einem Monitor mit hoher Bildwiederholfrequenz greifen.
Du hast scheinbar einige grundsätzliche Dinge noch nicht verstanden. Angefangen damit, dass die Bildausgabe der Grafikkarte etwas absolut unregelmäßiges ist, über die Tatsache wie Tearing entsteht bis zu dem Zusammenhang, wie Bildausgabe der Grafikkarte und des Monitors korrelieren.
Ich stelle hier auch keine These auf, sondern gebe eine Tatsache wieder. Bloß weil du das nicht verstehst, ist das deswegen nicht automatisch falsch.
Ich werd das jetzt nicht mehr weiter ausführen. Fakt ist, dass man von einer höheren Bildrate des Monitors auch bei niedrigeren fps ohne jegliche Synchronisation profitiert.
Aus diesem Grund und aufgrund der Tatsache, dass @Tirreg420 ohnehin eher ältere Spiele spielt kann er also bedenkenlos zu einer Mittelklasse-Grafikkarte und einem Monitor mit hoher Bildwiederholfrequenz greifen.
wuselsurfer
Admiral
- Registriert
- Juni 2019
- Beiträge
- 7.697
Ging mir auch gerade durch den Kopf.
Meine RX 6700XT nimmt maximal 185W, in Spikes 190W.
Dazu noch der Prozessor mit 65W und das bißchen Lametta drumherum.
Das sind die 288W vom HEC auf der 12V Schiene schon arg am Schwitzen.
Meine RX 6700XT nimmt maximal 185W, in Spikes 190W.
Dazu noch der Prozessor mit 65W und das bißchen Lametta drumherum.
Das sind die 288W vom HEC auf der 12V Schiene schon arg am Schwitzen.
Gibt es einen Test zu der Radeon RX 6700 XT Fighter? Ich habe die auch bestellt (noch nicht da). Wie ist die Lautstärke?Nickel schrieb:Die Karte ist gut.
Du wirst aber ein anständiges Netzteil brauchen.
Da kannst du dich diesbezüglich in der Netzteil Kaufberatung melden.
Danke
Gruß Marker
Ähnliche Themen
- Antworten
- 7
- Aufrufe
- 585
- Antworten
- 37
- Aufrufe
- 913
- Antworten
- 35
- Aufrufe
- 6.406
- Antworten
- 40
- Aufrufe
- 2.873