Upgrades für Ryzen 7 3700X / RX 5700XT Kombo?

Cubeikon schrieb:
Warum sollte man auf einer modernen GPU noch in 1080p zocken. Gibts dafür nicht DLSS?
Der Monitor entscheidet über die Auflösung, nicht die GPU.
4K hat viermal so viele Pixel wie FHD und braucht dafür entsprechend mehr Rohleistung. WQHD liegt irgendwo dazwischen. Die 4070 ist interessant für WQHD mit Raytracing und benötigt dafür schon DLSS.
Wenn du an 4K ohne Raytracing interessiert bist, sind Rasterleistung und VRAM das A und O. Da bist du mit einer 7800XT besser dran, wenn sie denn ins Gehäuse passt, besser wäre eine 7900 XT.
Bei einem 4K TV bietet es sich jedoch an, alles mit FHD wiederzugeben. Dann ist jedes Pixel genau doppelt so breit und hoch, bzw. wird mit 2x2 Pixeln dargestellt.
Auf große Entfernung ist ein flüssiges Spiel mit ultrahöhen Details und Raytracing Effekten m.M. mehr Wert als eine Ruckelpartie in 4K.
4K ohne Kompromisse ist ein teures Vergnügen.
 
  • Gefällt mir
Reaktionen: Cubeikon
Gut, dann korrigi
MehlstaubtheCat schrieb:
Du schreibst aber 4k Gaming, was willst du dann mit einer 4070?
Das macht doch gar keinen Sinn, das keine 4k Karte.

Ich schreibe WQHD bis 4K. Altes Zeug wie GTA 5 halt eher 4K und neueres wie BG3 in WQHD. Effekte über Bildauflösung ist der Plan.
 
Zuletzt bearbeitet:
An welchem Bildschirm hängt der Rechner? Ausschließlich am TV oder auch an einem WQHD Monitor?
Auf einem 4K TV kann man nicht in WQHD spielen, dass gibt Pixelbrei.
 
An einem 4K TV bleibt nur 4K oder FHD. Ältere Titel sollten mit einer 4070 oder 7800XT in 4K kein Problem sein. Wenn du allerdings Cyberpunk mit Raytracing spielen willst, musst du für 4K massiv mit den Settings runter UND Upscaling betreiben. Mit hohen oder ultrahohen Einstellungen bekommt man auch eine 4080 oder 4090 in die Knie.
Wenn du Raytracing und hohe Settings möchtest, würde ich zuerst prüfen, ob du mit deinem TV in FHD ein ausreichend gutes Bild hinbekommst und dann eine RTX 4070 nehmen. Allerdings limitiert dann der 3700X.
Für 4K wirst du auf Raytracing verzichten müssen. Dann bist du, wie bereits geschrieben, mit der 7800XT besser dran, sie ist schneller und hat mehr VRAM.
FHD mit Raytracing kann die Karte natürlich auch.
 
AMD-Flo schrieb:
Für 4K wirst du auf Raytracing verzichten müssen.
Wie kommst Du darauf?
a.jpgb.jpgc.jpgd.jpge.jpgf.jpg
 
  • Gefällt mir
Reaktionen: Technico
DaHell63 schrieb:
Wie kommst Du darauf?
Zumindest bei Spielen wie Phantom Liberty mit max. Details und Quality Upsampling.

Im Test sieht man gut, wie sich die 7800XT ohne RT von der 4070 absetzen kann, diese liegt hier auf dem Niveau einer 7700XT. Mit RT fällt die 7800XT jedoch weit hinter die 4070:

1702182985674.png


1702183008734.png

In der Computerbase Rangliste werden für 4K folgende Karten empfohlen:
Ohne RT eingeschränkt ab RTX 4070 Ti / RX 6950 XT
Ohne RT uneingeschränkt ab RTX 4080 / RX 7900 XT
Mit RT eingeschränkt ab RTX 4070 Ti / RX 7900 XTX
Mit RT uneingeschränkt ab RTX 4080

Die RTX 4070 ist hier bereits unter WQHD nur eingeschränkt empfehlenswert mit RT, denn "mit 12 GB haben die Grafikkarten aber eine potenzielle Sollbruchstelle für zukünftige Spiele mit RT".
 
Zuletzt bearbeitet:
Technico schrieb:
Und hier mit RT, DLSS und die 7800XT sieht nur Rücklichter.
Das bestreitet ja auch keiner.

Technico schrieb:
VRAM Märchen, siehe Post 8 ... YT.
Bezüglich des Videos:
Alle hier gezeigten Titel haben keine hohen VRAM Bedarf.
Zum Thema groß aber langsam bei 4:05: Nicht nur der Speichermenge sondern auch die Speicherbandbreite der RTX 4070 (Ti) ist niedriger als bei der 7800XT: 504 GB/s vs 621 GB/s, bei der 7900XT sind es sogar 800 GB/s.

Avatar: Frontiers of Pandora zeigt stellenweise extrem detaillierte Oberflächen, die auch eine ordentliche Portion Grafikkartenspeicher haben wollen. 8 GB sind für maximale Grafikdetails bereits in Full HD inklusive Upsampling nicht mehr zu empfehlen, mindestens 10 GB sollten es sein. Für WQHD empfiehlt die Redaktion 12 GB und für Ultra HD 16 GB.

Die Angaben sind keine Garantie, dass sie auch für eine längere Spielzeit ausreichend sind. Darüber hinaus ist zu bedenken, dass das Spiel sehr empfindlich auf geänderte Grafikoptionen reagiert. Zum Erstellen von Screenshots hat die Redaktion in Ultra HD mehrmals die Raytracing-Optionen umgestellt. Nach ein paar Wechseln quittierte die GeForce RTX 4080 dies nur noch mit einer einstelligen Framerate bis hin zum Absturz – der 16 GB große Speicher war übergelaufen, weil er beim Wechsel nie alle nicht mehr benötigten Daten gelöscht hatte.

Cyberpunk 2077: Phantom Liberty benötigt nach wie vor nicht besonders viel Grafikkartenspeicher. Bei reiner Rasterizer-Grafik sind 10 GB bis hin zu Ultra HD völlig ausreichend. Mit Raytracing wird dann etwas mehr VRAM veranschlagt, 12 GB sind aber weiterhin bis inklusive WQHD völlig ausreichend. Erst in Ultra HD wird es knapp, auf der sicheren Seite ist man erst mit 16 GB. Auch mit 12 GB läuft das Spiel oft noch ordentlich, doch kann es nach längerer Spielzeit oder nach dem Ändern der Grafikoptionen ohne Neustart zu einem VRAM-Mangel kommen.

Alan Wake 2: ComputerBase hat keine ausführlichen Untersuchungen zum VRAM-Verbrauch durchgeführt. Es deutet sich jedoch nicht an, dass dieser sonderlich hoch ist. Ohne Raytracing scheint mit einer 10-GB-Grafikkarte auf der sicheren Seite zu sein, mit den Strahlen gilt dies ab spätestens 16 GB. Eine Stufe niedriger scheint aber auch noch gut zu laufen, 8 GB ohne Raytracing und 12 GB mit Raytracing läuft zumindest bei kurzer Spieldauer absolut problemlos.

Hogwarts Lagacy: Apropos: Erwähnt werden muss noch der Grafikspeicher-Durst von Hogwarts Legacy, der seinesgleichen sucht. Erst bei einer Grafikkarte mit 16 GB läuft das Spiel problemlos, mit 12 GB fangen die Probleme bereits an und bei 8 GB muss man die schönsten Oberflächen gar nicht erst ausprobieren. Eine GeForce RTX 4070 Ti kommt bei maximaler Grafik in Ultra HD in Verbindung mit DLSS in Sachen Framerate zwar klar, jedoch werden dann nicht mehr alle Texturen geladen – bei der 900-Euro-Grafikkarte aus dem Januar müssen die Texturdetails reduziert werden.

The Last of Us Part I bietet sehr hoch aufgelöste Texturen, die viele Details zeigen. Das verlangt nach viel Grafikkartenspeicher, wie sich im Test gezeigt hat. Wirklich sorgenlos spielt es sich erst ab 16 GB, bei kleineren VRAM-Bestückungen müssen teils große Einbußen in Kauf genommen werden.

Besonders schlimm ist es bei Grafikkarten mit nur 8 GB, denn dann müssen die schönsten Texturen selbst in Full HD gar nicht erst ausprobiert werden. Der Einfluss auf die FPS ist noch zu vernachlässigen, die immer wieder auftretenden Haker aber nicht mehr – sie stören sehr.

Auch 10 GB sind noch nicht genug um glücklich zu werden. Immerhin Full HD schafft die damit vertretene GeForce RTX 3080 problemlos, doch bereits ab WQHD geht das Haken wieder los: Das Frametime-Verlaufsdiagramm zeigt, dass es immer wieder kleinere Ruckler im Spiel gibt.Wird in Ultra HD DLSS Quality hinzugeschaltet, werden die Haker deutlich größer. Das ist schade, denn Rohleistung hat die Grafikkarte genug, so müssen die Texturdetails herunter gedreht werden.

Mit 12 GB spielt es sich in UHD mit DLSS Quality haarscharf an der Grenze. Der Benchmark lief ohne Probleme, doch wurde im Grafikmenü im laufenden Spiel auch nur eine Option angepasst, lief der VRAM wiederholt über und das Spiel ruckelte. Damit ist nicht auszuschließen, dass die 12 GB nach einer längeren Spielzeit ebenso zu wenig sind – das hat sich beim Test nicht prüfen lassen. Ultra HD als Renderauflösung, also ohne Upsampling, ist direkt viel für 12 GB.
 
AMD-Flo schrieb:
Zumindest bei Spielen wie Phantom Liberty mit max. Details und Quality Upsampling.
Warum sollte der @TE an seinem 4K TV unbedingt DLSS/Q nehmen? Meine Screens sind von einer auf 160W gedrosselten RTX 4070Ti...also ungefähr RTX 4070 Level. Sogar mit Pathtracing und DLSS auf Performance.
Wenn man die Screens ansieht wüsste ich keinen Grund warum das unspielbar wäre. Bei einem TV hat man auch noch eine größere Entfernung als am Schreibtisch. Und wirklich vergleichbar sind da AMD/Nvidia nicht.

Cyberpunk.jpg
 
AMD-Flo schrieb:
Avatar: Frontiers of Pandora
Bin schon seit DIV 1 bei UBI und die Spiele laufen alle auf REP sind sehr schlecht optimiert.
Was nach und nach optimiert wird und am Ende läuft das Spiel auch mit 8 GB VRAM Karten.
Oder sollen etwa die Leute, die das spielen, sich alle neue Karten kaufen? Das glaube ich kaum.
Und warum sollte man sich eine 7800XT holen? ist doch gleich auf mit einer 4070, außer bei RT,DLSS.
Zudem knallt sich die 7800XT ca. ~~ 70 Watt mehr weg.


Keine 11GB VRAM :utrocket:

Hogwarts Legacy Full Ultra + RT FIX Uber settings 1440p DLSS 3.0

 
Zuletzt bearbeitet:
AMD-Flo schrieb:
Alle hier gezeigten Titel haben keine hohen VRAM Bedarf.
Zum Thema groß aber langsam bei 4:05: Nicht nur der Speichermenge sondern auch die Speicherbandbreite der RTX 4070 (Ti) ist niedriger als bei der 7800XT: 504 GB/s vs 621 GB/s, bei der 7900XT sind es sogar 800 GB/s.
Um mal bei der grandiosen Liste zu bleiben und den erst ab 16GB VRam reicht....mit 12GB VRam max mit Raytracing hat man Probleme.
Alan Wake.jpgCyberpunk.jpgHW.jpg

Mit AMD alles problemlos mit genügend FPS...man hat ja genug VRam.
 
Technico schrieb:
Was nach und nach optimiert wird und am Ende läuft das Spiel auch mit 8 GB VRAM Karten.
Wenn du meinst.
Technico schrieb:
Oder sollen etwa die Leute, die das spielen, sich alle neue Karten kaufen? Das glaube ich kaum.
Das tun die RTX2000/3000 8 GB Besitzer doch jetzt schon.
Technico schrieb:
Und warum sollte man sich eine 7800XT holen? ist doch gleich auf mit einer 4070, außer bei RT,DLSS.
Die RX7800 ist schneller und günstiger als eine RTX 4070 und hat mehr VRAM.
Die RTX 4070 ist effizienter und deutlich stärker bei Raytracing.

Technico schrieb:
Zudem knallt sich die 7800XT ca. ~~ 70 Watt mehr weg.
Kein Kommentar...

@DaHell63 Mit Raytracing sind Nvida Karten schneller, habe nie etwas anderes behauptet, genau das zeigen deine Vergleichsbilder. Deine 4070TI hat auch 30% mehr RT Cores und trotzdem benötigst du massives Upscaling, um auf spielbare Frameraten zu kommen.
Mit DLSS Performance wird das Spiel effektiv in FHD gerendert, also nur ein viertel der Auflösung. Dabei gibt es erhebliche Qualitätsverluste. Wenn man so weit weg sitzt, dass man keinen Unterschied sieht, dann kann man sich die 4K Auflösung auch gleich sparen und in FHD spielen.

RTX 4070 und RX7800 haben ihre Vor- und Nachteile.
Am Ende muss man abwägen, was einem wichtiger ist. Für 4K sind beide Karten ein Kompromiss.
 
AMD-Flo schrieb:
Mit DLSS Performance wird das Spiel effektiv in FHD gerendert, also nur ein viertel der Auflösung. Dabei gibt es erhebliche Qualitätsverluste. Wenn man so weit weg sitzt, dass man keinen Unterschied sieht, dann kann man sich die 4K Auflösung auch gleich sparen und in FHD spielen.
Einfach nein. In 4K mit DLSS Performance ist man (qualitativ/visuell) locker bei 2560x1440p nativ. Das habe ich alles schon rauf und runter probiert und getestet. 1080p nativ...no Way.

AMD-Flo schrieb:
RTX 4070 und RX7800 haben ihre Vor- und Nachteile.
Was ich sicher nicht bestreite
 
  • Gefällt mir
Reaktionen: AMD-Flo
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne
DaHell63 schrieb:
Einfach nein. In 4K mit DLSS Performance ist man (qualitativ/visuell) locker bei 2560x1440p nativ. Das habe ich alles schon rauf und runter probiert und getestet. 1080p nativ...no Way.
Das kannst du im konkreten Fall besser beurteilen als ich, da ich keine RTX 4070 (Ti) besitze. Ich fand es auch interessant deine Screenshots zu sehen, um sich ein reales Bild zu machen. Die ganzen Benchmarks mit max. Settings in Worst Case Szenen beleuchten auch nicht alle Seiten.
Was DLSS ist Performance angeht ist mir zumindest mit DLSS 2 auf meiner RTX 2080 aufgefallen, dass es teilweise zu fehlerhaften Darstellungen kommt, die bei FHD nativ nicht auftreten. Letztendlich muss jeder für sich das beste Setup finden.
 
  • Gefällt mir
Reaktionen: DaHell63
AMD-Flo schrieb:
Die ganzen Benchmarks mit max. Settings in Worst Case Szenen beleuchten auch nicht alle Seiten.
Irgend einen Unterschied müssen die Tester ja herrausarbeiten....alle die selbe Szene mit den selben Einstellungen...da wird lieber eine fiese Stelle gesucht auf max gedreht und schon kann man verkünden...Du brauchst eine neue Grafikkarte....die 20 Sek Benchszene hat das genau beleuchtet.

AMD-Flo schrieb:
Was DLSS ist Performance angeht ist mir zumindest mit DLSS 2 auf meiner RTX 2080 aufgefallen, dass es teilweise zu fehlerhaften Darstellungen kommt, die bei FHD nativ nicht auftreten.
An FSR/DLSS wurde und wird ja fortwährend gearbeitet um diese zu verbessern.

AMD-Flo schrieb:
Letztendlich muss jeder für sich das beste Setup finden.
Thats the Way to go 👍
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AMD-Flo
Zurück
Oben