UWQHD: 7900 GRE oder 4070 SUPER?

Welche Grafikkarte für UWQHD?

  • 4070 SUPER

    Stimmen: 50 54,3%
  • 7900 GRE

    Stimmen: 42 45,7%

  • Umfrageteilnehmer
    92
Ja, letztendlich könnte man auch eine Münze werfen, man wird mit beiden Karten gut zocken können. Kumpel macht sich auch ständig verrückt mit den 12 GB bei der Super, die er sich jetzt geholt hat. Die GRE wollte er allerdings nicht, weil die ihm zuviel Strom frisst. ( speziell im Idle / Youtube schauen etc. )
 
Es wurde mehrfach vom Tech Youtubern bewiesen, dass RT ebenso wie DLSS ordentlich VRAM benötigen, mehrere GBs je nach Auflösung.

Da ist das RT Argument bei einer 12 GB Karte einfach verfehlt.

8GB sind FHD Lowend, max 300 EUR
12Gb mind empfohlen, max 400 EUR

16GB oder mehr Pflicht ab 500 EUR

Da fällt eben die 4070S raus.
 
Die super Tech Youtuber haben auch bewiesen, dass man mehr als 12GB VRam in FHD benötigt...ansonsten gibts nur Matsch. TLOU zb.

1.png4.png
5.png7.png
8.png9.jpg
10.png11.png

Hogwarts
1.png2.jpg
3.jpg4.jpg
5.jpg6.jpg

Edit:
Wie DLSS den VRam erhöhen soll, kannst Du sicher erklären
 
DaHell63 schrieb:
Die super Tech Youtuber haben auch bewiesen, dass man mehr als 12GB VRam in FHD benötigt...ansonsten gibts nur Matsch. TLOU zb.
Smiley nicht vergessen, ansonsten nimmt das noch jemand wörtlich 😉.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und DaHell63
Der Faden hätte auch von mir sein können. Ich stand vor zwei Tagen vor der ähnlichen Wahl.
Die 4070 Super war schon bestellt ,habe dann auf den letzten Drücker doch noch auf 7900 GRE umgeschwenkt.

Raytracing ist für mich kein Thema. Ich habe einen 4K Bildschirm, und da sind 16 GB VRAM nun mal besser als 12.

Die Jungs vom Computer Shop hätten mir auch die Super für 50 € mehr verkauft aber die haben jetzt zu der GRE geraten aus genau diesen Gründen.
 
Zuletzt bearbeitet:
LencoX2 schrieb:
Es wurde mehrfach vom Tech Youtubern bewiesen, dass RT ebenso wie DLSS ordentlich VRAM benötigen, mehrere GBs je nach Auflösung.
Da hat der YouTuber wohl dummerweise den zugewiesenen VRAM gemessen.
Auch bedenklich, dass irgendwelchen Videos eine größere Wahrhaftigkeit zugemessen wird, als mal selbst seine Birne zu benutzen. Z.B. mit dem After Burner kann sich jeder den realen / dedizierten VRAM-Verbrauch anzeigen lassen, wenn man die richtige Bibliothek aktiviert.
Nvidia hat nicht ohne Grund 88% Marktanteil bei den Spiele GPUs. Da dürften die 4070 bis 4070 Super wohl weit oben in den Charts stehen und ich habe noch keine Indizien gefunden, dass deren Besitzer mal Probleme bekommen hätten. Aber YouTube hat ja bewiesen, dass das gar nicht sein kein...
 
  • Gefällt mir
Reaktionen: Cyberpunk61
Clonedrone schrieb:
Da hat der YouTuber wohl dummerweise den zugewiesenen VRAM gemessen.
Ich denke mal, da ist DLSS Frame Generation gemeint. Das und natürlich auch Raytracing/Pathtracing benötigen mehr VRAM, auch wenn ich jetzt hinsichtlich der Größenordnung keine Zahlen nennen würde.

Hardware Unboxed haben sich die Thematik ja zum Beispiel in mehreren Videos angeschaut und auch die Probleme aufgezeigt, zuletzt zum Beispiel hier. Da sieht man unter anderem, wie die Texturqualität automatisch reduziert wird, wenn der Speicher knapp wird. In der Realität würde ich das glaube ich gar nicht mitbekommen und einfach davon ausgehen, dass das Spiel von Haus aus Matschtexturen mitbringt. Somit ist natürlich der Entwickler schuld und nicht Nvidia... ;)

Man muss aber auch sagen, dass sie da mit der reduzierten PCIe-Lanes nicht gerade ein Alltagsszenario aufzeigen, aber auch da gibt es Beispiele. Bei Ratchet & Clank werden mit Raytracing in 4k selbst 16GB knapp und selbst mit Upsampling kann es bei 12GB eng werden. Anderseits wäre Raytracing auf der GRE mit 80fps sowieso nicht drin und der viele VRAM wird dann wiederum nicht benötigt.
 
Clonedrone schrieb:
Da hat der YouTuber wohl dummerweise den zugewiesenen VRAM gemessen.
Auch bedenklich, dass irgendwelchen Videos eine größere Wahrhaftigkeit zugemessen wird, als mal selbst seine Birne zu benutzen. Z.B. mit dem After Burner kann sich jeder den realen / dedizierten VRAM-Verbrauch anzeigen lassen, wenn man die richtige Bibliothek aktiviert
  • Moderne Games setzen automatisch Details runter, damit der VRAM reicht. Egal was eingestellt wird
  • Eine Karte die nur 8, 10 oder 12 GB hat, kann eben nur soviele Daten halten und wird nie mehr anzeigen
  • Treiber swappen dann RAM zu VRAM automatisch um dem VRAM Mangel zu verwalten
  • Leute mit zuwenig VRAM bemerken es oft nicht mal als das. Nur dass was "nicht rund" läuft.
  • Guckst du hier:
 
  • Gefällt mir
Reaktionen: riOrizOr
@LencoX2 Das Video wurde bereit gepostet.
Ich habe in Cyberpunk 2077 eben selbst nachgemessen.
Unter Ultra mit Path Tracing/Relexionen gemaxt und FG - also alles, was RAM kostet. 10,2 GB VRAM-Verbrauch maximal. Er schreibt im Video 12,3 GB und das sogar ohne Path Tracing.
Ansonsten vielleicht mal die Screenshots von DaHell63 #43 anschauen. Die Werten liegen auch deutlich drunter. Aber jeder Scheiß auf YouTube ist ja hier wie das Gottesgesetz.
LencoX2 schrieb:
Moderne Games setzen automatisch Details runter, damit der VRAM reicht. Egal was eingestellt wird
Das kommt auf die Engine an. Bei Farcry wird bspw. ausgelagert. Die Framerate reduziert sich dann natürlich deutlich. Deshalb ist das:
LencoX2 schrieb:
Eine Karte die nur 8, 10 oder 12 GB hat, kann eben nur soviele Daten halten und wird nie mehr anzeigen
nicht richtig
LencoX2 schrieb:
Leute mit zuwenig VRAM bemerken es oft nicht mal als das. Nur dass was "nicht rund" läuft.
Wenn die 4070 zu wenig VRAM hätte, wäre das bei der Bildqualität in einem der etlichen Tests aufgefallen. Die 12 GB reichen und die Engine wirft bei weniger VRAM früher was raus. Das heißt im Umkehrschluss nicht, dass es da Qualitätsunterschiede gibt. Wichtig ist schließlich nur der Sichtbereich des Spielers. Wenn die 12 GB selbst dafür nicht reichen, dann sieht man es.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vigilant
@Clonedrone Du hast das Video angesehen und gibst immer noch 12 GB als WQHD Empfehlung fuer mehr als 500€.

Oder geht es dir um die Fälle, wo 12 GB doch reichen?
Ja, du hast Recht: Es gibt Fälle wo 12GB reichen.

Mir geht es um die Empfehlung an den TE: Nimm lieber 16GB, wenn du schon so viel bezahlst.
 
Der Witz ist doch, dass in diesen Beispielen der Gegentest zu einer 12GB-Karte fehlt, um dem ein Minimum an Evidenz hinzuzufügen. Es werden die Ergebnisse einer 4090 einfach auf alle anderen Karten übertragen. Allein um auszuschließen, dass der Treiber eine zusätzliche Rolle hinsichtlich Speichernutzung unterschiedlicher Karten spielt, wäre das meiner Meinung nach notwendig.

Zumindest hätte man als Gegentest den Speicher der 4090 auf 12 GB begrenzen können.

Und das vielen Karten bei am Anschlag stehenden Settings die Luft ausgeht, dürfte klar sein. Wer in 4K komfortabel zocken will, sollte eh keine 12GB-Karte anschaffen. Davon aber abzuleiten, 12GB stünden grundsätzlich am Performance-Abgrund, ist einfach nur - Stand heute - falsch.

Und was WQHD betrifft, würde ich es davon Abhängigkeit machen, wie wichtig die Kriterien RT, Featureset und Effizienz sind.
 
Zuletzt bearbeitet:
Im direkten Vergleich zwischen den beiden Karten sind bei Karten ungefähr gleich teuer und bieten die gleiche Rasterperformance.


Vorteile RTX 4070 Super:
  • Niedrigerer Stromverbrauch unter Last (220W vs 260W)
  • Niedrigerer Stromverbrauch im Idle, insbesondere mit mehreren Monitoren
  • deutlich schneller mit Raytracing
  • deutliches bessere Upscaling
  • CUDA

Vorteil RX7900GRE:
  • mehr VRAM (wobei AMD Karten unter gleichen Bedingungen auch mehr benötigen)

Stellt sich die Frage, ob man alleine wegen des VRAMs auf alle anderen Vorteile verzichten möchte, ober ob man ist in Kauf nimmt, in einzelnen Titel eventuell die Settings anpassen zu müssen. AMD bietet hier weniger zum gleichen Preis.

Meine RX6800 hat auch 16 GB VRAM, aber Raytracing ist in vielen Titeln kaum nutzbar, weil die Leistung extrem einbricht. Das kann die 7900 GRE zwar deutlich besser, aber immer noch weit entfernt von der 4070 Super.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Einsteinstein
Das ist halt auch das, was ich meine. 4070/Super und 7800 XT / 7900 GRE sind WQHD-Karten. Wenige Spiele laufen brauchbar in UltraHD. Und mehr Pixel gehen ja nunmal einher mit mehr VRAM-Verbrauch.
Was hier konsequent ignoriert wird ist ja, dass die NV-Karten etwa 0,5 bis 1 GB weniger VRAM nehmen.

LencoX2 schrieb:
@Clonedrone Du hast das Video angesehen und gibst immer noch 12 GB als WQHD Empfehlung fuer mehr als 500€.

Oder geht es dir um die Fälle, wo 12 GB doch reichen?
Ja, du hast Recht: Es gibt Fälle wo 12GB reichen.
Der VRAM-Verbrauch geht nur bei Raytracing / Pathtracing richtig in die Höhe. Dann sucht man sich ein YouTube-Video mit einem Test in 4k/Raytracing und empfiehlt eine AMD-Karte, die in Raytracing gegenüber der 4070 völlig einbricht. Ist dieser Logikfehler keinem aufgefallen?
Bei mehr als 500€ kommt ja nur noch TI Super in Betracht, die kostet ja direkt 750-900€. Da wäre für mich der Punkt, wo alles unter 16 GB inakzeptabel ist.
Hier bei mir arbeitet auch nur die 7800 XT / 16 GB, weil sie für 450€ vor paar Monaten zu haben war. Da sieht man über die Nachteile hinweg. Bei <=500€ hätte ich sofort zur 4070 gegriffen.

Ich habe das Video gesehen und sage zum x-ten. Die Werte stimmen nicht. Er hat sogar "nur" Raytracing aktiviert. Hier auf dem Screenshot ist Pathtracing an. Das ist der dedizierte / benötigte Verbrauch.
Screenshot 2024-08-04 105929.png


Screenshot 2024-08-04 111521.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cyberpunk61
Die Ergebnisse einer 4090 sind wahrscheinlich auch nicht übertragbar, weshalb sie sich mit anderen Karten, auch und insbesondere mit 12GB oder mehr VRAM, nicht vergleichbar sind. Der Test, bzw. Bericht hat für mich daher einen unvollständigen Testaufbau, der hinsichtlich der Ergebnisse keine ausreichende Evidenz liefert.

Und nur um es noch mal klar zu sagen: Das ändert nichts an der grundsätzlichen und berechtigten Kritik zu Nvidias VRAM-Knauserei.
 
Hier mal die Argumente auf den Punkt gebracht:
  • 12GB reichen Stand heute meist für WQHD. In Ausnahmefällen nicht.
  • 4070S 12GB hat mehr RT Performance und DLSS. Aber für RT-On und/oder DLSS ist oft zu wenig RAM da
  • Zukunftausblick: wird tendenziell immer öfter an RAM Mangel leiden wie Frame-Pacing, Texturmatsch.

Und 16GB:
  • 16GB sind heute und die nächsten Jahre mehr als genung.
  • 7900GRE hat weniger RT Performance.
  • Zukunftsausblick: RAM kein Problem.
 
Zur vram thematik ist das stark abhängig welche Auflösung amd oder nvidia und ab welchem Jahr die Spiele sind.
getestet habe ich das mit spielen von 2016-2020 da war klar ne 8gb sku für FHD völlig ausreichend.
Danach sieht das völlig anders aus
Da habe ich die gtx1060 6gb die zu dem Zeitpunkt schon zu wenig vram hatte da waren Einzelbsp aber ist übertragbar.
ne rtx3060 12gb geplant ist rtx2060 super irgendwann wen ich geld zu viel habe.
Die sku geben sich nix abseits der vram menge
ne rtx5060 12gb (q2 2025 großes wenn) eher rtx4070 d6 12gb (q4 2024) oder rtx6060ti 15gb 50sm (q2 2026)
Ich würde den 60 Pfad weiter gehen wäre die Aussicht nicht so das es ab der rtx70 gen keine mehr geben wird.
zu rtx4060 +15% lohnt nicht darauf zu rtx5060 +20% lohnt kaum und darauf zu rtx6060 etwa +15% lohnt nicht
und bis 2026 warten geht auch nicht insgesamt +50% Die folge eine klasse höher also 450€ Bereich
Darum rtx4070 d6 (Ankündigung gamescom 2024) rtx5060 eventuell rtx6060ti sicher

Die spiele sind das problem
ab 2021 stiegen die vram Anforderungen Abrupt aufgrund der ps5 von damals grob 6-8gb ging es rauf auf 8-11gb aktuell sind wir bei 9-11,5gb auf 1080p
Die devs haben aber dlss und fsr für vram einsparen gefunden und nutzen diese mittlerweile als default was an sich nicht ok ist.
Demzufolge verwischen die grenzen ordentlich da nicht mehr in derselben spec sich aufgehalten wird.
Dass ist es was ich an reviews ohne offene standards als seriös ansehen kann.
Das hat zur folge das alles was man reviewed genau dokumentiert sein muss.


Werkzeug dafür gibt es genug ist ja nicht mehr 2008 wo es nur fraps gab sonst nix.
Das beste ist intels presentmon Ableger (capframex) gefolgt von hwinfo mit generic logviewer sieht nur nicht so fancy aus.

Sony wird zur gamescom die ps5 pro teasern im sept eigenes event mit Ankündigung mit release nov
preis grob 449$ bis 479$ etwa 60cu 2,23-2,35ghz gpu und 3,8ghz cpu zen2 576gb/s am ende etwa 20-21tf 16gb
dxr perf +300%
raster perf +50% ist cpu limitiert
Das gute spiele brauchen nicht zwingend angepasst werden da intrigierter auto upscaler bis 2160p 60hz
1080p maxed 120hz
Das wird die Messlatte am PC werden bis 2027

Das blöde dadurch verwischen die Einstellungen an auto Anpassung je nach vram und upscaler Einstellung.
Und ich bin mir sicher das dies die norm werden soll damit nvidia und amd in entry Bereich bloß nicht mehr perf geben müssen sprich mehr hardware Einheiten.
Die folge gpu die ernsthaft fürs gaming geeignet sind fangen ab 500€ an
folgendes wird passieren

rx6400 eol
rx6500 eol
rx6600 eol
rx6650xt eol
rx7600 eol
rx7600xt bleibt 300€
rx7700xt eol
rx7800xt eol
gtx1630 eol
gtx1650 eol
rtx3050 bleibt am Markt bevorzugt 6gb ab 180€
rtx3060 eol
rtx4060 eol
rtx4060ti eol

ps5 pro lvl (519€)
rtx5060ti +19% 440€
rx8700xt +11% 400€
rx8700xtx +33% 450€

Weit später q3 2025

ps5 lvl (389€)
rtx5060 12gb +18% 300€
rx8600 8gb +11% 250€
rx8600xt +11% doppelte vram 350€


Die spiele zuletzt gekauft gestern 3 hardware Fresser
rtx3060 12gb
pacific drive ue5 das merkt man (1080p raster etwa 30fps) vram grob 3,5gb game 3,9gb mit transfer
dragons dogma2 noch nicht gebencht
starfield dlc das rennt sowieso wie sack Nüsse. 1080p raster da kein dxr 32fps 3,8gb game 4,6gb mit transfer

alan wake 2 dlss maximum PT 26fps 7,8gb und 8,6gb mit transfer
alan wake 2 pt nativ 10fps 8,3gb und mit transfer 8,6gb

Das spiel mit den meisten vram bedarf wäre ratchet and clank ra mit 9,3gb und mit transfer 10,2gb
Die höchste vram Belegung mal in far cry 5 ingame nicht benchmark bei grob 11gb
Das war aber vorgeladenes zeug. Gebietswechsel.
ist normal in der engines das dann zwei sets gleichzeitig geladen sind und eins langsam gelöscht wird wo es wieder auf etwa 6gb fällt
Normalerweise ruckelt das sich einen ab bei ner 6gb sku bzw 8gb sku.

Die Übergänge sind fließend das war bei jeder Konsolenwechsel so, also wird die 12gb spätestens 2025 zu wenig sein für uwqhd
Darum eher die rx7900gre
ne rtx4070 super derzeit beste 1080p gpu den das wird reichen bis 2027 zur ps6 die nebenbei 32gb min haben wird Tendenz ist aber 48gb
 
Ohne RT und FG wird es mit 12GB kaum Probleme geben. Mit sieht das dann schon anders aus. Aus Neugier habe mal kurz in CP 2077 nachgeschaut, was RT komplett mit FG und optimierten Einstellungen in FHD, WQHD und 4K so zieht. Spätestens ab WQHD wird es eng (hier müsste man evtl. in den Settings etwas runter gehen) und 16GB würden Reserve haben, während FHD innerhalb der Grenzen bleibt.

Wer also auf RT verzichtet, sollte mit 12GB für die nächste Zeit gut über die Runden kommen. Und in 4K wird vor dem VRAM zuerst die grundsätzliche GPU-Leistung zum limitierenden Faktor, was angenehm spielbare FPS betrifft.


Settings:
Cyberpunk2077_2024_08_04_12_59_04_098_Settings.jpg

FHD:
Cyberpunk2077_2024_08_04_13_03_59_457_FHD.jpg Cyberpunk2077_2024_08_04_13_09_35_027_FHD.jpg

WQHD:
Cyberpunk2077_2024_08_04_13_05_48_745_WQHD.jpg Cyberpunk2077_2024_08_04_13_08_58_454_WQHD.jpg

4K (DLDSR):
Cyberpunk2077_2024_08_04_13_01_17_653_4K.jpg Cyberpunk2077_2024_08_04_13_10_02_080_4K.jpg

Alan Wake 2 könnte ich mir auch noch mal anschauen, ist aber gerade nicht installiert.

Aber hier Horizon FW - Burning Shores (ohne RT-Gedöns, DLSS Quality und als Beispiel für einen gut optimierten Titel):

FHD -> WQHD -> 4K (DLDSR)
HorizonForbiddenWest_2024_08_04_14_03_45_444_FHD.jpg HorizonForbiddenWest_2024_08_04_14_03_03_951_WQHD.jpg HorizonForbiddenWest_2024_08_04_14_02_41_088_4K.jpg
 
Zuletzt bearbeitet:
Die Frameraten mit Pathtracing in FullHD mit der 4080 sind 2,5 x so hoch wie mit meiner 7800 XT.
 
Ziemlich unruhig allerdings im Vergleich zu höheren Auflösungen 🤔.
 
Zurück
Oben