Welche GPU soll ich Kaufen ?

Man bekommt jede GPU klein... Alles nur die Frage der Einstellungen...

Was deine CPU leistet weißt doch schon wenn du aktuell auf kleinere Auflösung und mit wenig Details spielst... Mehr wird es nicht an FPS..
 
Bruzla schrieb:
Ich stehe aktuell vor einer ähnlichen Entscheidung. WQHD-Monitore und RTX3070.

Ich muss aber sagen, das ist bei mir mehr wollen als brauchen. Sogar das neue Indiana Jones Spiel läuft ansehnlich und flott, ist aber offensichtlich auch gut optimiert.

Für ARK könnte ich wahrscheinlich ne 5090 kaufen und wäre nicht zufrieden.

Grundsätzlich kann ich mir nicht vorstellen, dass deine 3070 schon zu lahm ist.

Wie gesagt, auf DLSS setzten und an den Reglern schrauben, das mach ich aktuell anstatt Geld ins Gehäuse zu werfen.
Ja mehr wollen als brauchen trifft bei mir auch perfekt zu !

Ich mach heute nochmal 1-2 Tests wie viel der Prozessor in Hunt überhaupt schafft (720p)
Dann mal WQHD und Auslastung von GPU und VRAM anschauen.
Ergänzung ()

kachiri schrieb:
Und wie kommst du darauf, dass das daran liegt, dass der VRAM immerhin auch nur zu 90% ausgelastet ist?
Verstehe ich irgendwie nicht.
Weil ich in Hunt nur die Optionen habe 70/80/90 % VRAM einzustellen.
Habe es natürlich auf 90% gestellt und laut Überwachung werden die 90% auch verwendet.
Ergänzung ()

xxMuahdibxx schrieb:
Man bekommt jede GPU klein... Alles nur die Frage der Einstellungen...

Was deine CPU leistet weißt doch schon wenn du aktuell auf kleinere Auflösung und mit wenig Details spielst... Mehr wird es nicht an FPS..
Was genau ist damit gemeint? Ich kann in einem Spiel ja nur die maximalen Einstellungen vornehmen, und wenn die GPU erst bei 70% Auslastung ist, wie soll man sie dann noch weiter auslasten?

Das einzige was mir einfällt wäre die Auflösung. Aber kannst ja jetzt nicht wegen einem Spiel dir einen 8K Monitor besorgen xD
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maxysch
RaveN-_- schrieb:
Was genau ist damit gemeint? Ich kann in einem Spiel ja nur die maximalen Einstellungen vornehmen, und wenn die GPU erst bei 70% Auslastung ist, wie soll man sie dann noch weiter auslasten?

Indem man im Treiber noch mehr vorgibt...

Wie Antialiasing... Kostet extrem viel..je nach Art.
 
  • Gefällt mir
Reaktionen: RaptorTP und RaveN-_-
Maxysch schrieb:
Sollte noch für WQHD genug Leistung bringen, ist aber wie immer vom Anwender abhängig ;)
Ja der i5 12600K ist schon noch stark und sollte in den meisten fällen auch noch 100 + FPS hinbekommen.

Ich kann ja maximal noch auf einen i9-14900 K Upgraden, das lohnt sich aber Preis Leistungs technisch halt garnicht xD

der i5 14600K würde Preislich noch klar gehen, aber das sind ja alles nur +/- 10% Upgrades
Ergänzung ()

xxMuahdibxx schrieb:
Indem man im Treiber noch mehr vorgibt...

Wie Antialiasing... Kostet extrem viel..je nach Art.
Gut zu wissen.
Wäre es dann möglich in einem CPU lastigen Spiel wie CS2 eine 4090 mit einem i5 12600K auszulasten?
Wird die Garfik durch die Treiber Einstellungen merkbar besser ?
 
Merkbar jein... Viele merken nicht Mal den Unterschied zwischen high und ultra im Spiel...

Mehr Antialiasing kann das Bild insgesamt beruhigen... Weniger Treppen und Kanten... Aber je nach Art auch verwaschen..
 
  • Gefällt mir
Reaktionen: Maxysch und RaveN-_-
Eigentlich sollte das Spiel gut mit der 3070 laufen, wenn du die Regler gut einstellst.
Dabei ist DLSS jedoch ein muss, so hat Computerbase auch getestet:
https://www.computerbase.de/artikel/gaming/hunt-showdown-1896-benchmark-test.89195/

"In WQHD steigen die Anforderungen spürbar an. Für Grafikkarten der alten Mittelklasse sind 60 FPS jetzt unerreichbar, mindestens eine Radeon RX 6800, Radeon RX 7700 XT, GeForce RTX 3070 oder GeForce RTX 4070 muss im Rechner stecken."

"Wer unbedingt in nativer Auflösung spielen möchte, benötigt für 60 FPS in Ultra HD gleich eine GeForce RTX 4090 – alle anderen Grafikkarten erzielen den Wert nicht."

Ich würde es nochmal so wie Computerbase mit DLSS Quality oder sogar Balanced testen und dann die Einstellungen entsprechend anpassen.

Je nach Spiel kann DLSS etwas VRAM einsparen, da dabei die Renderauflösung reduziert wird.
 
  • Gefällt mir
Reaktionen: Maxysch und RaveN-_-
Ich arbeite für mich gerade diesen ganzen VRAM-Hype auf.


1) U.a. auch dieses Video:


Da will der PCGH-Redakteur "ein für alle Male damit aufräumen, dass 8GB für 1080p reichen". Für mich totale Augenwischerei.

Vergleicht er nur zwei AMD Karten. 7600 vs 7600XT. Und dann pickt er sich als krassestes Beispiel Stalker2 heraus, wo VRAM besonders wichtig sei.
Dann schaue ich in PVGH-Chart dazu und was sehe ich?

Die 2080 und 3080 schaffen das Spiel ohne Probleme... Aber genau dieses Spiel scheint auch ne Macke zu haben, wenn es selbst mit ner 7900XT 20GB nicht läuft.

1737966923194.png


Die sieht für mich alles ziemlich an den Haaren herbei gezogen aus. Habe mich schon immer gewundert über diese VRAM-Debatten, da bei mir die 3070 selbst bei 3440x1440 gut performt hatte.



2)

Hier zeigt die Gamestar, dass die RX6800 16GB die 3070 8GB aufgrund des höhren VRAMs klar in Raytracing bei Hogwarts Legacy schlagen würde.

https://www.gamestar.de/artikel/rtx...errascht-zwei-jahre-nach-release,3392569.html

Wieder ein Vergleich in Rasterleistung... Äpfel mit Birnen. Schaue ich dann wieder in den PCGH-Chart dazu, sehe ich dass die 3070 deutlich besser performt. Sogar als die 7800XT.

1737966970656.png


Ich habe mir dann sogar die Videos der RX6800 und der RTX3070 bei YT angesehen, die das bestätigt haben.


Mythos VRAM
Und lese ich in jedem zweiten Post bei Grafikkarten-Beratungen 8GB reicht nicht mehr für FullHD. Und eine RTX4070 wird teilweise nicht empfohlen, weil sie "nur 12GB" VRAM hat.

Es mag diesen Anwendungsbereich der VR-Brille geben. Da kenne ich mich nicht aus und das möchte ich hier ausdrücklich ausklammern.

Das Raytracing-GPU-Ranking gibt einen sehr guten Hinweis auf die tatsächliche Performence-Sortierung der Grafikkarten. Denn: RT benötig viel VRAM und hier wird Radeon in FSR und Nvidia in DLSS verglichen.

1737967209705.png

Das sieht bei allen Spielen ähnlich aus in der Gewichtung.

Noch besser wäre ein Vergleich AMD in Raster oder TAA und Nvidia ins DLSS Quality.
Das gibt es nicht, aber schaut euch eure Spiele mit euren Wunsch-GPUs mal bei YT in den entsprechenden Settings an.


Wenn jemand noch bessere Beispiele für die VRAM-Limit-Theorie hat als PCGH oder die Gamestar, dann bitte gerne hier posten. Werde ich mir ansehen. :)
 
  • Gefällt mir
Reaktionen: SuperHeinz und RaveN-_-
AMD-Flo schrieb:
Eigentlich sollte das Spiel gut mit der 3070 laufen, wenn du die Regler gut einstellst.
Dabei ist DLSS jedoch ein muss, so hat Computerbase auch getestet:
https://www.computerbase.de/artikel/gaming/hunt-showdown-1896-benchmark-test.89195/

"In WQHD steigen die Anforderungen spürbar an. Für Grafikkarten der alten Mittelklasse sind 60 FPS jetzt unerreichbar, mindestens eine Radeon RX 6800, Radeon RX 7700 XT, GeForce RTX 3070 oder GeForce RTX 4070 muss im Rechner stecken."

"Wer unbedingt in nativer Auflösung spielen möchte, benötigt für 60 FPS in Ultra HD gleich eine GeForce RTX 4090 – alle anderen Grafikkarten erzielen den Wert nicht."

Ich würde es nochmal so wie Computerbase mit DLSS Quality oder sogar Balanced testen und dann die Einstellungen entsprechend anpassen.

Je nach Spiel kann DLSS etwas VRAM einsparen, da dabei die Renderauflösung reduziert wird.
Okay ich werde es dann nochmal versuchen.
Ich hatte in Hunt nur das Gefühl, dass DLSS verwaschener aussieht als FSR.

Bezüglich der Grafikkarte werde ich dann wohl warten und mich dann Entscheiden.

Ich habe leider nur das Gefühl, das ich mit meinem PC an einem schlechten Punkt stehe.

Ich kann maximal auf einen i9 14600k upgraden und da gibts ja das Intel Bluescreen Problem mit der 13. und 14. Generation.

Preislich wäre es wahrscheinlich Maximal der i5 14600K aber so viel mehr Leistung wird dieser ja auch nicht bringen im vergleich zum i5 12600k.

Bei einer besseren Grafikkarte hänge ich bestimmt auch in einem leichten bis mittleren Bottleneck.
Was eig schade ist, da dass System erst 2 1/2 Jahre alt ist und damals knapp 2000 € gekostet hat.

Oder sehe ich da irgendwas falsch ?
 
Also CPU kommt sehr stark auf das Spiel an. Auflösung spielt bei CPU praktisch keine rolle (Wenn CPU zu langsam ist nützt Auflösung runter nix).

Ich hab mir meine 7800x3d eigentlich nur wegen Battlefield 2042 gekauft - konnte keine 64 Player Map vernünftig spiele (16, 32 ging).
Was ich sagen will: im CPU Limit hilft meistens nur neue CPU, aber das erreicht man meistens erst in nur ganz bestimmten Spielen (oft Strategiespiele etc).
Ich rüste immer abwechselnd Graka und CPU (aller zwei bis 3 Jahre). Das heißt CPU und Graka halten 4 bis max 6 Jahre -> ca eine Konsolengeneration. meine 3070 sollte noch bis Ende diesen / Anfang nächstes Jahr halten - hoffenltich
 
  • Gefällt mir
Reaktionen: RaveN-_-
RaveN-_- schrieb:
Ich habe leider nur das Gefühl, das ich mit meinem PC an einem schlechten Punkt stehe.

Ich kann maximal auf einen i9 14600k upgraden und da gibts ja das Intel Bluescreen Problem mit der 13. und 14. Generation.

Preislich wäre es wahrscheinlich Maximal der i5 14600K aber so viel mehr Leistung wird dieser ja auch nicht bringen im vergleich zum i5 12600k.

Bei einer besseren Grafikkarte hänge ich bestimmt auch in einem leichten bis mittleren Bottleneck.
Was eig schade ist, da dass System erst 2 1/2 Jahre alt ist und damals knapp 2000 € gekostet hat.

Oder sehe ich da irgendwas falsch ?
@xxMuahdibxx Kannst du mir deine Ansicht noch mitteilen ?!?! Danke :)
 
Du wirst immer in einem bottleneck hängen... Entweder CPU oder GPU... Und das je nach Spiel...

So lange der i5 reicht würde ich nicht wechseln... besonders nicht auf dem gleichen Unterbau.

Und wenn weg vom Unterbau ist's schon wieder eine Preisfrage..
 
  • Gefällt mir
Reaktionen: RaveN-_-
dermoritz schrieb:
Also CPU kommt sehr stark auf das Spiel an. Auflösung spielt bei CPU praktisch keine rolle (Wenn CPU zu langsam ist nützt Auflösung runter nix).

Ich hab mir meine 7800x3d eigentlich nur wegen Battlefield 2042 gekauft - konnte keine 64 Player Map vernünftig spiele (16, 32 ging).
Was ich sagen will: im CPU Limit hilft meistens nur neue CPU, aber das erreicht man meistens erst in nur ganz bestimmten Spielen (oft Strategiespiele etc).
Ich rüste immer abwechselnd Graka und CPU (aller zwei bis 3 Jahre). Das heißt CPU und Graka halten 4 bis max 6 Jahre -> ca eine Konsolengeneration. meine 3070 sollte noch bis Ende diesen / Anfang nächstes Jahr halten - hoffenltich
Dann wirst du wahrscheinlich auch im Sommer 2025 zuschlagen.

Aber das Wäre auch eine Idee, im Sommer 2025 eine neue GPU und ein Jahr später dann einen neuen Prozessor, also 2026.

Je nach dem wie es läuft und hält.

Zum Glück kenne ich jemand der an PC rumschraubt, ich selber habe da zu viel Respekt vor.
Bzw. benötige ich eine Person die 1-2 mal dabei ist bevor ich das selber mache.

Ich würde mir ein System kaufen, maximal die GPU upgraden und wenn die auch nicht mehr der Renner ist, neuen PC kaufen. So wäre meine Vorgehensweise xD

Aber wenn ich im Moment eh nur Hunt spiele und das so bleibt, kann ich auch noch 1-2 Jahre auf dem aktuellen Stand bleiben und dann vielleicht im Sommer 2026 ein komplett neues System kaufen. Dann hat der Rechner auch 4 Jahre auf dem Buckel.
Ergänzung ()

xxMuahdibxx schrieb:
Du wirst immer in einem bottleneck hängen... Entweder CPU oder GPU... Und das je nach Spiel...

So lange der i5 reicht würde ich nicht wechseln... besonders nicht auf dem gleichen Unterbau.

Und wenn weg vom Unterbau ist's schon wieder eine Preisfrage..
Danke !

Ja ich tue mir damit schwer, dass es keinen wirklichen Richtwert gibt.
Am liebsten wäre mir, Hey kauf CPU X und GPU Y und dass läuft Supper !

Leider ist das ja alles Einstellung und Situationsabhängig.

Aber gibt es irgendeinen Richtwert an den ich mich halten kann ob CPU und GPU Sinvoll harmonieren?
z. B. Nicht älter als 2 Jahre unterschied zum Release. (Weiß nicht ob das wirklich eine Theorie ist die stimmt, war nur ein erfundenes Beispiel !)
 
@_ROG_
Ich muss dir leider widersprechen. Das vergleichen der Balken hilft nicht weiter. Bei VRAM Mangel laufen viele moderne Spiele einfach flüssig weiter, zeigen aber Fehler in der Bilddarstellung.
Die VRAM Bedarf steigt immer weiter durch hochauflösende Texturen, Raytrcaing, FG usw.
Das Problem ist in FHD vielleicht nicht so ausgeprägt wie in WQHD, aber er wird mit kommenden Titeln immer schlimmer.

Die 3070 ist sicherlich keine schlechte Karte, aber hätte Nvidia die Karte direkt mit 12 oder 16 GB VRAM ausgestattet, wäre es sogar eine gute Karte. Die neuen RTX 5000 Karten mit 12 GB werden früher oder später das gleiche Problem bekommen, dass die 3070 heute mit 8 GB hat.

PCGH empfiehlt zurecht keine 8GB Karten zu kaufen und wenn man sich das von dir verlinkte Video anschaut, versteht man auch warum. Ich verstehe nicht, warum du versuchst das schönzureden. Wärst du nicht froh, wenn deine Karte 16 GB hätte?

RaveN-_- schrieb:
Bezüglich der Grafikkarte werde ich dann wohl warten und mich dann Entscheiden.
Gute Entscheidung. Insbesondere die 9070XT könnte sehr interessant werden, wenn man nicht mindestens 879 € hinlegen oder mit der 5070 die nächste GPU mit Sollbruchstelle kaufen will.

RaveN-_- schrieb:
Ich habe leider nur das Gefühl, das ich mit meinem PC an einem schlechten Punkt stehe.
Das denke ich nicht. Wie du selbst geschrieben hast, kannst du zur Not noch auf Raptor Lake upgraden, das bringt rund 25%, wenn du nicht im GPU Limit hängst.
Das Probleme sind mittlerweile per BIOS gefixt, außerdem gibt es 5 Jahre Garantie:
https://geizhals.de/intel-core-i5-14600kf-cm8071504821014-a3043199.html

Sockel 1700 ist abseits vom 7800X3D/9800X3D noch gut dabei:
1737969114792.png


Die GPU wirst du früher oder später tauschen müssen, aber da lohnt es sich auf die neuen Karten zu warten.
Mit Framegeneration gibt es dann eine neue Möglichkeit, um aus dem CPU Limit zu kommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Öcher Tivoli, Maxysch und RaveN-_-
AMD-Flo schrieb:
Das denke ich nicht. Wie du selbst geschrieben hast, kannst du zur Not noch auf Raptor Lake upgraden, das bringt rund 25%, wenn du nicht im GPU Limit hängst.
Das Probleme sind mittlerweile per BIOS gefixt, außerdem gibt es 5 Jahre Garantie:
https://geizhals.de/intel-core-i5-14600kf-cm8071504821014-a3043199.html

Sockel 1700 ist abseits vom 7800X3D/9800X3D noch gut dabei:


Die GPU wirst du früher oder später tauschen müssen, aber da lohnt es sich auf die neuen Karten zu warten.
Mit Framegeneration gibt es dann eine neue Möglichkeit, um aus dem CPU Limit zu kommen.
Ok für mich heißt es dann erstmal warten und im Sommer 2025 kann ich eventuell einen neuen Beitrag aufmachen, wenn ich mir beim Upgrade nicht sicher bin !
 
AMD-Flo schrieb:
@_ROG_
Ich muss die leider widersprechen. Das vergleichen der Balken hilft nicht weiter.
Moin! :)

Doch genau diese zeigen, was die Grafikkarte liefern.

AMD-Flo schrieb:
Bei VRAM Mangel laufen viele moderne Spiele einfach flüssig weiter, zeigen aber Fehler in der Bilddarstellung.
Das kann nur bei der Unreal Engine passieren.

AMD-Flo schrieb:
Die VRAM Bedarf steigt immer weiter durch hochauflösende Texturen, Raytrcaing, FG usw.
Das Problem ist in FHD vielleicht nicht so ausgeprägt wie in WQHD, aber er wird mit kommenden Titeln immer schlimmer.
Ich habe Beispiele für 4K und 1440p gebracht die deutlich aufzeigen, dass es da kein VRAM Problem gibt.

AMD-Flo schrieb:
Die 3070 ist sicherlich keine schlechte Karte, aber hätte Nvidia die Karte direkt mit 12 oder 16 GB VRAM ausgestattet, wäre es sogar eine gute Karte. Die neuen RTX 5000 Karten mit 12 GB werden früher oder später das gleiche Problem bekommen, dass die 3070 heute mit 8 GB hat.
Siehe oben...

AMD-Flo schrieb:
PCGH empfiehlt zurecht keine 8GB Karten zu kaufen und wenn man sich das von dir verlinkte Video anschaut, versteht man auch warum.
Das Video habe ich doch deutlich wieder legt. Dort wird gezeigt dass die 7600XT 16GB besser performt als die RX7600 8GB. PCGH zeigt aber selbst auf, dass die 2080TI/30801GB besser performen als die 7900XT20GB. Das Video macht keinen Sinn.

AMD-Flo schrieb:
Ich verstehe nicht, warum du versuchst das schönzureden.
Ich bringe doch bitte Fakten. Gehe doch bitte auf meine Fakten oben ein.
Du redest hier ohne Fakten Sachen schön.

AMD-Flo schrieb:
Wärst du nicht froh, wenn deine Karte 16 GB hätte?
Wenn es was bringen würde... Ich habe eine 3070 im 1080p-Rechner unsere Ältesten Sohnes und die liefert sehr gut ab. Und jetzt suche ich eine Karte für den 1080p-Rechner unseres Jüngsten. Und daher beschäftige ich mich mit dieser Fragestellung. Erste eine RX6800 kommt an die Leistung einer 3070 ran, ist aber teurer und in RT langsamer (obwohl RT mehr VRAM braucht).
 
AMD-Flo schrieb:
Bei VRAM Mangel laufen viele moderne Spiele einfach flüssig weiter, zeigen aber Fehler in der Bilddarstellung.
ROG Das kann nur bei der Unreal Engine passieren.
Nope. Passiert z. B. auch bei Dragon's Dogma 2 (RE-Engine), Star Wars Outlaws und Avatar (Snowdrop Engine) Control(Northlight Engine).
 
  • Gefällt mir
Reaktionen: RaveN-_- und Maxysch
@_ROG_ bist du der neuer Till nur statt mit Intel CPU`s machst du hier das gleiche mit Nvidia schönreden, sehr guten Karten sind bei Nvidia RTX 4070TiS/5070TI und aufwärts, alle darunter künstlich beschnittene Karten mit tollen fetures, aber leider durch knappen VRAM mit begrenzten Lebensdauer um einfacher die neuen zu verkaufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Öcher Tivoli und RaveN-_-
_ROG_ schrieb:
Doch genau diese zeigen, was die Grafikkarte liefern.
Nein, die Balken zeigen keine Darstellungsfehler.

_ROG_ schrieb:
Das kann nur bei der Unreal Engine passieren.
Die höchst selten verwendet wird.

_ROG_ schrieb:
Ich habe Beispiele für 4K und 1440p gebracht die deutlich aufzeigen, dass es da kein VRAM Problem gibt.
Man nicht per Beispiel zeigen, dass es keine Probleme gibt. Aber es gibt genügend Beispiele mit Problemen.
Deshalb wird ja auch die 7600 mit der 7600XT verglichen.

_ROG_ schrieb:
Die haben auch mehr als 8 GB!

_ROG_ schrieb:
Ich bringe doch bitte Fakten.
Das Thema wurde doch schon in x Theads durchgekaut und zeigt sich bei vielen neuen Titeln.

_ROG_ schrieb:
Wenn es was bringen würde... Ich habe eine 3070 im 1080p-Rechner unsere Ältesten Sohnes und die liefert sehr gut ab.
Das stellt ja auch keiner in Frage, habe bei meinen Söhnen auch 2 RTX 2080 verbaut.

_ROG_ schrieb:
Erste eine RX6800 kommt an die Leistung einer 3070 ran
Die RX6800 ist schneller. Klar ist die RT Performance schlechter, aber das liegt nicht am VRAM.
In Indiana Jones kann ich in WQHD mit der RX6800 alles auf max. stellen, mach das mal mit der 3070:
1737971735558.png


In FHD sieht es nicht besser aus, die 3080 liegt weit hinter der 6700XT:

1737971825834.png
 
  • Gefällt mir
Reaktionen: Öcher Tivoli und Maxysch
Maxysch schrieb:
@_ROG_ bist du der neuer Till nur statt mit Intel CPU`s machst du hier das gleiche mit Nvidia schönreden, sehr guten Karten sind bei Nvidia RTX 4070TiS/5070TI und aufwärts, allse darunter künstlich beschnittene Karten mit tollen fetures, aber leider dadurch mit begrenzten Lebensdauer um einfacher die neuen zu verkaufen.

Ich bin der neue wer? Wieder wirst Du frech und lieferst keine Fakten. Dann schreib doch einfach nichts... Das ist mir echt zu antrengend. Beim nächsten Kommentar ohne Fakten habe eine Person mehr auf der Ignore-List.

GuSchLa schrieb:
Nope. Passiert z. B. auch bei Dragon's Dogma 2 (RE-Engine), Star Wars Outlaws und Avatar (Snowdrop Engine) Control(Northlight Engine).

Guter Punkt! 👍Danke, damit kann man arbeiten. Das hilft und werde ich mir ansehen.





AMD-Flo schrieb:
Die RX6800 ist schneller. Klar ist die RT Performance schlechter, aber das liegt nicht am VRAM.
In Indiana Jones kann ich in WQHD mit der RX6800 alles auf max. stellen, mach das mal mit der 3070:
Anhang anzeigen 1575162
Danke für die Charts. 👍Die kenne ich natürlich.

Das ist leider wieder so ein Apfel- mit Birnen-Vergleich wie bei der Gamestar. Deshalb hat man es bei PCGH immerhin schon umgestellt.


Hier ist der richtge Vergleich unter realen Anwendungsbedingungen. Raytracing + FSR/DLSS.

1737972617700.png



Und da sieht man, dass bei der VRAM-lastigen Raytracing-Anwendung sogar die 3070 8 GB vor der 7800XT 16GB liegt.
Kann man alles Spiele so durchklicken. Immer die gleiche Tendenz.
 
Zurück
Oben