GPU Upgrade Entscheidungshilfe

Wie mir schon des öfteren aufgefallen ist, weigern sich auch besonders die RTX 3080 Besitzer eine Empfehlung der RTX 4070 auszusprechen.
Da frage ich mich dann immer was einen dazu bewogen hat sich eine solche Karte zu kaufen. Eine RX 6800 XT usw gab es ja schließlich auch schon zu deren Kauf. Der Preis, oder gar der Verbrauch kanns ja nicht gewesen sein :evillol:

Revolvermann01 schrieb:
Man kann dann ja auch noch die 6xxx-er Grafikkarten mit dem MPT sparsamer einstellen, ich hab es bei meinen 6800 XT ja auch so gemacht und auf 180 W Maximum undervoltet. Was mit nur wenig Leistungsverlust verbunden ist.
180W sind ja bei RDNA2 nicht das selbe wie bei Nvidia....zumindest nicht das was man bei HWI/AB/GPU-Z oder beim WM sieht.

AMD.jpgNvidia.png
 
Zuletzt bearbeitet:
sikarr schrieb:
Wenn der VRAM ausreicht wird man nie einen Unterschied merken, Ram ist da um benutzt zu werden und nicht um möglichst viel davon frei zu haben.
COD MW2 zieht in DMZ bis zu 22 GB VRam meiner XTX @ 3440x1440. Stand JETZT.
 
Zudem nur weil 22GB gezogen werden (allocated) heisst das noch immer nicht, dass sie auch gebraucht (usage) werden. Warum scheint keiner das verstehen zu wollen.

Und sagen wir mal ein 1440p Monitor (eigentliche Zielgruppe für eine 4070), braucht man da 8K Texturen?

Wie schon gesagt in Bewegung, kann ich selten einen Unterschied zwischen ultra super mega Texturen und der Stufe drunter machen.

Wer seine Hardware allgemein Effizient nutzen möchte, sollte sich von der Mentalität, alles auf Anschlag, verabschieden.
 
  • Gefällt mir
Reaktionen: sikarr
Eine 4070/Ti kann auch bei WQHD bei einigen Spielen bereits jetzt ins Vram Limit laufen. Die mir bekannten Spiele, wo es mit dem Vram problematisch werden kann sind: TLOU, Hogwarts Legacy, RE4.
Wenn der TE diese Spiele spielen will, sollte er vielleicht lieber zu AMD mit 16GB Vram greifen.
 
  • Gefällt mir
Reaktionen: cosmo45, iron_monkey und cyberpirate
@ferris19
Im Moment spiele ich keiner der dir genannten Spiel, dennoch habe ich nun schnell ein paar Videos gesehen (habe mich nun eher auf 4K konzentriert) und muss aber feststellen:
-TLOU --> schrecklich optimiert, dennoch 4k high frs quality und das Spiel läuft durchgehend über 60fps
-Hogwarts Legacy --> RT vergessen wir, da auch mir einer AMD 6000 dies einfach nicht spielbar ist, dennoch 4K DLSS Qualty läuft über 60fps
-RE4 --> auch hier lassen wir RT weg und bei 4K FSR Quality durchgehend über 60fps

Und wo soll jetzt eine 4070/Ti an ihre Speichergrenzen kommen? Bis auf TLOU musst die Qualität etwas runter geschraubt werden, aber haben 4070 käufer die gleichen Ansprüche wie dei Käufer einer 4090?

Auch mal schnell geschaut wie denn TLOU mit einer 6800XT laufen würde: Läuft trotz mehr VRam nicht besser, 4K Ultra FSR Quality, liegt das Spiel bei um die 50fps. Also auch hier muss man von Ultra auf High gehen um über 60fps zu kommen...

Was sagt mir das? Wenn die GPU zu schwach wird, bringt auch mehr VRam nix mehr.
 
  • Gefällt mir
Reaktionen: eraser4400 und sikarr
Danke für euer zahlreiches Feedback. Ich bin zwar schlauer geworden, aber bei meiner Entscheidung bin ich leider nicht viel weiter gekommen. Scheint ja allgemein ein sehr kontroverses Thema zu sein. :D

Am öftesten wurde jetzt die 6800XT empfohlen. Ist die nicht ein gutes Stück schwächer als die 4070? Ich hätte da eher die 6900XT/6950XT als direkte Konkurrenz gesehen. Ist die 6800XT bei aktuellen grafisch anspruchsvollen Spielen in WQHD auf High-Ultra nicht auch schon oft hart an der Grenze? Hätte deshalb eher die 6950XT im Auge gehabt.

So wie es aussieht mache ich mit beiden (AMD, Nvidia) nicht viel falsch, weil beide Stärken und Schwächen haben. Ich glaube ich werde in nächster Zeit die Augen nach einem guten Angebot offen halten und dann kurzfristig entscheiden.

Spielt das Customdesign eine große Rolle? Gibt es Modelle von denen man besser Abstand halten sollte? Hätte sonst einfach die günstigste genommen.

Sapphire Fan schrieb:
@Exadia123

Wie lange möchtest du denn die neue Karte behalten? Wenn es nur ca 2 Jahre sind, dann ist es in der Tat recht egal. Aber nachdem die RTX4070 auch noch 50,- EUR teurer ist, würde ich nach wie vor zur RX6800XT greifen.
Hätte schon so an 4+ Jahre gedacht. Die Vega56 habe ich jetzt über 4 Jahre und die war zum Kaufzeitpunkt (Februar 2019) schon etwas älter und eher untere Mittelklasse. Zugegeben schon länger grenzwertig und ich hätte schon viel früher upgegradet, wären die Preise nicht so absurd gewesen. Bzgl. 6800XT siehe zweiten Absatz.

Zusatzfrage: Wie viel könnte man den für eine gebrauchte Vega56 (Powercoler Red Dragon) noch bekommen?
 
@Exadia123
Ich hatte vor 1,5Jahren meine 6800XT für 1300Euro gekauft, versuche das zu verdrängen 🤪 aber wenn ich die jetzt durch eine 4070 wegen dlss wechsle und du bis von Gebrauchtkarten nicht abgeneigt…
 
arcDaniel schrieb:
Und wo soll jetzt eine 4070/Ti an ihre Speichergrenzen kommen? Bis auf TLOU musst die Qualität etwas runter geschraubt werden, aber haben 4070 käufer die gleichen Ansprüche wie dei Käufer einer 4090?
Die Auswirkungen sind unterschiedlich, auf die FPS eher weniger. Ich zitiere aus dem Test zu TLOU aus CB:
„Der Einfluss auf die FPS ist noch zu vernachlässigen, die immer wieder auftretenden Haker aber nicht mehr – sie stören sehr.“

Natürlich hat jeder seine eigenen Ansprüche, nur würde ich mir jetzt keine Karte mehr kaufen, wo ich schon weiß, dass der Vram in naher Zukunft immer mehr zum Problem werden wird. Wenn ich mir jede Generation eine neue hole, mag das zu vernachlässigen sein, möchte aber eben nicht jeder.
 
Zuletzt bearbeitet:
@Exadia123

https://www.computerbase.de/artikel...benchmarks_in_spielen_mit_und_ohne_raytracing

Das bezüglich RX6800XT vs RTX4070. Nahezu identisch, also ohne Raytracing, was aber mit der RTX4070 auch nur bedingt nutzbar ist. Ein Hogwarts Legacy belegt auch schon ca 11GB in WQHD...da biste halt mit der RTX4070 knallhart an der Grenze.

Aber, es wurde ja nun eigentlich alles gesagt...entscheiden musst du es ;-)
Wenn du dein Budget erweiters, dann natürlich auch gerne die RX6950XT ;-)

Ich habe wie gesagt eine RTX3080 12GB die nahezu identisch schnell/langsam ist wie die RTX4070...und ich würde mir die RX6800XT da eher kaufen.
 
  • Gefällt mir
Reaktionen: Revolvermann01 und ferris19
@Exadia123

Hier kannst du dir bzgl. Grafikkartenspeicher mal durchlesen wie es sich momentan verhält...

Die Karte mit mehr Grafikkartenspeicher bei gleicher Leistung würde ich immer vorziehen, allein schon weil man dann bei der Ruckelorgie am Ende der Nutzungsdauer nicht auch noch matschige Texturen hat...

Die 69xx XT Karten werden halt recht warm und erwärmen das Gehäuseinnere deutlich, daher ist eine gute Gehäusebelüftung angebracht.
 
  • Gefällt mir
Reaktionen: Sapphire Fan
iron_monkey schrieb:
Die Karte mit mehr Grafikkartenspeicher bei gleicher Leistung würde ich immer vorziehen, allein schon weil man dann bei der Ruckelorgie am Ende der Nutzungsdauer nicht auch noch matschige Texturen hat...
Bei dem Test hat nur eine Karte krasse Ruckelorgien...und das ist nicht die Nvidia karte. Wenn man danach sucht sieht man vielleicht Matsch. Ansonsten scheint das gut gelöst zu sein.

Screenshot 2023-06-22 073321.pngScreenshot 2023-06-22 073051.png
Zufällig habe ich den selben Screenshot endeckt (meine Frau ist da fleissig ;)) der auch bei Igor zu sehen ist.
In 1440p/60FPS (reicht für den Konsolenport) keine 10GB VRam und unter 80W.
IgorsLab.jpgTLOU.png

DLSS/FSR wird immer besser...da hätte ich heute schon kein Problem damit auf einem 1440p Bildschirm in 1080p zu spielen.
1.png2.png3.png4.png5.png6.png7.png8.png9.png10.png

Bei dem Verbrauch brauchts auch im Sommer keine Wasserkühlung :daumen:
300W+...könnt ihr behalten
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sapphire Fan und ferris19
iron_monkey schrieb:
Oh ein nichtssagender Screenshot, wow, ich vertraue eher auf Igor, seine Messungen und sein Fazit... scheinbar ist diese schönreden der Speicherkrüppel so eine Art Selbstschutz...
....wenn man das Fazit nicht wirklich versteht und sich ausserdem weigert das was Igor im Forum dazu schreibt zu lesen und zu verstehen.
Und für den Fall der Fälle....Was man nicht sieht juckt auch nicht...
Screenshot 2023-06-22 073051.png

Mir geht es garnicht darum, dass mehr VRam einfach besser sind. Nur nervt euer unreflektiertes weniger VRam Matsch Geseier ungemein.
Es ist schon wirklich tragisch, dass man mit Karten unter einer RTX 4090 auch mehr anpassen muss...eine ganz neue Erkenntnis.
 
Zuletzt bearbeitet:
Hier widerspricht sich Igor massiv. Wenn es angeblich nicht auffällt wie hätte er folgendes feststellen können:

"Allerdings sieht man dann auch Fehler im Stream, Texturen bleiben matschiger und ab und zu fehlt auch etwas komplett oder ploppt irgendwann mal auf. Flimmern inklusive."

Also ich bezweifle das es so "smart" ist wie von ihm dargestellt. Es bleibt einfach was es ist. Die "Magie" dahinter ist nichts anderes als weglassen von Inhalten. Von mir aus ok wenn man das aktiv selbst entscheiden kann wie z.B. DLSS an/aus, aber hier entscheidet eben Nvidia für dich ob dich das stört. Sorry da ist mir AMDs Weg inklusive mehr VRAM wesentlich lieber.
 
Zurück
Oben