4070 vs 3080

Wie sich das mit dem VRAM Bedarf entwickelt, ist natürlich zu einem gewissen Grad Spekulation. Dass der größer wird, ist aber wahrscheinlich. Dennoch können vor allem für 1440p die 12 GB noch länger reichen. Bei Nvidia ist ja auch das Speichermanagement besser.

Auf ausgelesene Werte irgendwelcher Tools kann man sich auch nur bedingt verlassen.

Hogwarts Legacy ist ein Negativbeispiel, was aber natürlich bei anderen Spielen auch so passieren kann, wenn der Entwickler in dem Bereich schlampig ist.

Ich würde die Entscheidung 3080er oder 4070er Karte hier auch vom Preis abhängig machen. Ich habe relativ günstig (500€) eine 3080ti bekommen. Eine vergleichbare 4070ti kostet etwa 850€. Die 3080ti betreibe ich mit UV, womit sie etwa 270 Watt benötigt und dabei trotzdem etwas höher boostet als Serie.

Die 4080 ist mir auch zu teuer, bei AMD (7900XT fällt ja auch in den Preisbereich der 4070ti) ist Raytracing und FSR schlechter als Raytracing und DLSS bei Nvidia. Und deutlich über 500€ erwarte ich eigentlich auch mindestens 16 GB VRAM und ein größeres Interface als 192 Bit. L2 Cache hin oder her.

Wie schon festgestellt wurde, es ist 2023 nicht einfach ;)
 
Thane schrieb:
Bei Nvidia ist ja auch das Speichermanagement besser.
"Besser" ist hier halt auch Ansichtssache. NV komprimiert Bilder halt zu Tode, wenn der Speicher ausgeht. Da ist AMD restriktiver unterwegs. Das zeigt sich ja gerade in aktuellen Titeln ganz gut gerade im Vergleich zwischen 3070 und 6800. Hogwarts Legacy ist da ja so ein Paradebeispiel. Ja. Es läuft mit der 3070 noch recht flüssig. Wenn man aber mal direkt vergleicht, sieht man dann, dass die 3070 bei denselben Settings stellenweise nur noch Matsch liefert. Das ist das tolle "bessere" Speichermanagement.
 
Ist auch fair 8GB vs 16GB zu vergleichen. Klar gleicht das Speichermanagment nicht 8GB aus bei gleicher Qualität! Musst z.B. 8GB vs 10GB vergleichen und dann die Qualität bewerten.

Und ja, natürlich wäre es deutlich besser für uns, wenn Nvidia bei der 70er Serie auch 16GB verbaut hätte. Aber 12 GB sind immerhin schon mal 50% mehr als bei der 3000er Serie.
 
Der Nvidia Vorzeigetitel Cyberpunk, der übrigens schon über 2 Jahre alt ist, zeigt 1 FPS mehr in 4k gegenüber einer 3080 10 GB. Das ist dann Cherrypicking? Wenn das Speicherinterface hier nicht das Problem wäre, dann wären die üblichen 15 bis 18 Prozent Abstand zu sehen. An Optimierungen kann es nicht liegen.

Den gleichen Spaß sieht du bei fast allen neueren Titeln, die ohne Rücksicht auf die alten Konsolen entwicklet wurden und gerne Mal 11 bis 12 GB speicherverbrauch in wqhd und bis zu 16 in 4 k zeigen. Das ultra von heute ist das high von morgen. Wer sowas für 100 Euro mehr UVP als die 3080 gut findet, bitte. Ich finde das einen schlechten Deal.

Mehr kann man dazu echt nicht sagen.

Die 4070 ist in Sachen Speicherinterface und Ausbau gleich der 4070 ti. Bedeutet die gibt da genauso nach. Hatte jetzt nur gerade keinen direkten Vergleich mit der Karte, welche die Frage des TE beantwortet hätte. Ein wenig Eigeninitiative bitte.

Das Eingangsvideo des TE von Daniel Owen erklärt das alles ebenfalls. Da ist die 3080 dann plötzlich 12 Prozent vor der 4070. Er sagt auch noch das es mit dem Speicherinterface zusammenhängt. Welche Beweise erwartet ihr dazu noch? Jensen persönlich wird es euch nicht bestätigen. Der ist mit Marketingfolien für die 4060 beschäftigt. 13 mal schneller als die 1060. Ich schmeiß mich weg. 🤣
 
Zuletzt bearbeitet:
Ayo34 schrieb:
Musst z.B. 8GB vs 10GB vergleichen und dann die Qualität bewerten.
Auch hier ist es kein "besseres Speichermanagement", wenn ich einfach die Grafiksettings ignoriere und die angezeigten Bilder trotzdem komprimiere und mir Informationen spare, die da sein sollten.
Die 12 GB der 4070 (Ti) sind "okay". Aber halt wieder typisch-NV extrem knapp bemessen und schon heute in verschiedenen Titeln in WQHD (wofür diese Karten ja letztlich sind) nicht immer ausreichend.
Das sich hier auch die Spieleentwickler an die Nase packen dürfen, versteht sich von selbst. Die extrem harten Abstufungen bei Diablo 4 bei der Einstellung der Texturqualität finde ich persönlich auch ein Unding.
 
C0rteX schrieb:
Der Nvidia Vorzeigetitel Cyberpunk, der übrigens schon über 2 Jahre alt ist, zeigt 1 FPS mehr in 4k gegenüber einer 3080 10 GB. Das ist dann Cherrypicking? Wenn das Speicherinterface hier nicht das Problem wäre, dann wären die üblichen 15 bis 18 Prozent Abstand zu sehen. An Optimierungen kann es nicht liegen.
Cyberpunk 2077 Pathtracing, kam vor wenigen Monaten raus. Zukunftsorientierter geht es nicht:
4070 FE vs 3080 FE
FHD 4%
WQHD 2%
UHD 0%

Ich sehe wie ich schon öfter geschrieben habe nur einen leichten Nachteil ab UHD aufgrund der Speicherbandbreite.

C0rteX schrieb:
Den gleichen Spaß sieht du bei fast allen neueren Titeln, die ohne Rücksicht auf die alten Konsolen entwicklet wurden und gerne Mal 11 bis 12 GB speicherverbrauch in wqhd und bis zu 16 in 4 k zeigen.
Nein den gleichen Spaß sehe ich eben nicht in fast allen neueren Titeln.
Auch bei Hogwarts Legacy bricht sie nicht unverhältnismäßig stark ein in UHD.
Ausreißer wie Fortnite oder Diablo 4 habe ich registriert, sehe darin aber kein Muster weil die anderen Titel auch neu sind. Cherry picking!
Hier nochmal das Fazit von PCGH bezüglich Diablo 4 und 12 GB VRAM:

"Ab 12 GiByte, etwa auf einer Geforce RTX 3080 Ti oder RTX 4070, fühlt sich Diablo 4 sogar mit Hi-Res-/Ultra-Texturen weitestgehend "rund" an. Nachladeruckler und sichtbar einladende Oberflächendetails gibt es immer wieder - allerdings treten diese auch mit Grafikkarten auf, die 16, 20 oder gar 24 GiByte mitbringen."

Das deckt sich auch mit meiner Erfahrung, bei CB im Forum hat das auch Wolfgang bestätigt dass es weitestgehend rund läuft, bis auf diese sehr wenigen kurzen Hänger z.B. beim Teleport in eine neue Region die ich auch habe. Diese Einschränkungen zählt noch unter Luxusprobleme. Klar sind 12 GB auf Kante genäht aber sie reichen, bestätigen die User hier laufend.

C0rteX schrieb:
Die 4070 ist in Sachen Speicherinterface und Ausbau gleich der 4070 ti. Bedeutet die gibt da genauso nach. Hatte jetzt nur gerade keinen direkten Vergleich mit der Karte, welche die Frage des TE beantwortet hätte. Ein wenig Eigeninitiative bitte.
Ja Speicherinterface ist gleich und nein die 4070 Ti gibt nicht genauso nach.
Der L2-Cache der das ausgleichen soll ist bei der Ti ist 49 MB groß, bei der non-Ti 36 MB.

C0rteX schrieb:
Das Eingangsvideo des TE von Daniel Owen erklärt das alles ebenfalls. Da ist die 3080 dann plötzlich 12 Prozent vor der 4070. Er sagt auch noch das es mit dem Speicherinterface zusammenhängt.
... bis zu 12% Einbruch in UHD in Extremfällen! siehe oben im aktuellsten RT Titel.
cherry picking ;)
 
Ich lass den ignore Filter einfach zu. 🥱 Selbst deine Fanboy Kollegen beteuern immer das die 4070 ti ja nur eine wqhd Karte ist. Ich rede hier gegen eine Wand.
 
Hmm? die 4070 Ti ist auch eine WQHD Karte...
Mit der lässt es sich aber auch "gut" in UHD zocken.
 
  • Gefällt mir
Reaktionen: DaHell63
Warum diskutieren? Er/Sie weiß alles besser und wer nicht der selben Meinung ist kann nur ein Fanboy und Troll sein.
Die glorreiche Aufnahme in der Ignorliste ist sicher.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wtfNow
Zurück
Oben