4070 vs 3080

MichaelBer

Banned
Registriert
Mai 2023
Beiträge
274
Ich versteh zu wenig von der Technik.

Aber in dem Überlick Bild von dem Video heißt es "Same VRAM, half the bus"

Was bedeutet das für die Praxis?
Hat die 4070 da in irgendwelchen Scenarien in der Praxis merkliche Nachteile?

 
Nichts, zumindest bis WQHD.
Wird durch den L2-Cache ausgeglichen.
Ist bei der 4070 um ein Vielfaches größer als bei der 3080.

(ab UHD ergibt das geringe Nachteile)
 
MichaelBer schrieb:
Aber in dem Überlick Bild von dem Video heißt es "Same VRAM, half the bus"

Die Karten sind einfach etwas anders aufgebaut. Früher hatte man viel Bus = schneller/besser. Dann hat AMD etwas an der Architektur verändert und den Bus verkleinert und dafür den Cache erhöht. Am Ende ist die Geschwindigkeit trotz kleinerem Bus durch den Cache ziemlich identisch. Die 4070 sollte gegenüber die 3080 kaum Nachteile haben dadurch. AMD und Nvidia gehen da mittlerweile einen ähnlichen Weg.

cyberpirate schrieb:
Langfristig wird der Speicher sicher knapp. Ist ja jetzt schon bei den ersten Spielen so. Einfach ch mal Test lesen.

Mfg

12 GB sollten bei beiden Grafikkarten bei Nvidia noch viele Jahre ausreichend sein, da es etwa 14GB bei AMD entspricht. In 4k muss man eventuell etwas die Grafikeinstellungen anpassen. 4000er Generation soll zudem nochmal ein besseres Speichermanagment haben als die 3000er Generation.

PS: Unbedingt die 4070 wählen, wenn die 3080 12GB nicht deutlich günstiger ist. Alleine die 180 Watt gegenüber 330 Watt sind Welten bei etwas gleich hoher FPS/Leistung. Dazu mit DLSS3 noch ein sehr cooles Feature für die Zukunft. -> Stromkosten sparen, weniger Abwärme, leiser...


Fortnite mit Unreal 5 Engine (1440p):
3080: +3% - 340 Watt
4070: +0% - 180 Watt -> fast 100% effizienter!
 
  • Gefällt mir
Reaktionen: Gsonz, DJMadMax, NerdmitHerz und 4 andere
Ayo34 schrieb:
Unbedingt die 4070 wählen, wenn die 3080 12GB nicht deutlich günstiger ist
Jo hab' grade mal geschaut. Die 3080 12GB hat ja inflationäre Preise! Bei Idealo findet man 3080Tis für fast den selben Preis :confused_alt:
 
MichaelBer schrieb:
Was bedeutet das für die Praxis?
Hat die 4070 da in irgendwelchen Scenarien in der Praxis merkliche Nachteile?

Video angeschaut oder nur den Namen ?

eigentlich erklärt er alles .... und wenn wir genau sind ist 4K auch nicht die Äuflösung für eine 4070 ... und in WQHD reicht das gesamte Paket noch aus ..
 
  • Gefällt mir
Reaktionen: Gsonz
Die geringere Bandbreite führt vorallem in den neueren Spielen zu einem Nachteil. Die 4070 ti zum Beispiel performt dann nur noch auf dem Level, wo man die 4070 erwarten würde, wenn sie denn nicht ebenfalls ein beschnittenes Speicherinterface hätte. Die 4070 entspricht in wqhd in etwa der 3080. In 4 k und zum Teil auch schon in WQHD (Hogwarts) fällt die 4070 ti dann auf das Level der 3080, nur durch das Speicherinterface.

Ich habe Mal ein paar Screenshots zur Veranschaulichung angehängt, die das Problem gut darstellen.
 

Anhänge

  • Screenshot_20230624-120149.png
    Screenshot_20230624-120149.png
    444,5 KB · Aufrufe: 150
  • Screenshot_20230624-120124.png
    Screenshot_20230624-120124.png
    434,7 KB · Aufrufe: 152
  • Screenshot_20230624-120022.png
    Screenshot_20230624-120022.png
    477,2 KB · Aufrufe: 152
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne und MichaelBer
@MichaelBer "englische" Zahlen ... 1080p ... 1440p und 4k sind aber begriffe ... Prozent auch ...

Angaben wie Memory Usage oder VRAM Usage auch ... hangel dich an dem bekannten durch und du bekommst erklärt ... in 4k ist die 3080 12 GB Version besser ... mehr aber auch nicht ...

alternativ

1687601502255.png


Zum Ende ... Nvidia hat herrausgefunden das diese Speicherbandbreite ausreicht und gut ist ... dann wird halt gespart und die Karte billiger.
 
xxMuahdibxx schrieb:
in 4k ist die 3080 12 GB Version besser ... mehr aber auch nicht ...

In 4k nativ ist die 3080 12GB marginal besser je nach Einstellungen. Mit DLSS 2 kann es schon wieder anders aussehen und das wird wohl bei der 4070 bei 4k auch eingesetzt. Dann wird mit weniger Auflösung für 4k gerechnet und der Bus wird nicht mehr so wichtig.

Dazu ist mit "besser" auch nur wenige Frames, also die Leistung gemeint. Trotzdem verbraucht die 3080 12GB durchgehend dann seine 340 Watt. 3-4 Frames weniger und dafür 180 Watt Verbrauch? Kenne da Wenige, die sich für die 3080 entscheiden würden bei ähnlichem Preis und da haben wir noch nicht mit DLSS3 angefangen.

Dann sind noch die Stromspitzen bei der 3000er Generation höher. Am Ende kann man also bei der 4070 einfach ein Netzteil mit 200 Watt weniger Leistung nehmen, was auch noch mal einiges spart.
 
  • Gefällt mir
Reaktionen: Odessit, wtfNow und xxMuahdibxx
Ehrlich gesagt ist es mir quasi egal, wie eine GPU ihre Leistung erbringt.
Ob sie 1 TB VRAM, 10 GHz GPU-Takt, 16384 Irgendwas-Kerne hat.

Wichtig ist, was reingeht und rauskommt. Reingeht = Leistungsaufnahme, Rausgeht = Leistung. Und halt der Preis.

Habe eine 3070 und ehrlich und ich lebe noch trotz der nur 8 GB VRAM. Am Ende limitiert immer irgendetwas, wäre komisch wenn nicht.
 
  • Gefällt mir
Reaktionen: Lupus M, optixx, Ayo34 und eine weitere Person
Die 3080 ist EoL und der Übergang zur neuen Generation ist da bei Nvidia relativ straff und im Gegensatz zu AMD haben sie ja auch ein komplettes Line-Up in dieser Generation. Ergebnis: natürlich kauft man neu eine 4070.

Auf dem Gebrauchtmarkt ist die 3080 mit <= 430€ aber momentan gerade sehr attraktiv.
 
Kauf lieber eine Karte mit 16 GB VRAM, wenn du planst deine Karte länger als 2 Jahre zu nutzen. 12 GB ist das Minimum was so eine Karte heutzutage haben sollte, wenn man keine allzu großen Einschränkungen in neuen Titeln hinnehmen will. Diablo 4 gönnt sich auch gerne Mal 16 GB VRAM für einen ruckelfreien Betrieb mit den guten Texturen. In 2 Jahren haben 12 GB definitiv größere Einschränkungen in der Optik zu erwarten.
 
  • Gefällt mir
Reaktionen: cyberpirate
C0rteX schrieb:
Die geringere Bandbreite führt vorallem in den neueren Spielen zu einem Nachteil. Die 4070 ti zum Beispiel performt dann nur noch auf dem Level, wo man die 4070 erwarten würde, wenn sie denn nicht ebenfalls ein beschnittenes Speicherinterface hätte. Die 4070 entspricht in wqhd in etwa der 3080. In 4 k und zum Teil auch schon in WQHD (Hogwarts) fällt die 4070 ti dann auf das Level der 3080, nur durch das Speicherinterface.

Ich habe Mal ein paar Screenshots zur Veranschaulichung angehängt, die das Problem gut darstellen.
4070 Ti vs 3080 Ti
FHD 11% schneller
WQHD 10% schneller
UHD 4% schneller

4070 Ti vs 3080 10Gb
FHD 17% schneller
WQHD 17% schneller
UHD 13% schneller

4070 vs 3080 Ti
FHD 5% langsamer
WQHD 10% langsamer
UHD 17% langsamer

4070 vs 3080 10GB
FHD 2% schneller
WQHD 1% schneller
UHD 6% langsamer

https://www.pcgameshardware.de/Graf...s/Rangliste-GPU-Grafikchip-Benchmark-1174201/

Wie gesagt bis WQHD nahezu identisch.
Ab UHD geringe Nachteile.
Frame Generation der 40X0er berücksichtigen, wird das eingeschaltet dann kann sich der Vorsprung zu den alten Karten sehr stark vergrößern.
 
Würde auf jeden Fall die 4070 nehmen. Deutlich effizienter, etwas mehr Speicher und dlss3. Und die Leistung ist zur 3080 ansich identisch. Ca. 5% plus minus merkt man eh nicht.

Mit dem Bus ist die Speicheranbindung gemeint. Speicheranbindung und die Geschwindigkeit des Speichers, also vom vram, ergeben grob gesagt die Speicher Bandbreite. Und je höher die Auflösung, desto mehr profitiert eine Karte von einer höheren Bandbreite. Deswegen verliert die 4070 im Vergleich zur 3080 in hohen Auflösungen, also vor allem 4k, im Verhältnis mehr Leistung. Nvidia versucht das in der Gen über einen höheren L2 Cache auszugleichen, was teilweise auch klappt, aber halt seine Grenzen hat.

Ändert im end Effekt aber trotzdem nix dran, dass die 4070 im end Effekt auf dem Level der 3080 ist 😄 In 4k ist der Unterschied dann tatsächlich etwas da, aber für Auflösung sollte man eigentlich sowieso noch ein Regal höher kaufen.
 
  • Gefällt mir
Reaktionen: wtfNow
Den Performanceverlust in nativ UHD mit einer 4070 (Ti) sehe ich aber auch nicht ganz so eng.
Denn in der Regel wird DLSS genutzt, und damit FHD-WQHD Renderauflösung.
 
@wtfNow

Ich hab doch extra umfangreich erklärt und reproduzierbare Ergebnisse als Screenshot dran gehangen. Was war daran jetzt so schwer zu verstehen?

Ich spreche von neueren oder eben anspruchsvollen Titels. Hogwarts, Cyberpunk und co. Wieso kommst du mir dann solchen durchschnittlichen werten über eine breite Palette an zum Teil älteren oder gar nicht so anspruchsvollen Spielen. Es geht hier darum wie die zukünftige Performance sich entwickeln wird. Wie uns die letzten Triple AAA Releases gelehrt haben, sind diese Ergebnisse für die Zukunft repräsentativ. Da interessieren mich weniger anspruchsvolle und ältere Titel die das Ergebnis nach oben ziehen erstmal gar nicht.
 
  • Gefällt mir
Reaktionen: cyberpirate
@C0rteX
Ich sehe kein Muster für neue Titel sondern Cherry picking;)
Lasse mich aber gerne eines besseren belehren:)
Schaffe es aber erst frühestens heute Abend, bin angeln ;)
 
Du hast einen Vergleich mit der 4070ti gebracht. Die Karte steht aber gar nicht zur Auswahl. Die 4070 hat weniger Leistung und damit fällt es weniger ins Gewicht.
 
Zurück
Oben