Test Nvidia GeForce RTX 4070 Super im Test: Mehr Leistung für die 12-GB-Grafikkarte

Hallo zusammen,

@Taxxor
Taxxor schrieb:
Hier bei CB ist die 4070S im 1440p Rating (Raster/RT) 10%/48% vor der 7800XT.

bei PCGH sind es 9%/53%
Ach komm, das fällt doch beinahe in den Bereich der Meßungenauigkeit. Es zeigt für mich doch klar auf, daß die beiden nahezu auf gleichem Niveau agieren.

Wenn auf dem Niveau so geringe Unterschiede vorliegen, kann dies durch zig Gründe bedingt sein, alleine schon was die unterschiedlichen Testumgebungen angeht.

So long....
 
Luxmanl525 schrieb:
Ach komm, das fällt doch beinahe in den Bereich der Meßungenauigkeit.
Exakt, daher verstehe ich die Aussage nicht man solle auch mal bei PCGH schauen bevor man sich für die 4070S entscheidet, als ob dort was anderes rausgekommen sei
 
  • Gefällt mir
Reaktionen: MrHeisenberg, Rockstar85, evilhunter und eine weitere Person
Leistung ✔️
Effizienz ✔️
Featureset ✔️
Preis ❌❌❌

Was die Masse brauchte war keine 15% schnellere GPU für noch mehr Geld, sondern die bestehende 4070 mit 16Gig für max. 500€, während das untere Lineup sich entsprechend weiter nach unten und die Konkurrenzprodukte sich ebenfalls anpassen, damit der <=300€ Preisbereich endlich mal gute Karten bekommt und die obere Mittelklasse nicht zu Semi-Enthusiast-HighEnd-Preisen den Besitzer wechselt.

Aber die Hersteller sind nicht blöd. Die wissen schon wie der Hase läuft, während die, die eigentlich an einem großen Hebel sitzen den Wald vor lauter Bäumen nicht sehen.
 
  • Gefällt mir
Reaktionen: JarlBallin, anarchie99, washieiko und eine weitere Person
Hallo zusammen,

@Taxxor
Taxxor schrieb:
Exakt, daher verstehe ich die Aussage nicht man solle auch mal bei PCGH schauen bevor man sich für die 4070S entscheidet, als ob dort was anderes rausgekommen sei
Alles klar. Klarer Fehler meinerseitig, da ich den Kontext deiner Formulierung nicht korrekt erkannte. Thanks für den Fingerzeig.

Grundsätzlich bin ich allerdings ehrlich gesagt sowieso irritiert darüber, wie stark hier die Aussagen von PCGH gewichtet werden. Kann ich ehrlich gesagt aufgrund der Vergangenheit nicht nachvollziehen. Erst Recht dann wenn es um solche Unterschiede geht, wie im vorliegenden Fall.

So long....
 
Holzinternet schrieb:
Für mich persönlich wird diese Karte die kommenden drei bis vier Jahre mehr als ausreichend sein.
Und genau das ist sehr traurig.
Meine GTX1070 hatte ich 6 Jahre in Gebrauch!
6 Jahre aktuelle Spiele auf hoch in FHD.

Ich nutze nun eine 7900XTX auf einem WQHD Bildschirm und die Karte sollte hoffentlich 10 Jahre für ~100 FPS sorgen.

Leider müssen nun die GPU schlecht optimierte Spiele ausbügeln... Und das zu einem verdammt teuren Preis.
 
  • Gefällt mir
Reaktionen: Eli0t, Holzinternet, SweetOhm und 2 andere
Mr. Vega schrieb:
In P/L Bewertungen fließen aber nunmal reale Performance Werte und der Preis ein.
Wenn Software Features für dich dazu gehören okay, dann ist das aber deine persönliche Rechnung.

Wenn für dich nur Rasterleistung für P/L zählt, dann ist es eben so. Am Ende sollte immer das Gesamt-Paket für P/L zählen und dieses kann je nach eigener Nutzung natürlich abweichen. Aber Rasterleistung ist schon lange bei Grafikkarten nicht mehr das Maß der Dinge wie es früher war.

Ganz ehrlich, wenn ich DLSS und Raytracing aktivere und mir dann jemand kommt und sagt, dass die AMD das bessere P/L hat, dann verstehe ich die Welt nicht mehr. Ebenso wenn ich diverse Anwendungen / KI-Anwendungen verwenden möchte. Oder wenn ich im E-Sport unterwegs bin. Oder wenn ich Wert auf Energieeffizienz lege und dadurch über die nächsten 5-6 Jahre >100€ Strom spare. Oder...

Ich habe ja gesagt, wenn Rasterleistung die Bewertung ist, dann kann AMD noch mithalten. Kenne nur fast niemanden mehr, der mit Nvidia Möglichkeiten auf alle Features verzichtet. Jedes Feature hat für mich einen Wert und dieser fließt mit ein in P/L.
 
  • Gefällt mir
Reaktionen: Innocience, Wurzel, Quidproquo77 und eine weitere Person
Kennt Jemand den Lochabstand einer RTX4080 rund um die GPU ?
PCB Abstand.jpg
 
Zuletzt bearbeitet:
Ayo34 schrieb:
Ganz ehrlich, wenn ich DLSS und Raytracing aktivere und mir dann jemand kommt und sagt, dass die AMD das bessere P/L hat, dann verstehe ich die Welt nicht mehr.
Wenn das für dich persönlich in deine P/L Rechnung mit einfließt auch absolut okay.
Ayo34 schrieb:
Ebenso wenn ich diverse Anwendungen / KI-Anwendungen verwenden möchte
Wie du an meinem Profil eventuell gesehen hast nutzt ich für professionellere Anwendungsgebiete eine Radeon Pro bzw. vorher die Radeon VII. Ich kann dir sagen mit der ROCm APi/HIP API funktioniert das alles, auch AI via DirectML oder PyTorch.
Ich kann auch Cuda Programmcode oder Anwendungen auf meiner Radeon problemlos ausführen mit dem HIPIFY Tool automatisiert.
Das aber nur als kleiner Exkurs. Also arbeiten mit Radeon funktioniert auch.
Ayo34 schrieb:
Oder wenn ich im E-Sport unterwegs bin.
Wobei im Esport RT und Software Features noch weniger relevant sind. Siehe Valorant, LoL und Co.

Ayo34 schrieb:
Aber Rasterleistung ist schon lange bei Grafikkarten nicht mehr das Maß der Dinge wie es früher war.
Und hier Differenziere ich Singleplayer Games und Multiplayer.
Beim Ersten stimme ich dir zu, beim Zweiten nicht oder nur bedingt.

Deine Sicht der Dinge kann ich aber trotzdem nachvollziehen.
 
  • Gefällt mir
Reaktionen: washieiko, SweetOhm und Luxmanl525
ghecko schrieb:
Grob 297 Pixel.
Mal im Ernst, wie sollen wir das anhand des Bildes raus finden? Ich seh da kein Maßstab.
an der GPU vl ausmessen ?
 
Also die ersten Preise sind ja da (bspw. die Asus 4070 Super Dual OC), aber die (grundlosen) Optimisten werden wohl vorerst nicht zuschlagen, denn knapp 710 Euro ist schon eine Ansage...
 

Anhänge

  • asus4070super.jpg
    asus4070super.jpg
    239,5 KB · Aufrufe: 145
  • Gefällt mir
Reaktionen: DaCrazyP, C0rteX und SweetOhm
Mr. Vega schrieb:
Ich habe aber von "schlechten" Konsolen Ports geschrieben und die gab es 2023 zu hauf.
Dann zähle mal auf!

Die Diskussion über angeblich zu wenig VRAM wird schon seit über 10 Jahren geführt und bis heute hat sich diese Geschichte nicht bewahrheitet. Abgesehen von der GTX970, über die man ein eigenes Kapitel schreiben kann, ist die Sache weder für RX480/GTX1060 noch für RX590/2060 oder irgendeine Karte aus dem AMD Lager irgendwie zum Vorteil ausgegangen.

Das einzige was sich nicht geändert hat, sind die "Fans" und deren immer gleichen Argumente. Wenn die Grafikkarten in ein paar Jahren nur noch 20FPS schaffen interessiert mehr VRAM auch niemandem mehr.
 
  • Gefällt mir
Reaktionen: Innocience, Fallout667, Wan900 und eine weitere Person
Schinken42 schrieb:
Weil es immer wieder aufkommt: Rat mal, wer das mit dem Interface entschieden hat. Das ist kein Naturgesetz, NV entscheidet über Architektur und Anbindung.
ja, und das bei design irgendwo am anfang des prozesses, lange vor einem tape-out oder ersten geversuchen mit neuen chips im labor.
und nun? jetzt hat der ad104 nunmal 192bit - was ist den die erwartungshaltung? dass nvidia in ihrer herzensgüte für gamer den ad104 nicht verwendet? dass man da 24gb draufpackt und die karte für 450€ verkauft? dass man den ad103 für den preis des ad104 verkauft?

nichts für ungut, aber wenn man sich über nvidias designentscheidungen und preispolitik echauffieren will, dann darf man nicht vergessen das wir als kunden diese preispolitik willig mitgemacht haben, uns die effiziennz vermeint das wichtigste war und wir bei dlss shut-up-and-take-my-money gerufen haben.
man muss es sich eingestehen: die karten taugen für wqhd und werden wahrscheinlich noch eine ganze weile fhd stemmen können - genau wie es bei der 3070 oder der 2060s war...
 
  • Gefällt mir
Reaktionen: drSeehas und Fallout667
longusnickus schrieb:
schön, dass sie ihre meinung haben. können sich trotzdem nur die wenigsten leisten, auch wenn sie eine meinung haben!
ist zumindest meine einschätzung. ich hab keine >600€ alle 2 jahre für eine grafikkarte. und das meine ich dann mit uninteressant
"Kann (oder will) ich mir nicht leisten" wird also zu "Können sich nur die wenigsten leisten".
Zudem muss auch niemand alle zwei Jahre über 600 € in Grafikkarten investieren.
Und wer trotzdem alle zwei Jahre über 600 € für eine neue Grafikkarte zahlt, kann die bisherige meistens noch zu einem recht guten Kurs weiterverkaufen.

longusnickus schrieb:
und wie ich auch oben geschrieben habe bin ich fanboy von offener software.

... und anscheinend auch Fan von Restriktionen und Verboten.

"so zeug wie DLSS sollte man mMn auch nicht unterstützen"
"mehr Spiele sollen nicht mehr das geschlossene DirectX nutzen"

Ich bin für die Unterstützung von FSR und DLSS und XESS in Spielen und man sollte den Spielern die Auswahlmöglichkeit geben.
Ich bin für die Unterstützung von Frame Generation und Fluid Motion Frames und ExtraSS in Spielen und man sollte den Spielern die Auswahlmöglichkeit geben.
Ich bin für die Unterstützung von Vulkan und DirectX in Spielen und man sollte den Spielern die Auswahlmöglichkeit geben.

Dann hat man oft auch verschiedene Lösungsansätze, die dazu dienen können, die eigene Software noch weiter zu verbessern.
 
  • Gefällt mir
Reaktionen: Innocience, Fallout667, Vigilant und eine weitere Person
Taxxor schrieb:
Dass nur die Wenigsten für ihr Hobby 25€ im Monat zurücklegen können, halte ich für ne steile These
Wie oft gelesen und ebenso oft falsch. Zur GPU gehören bedauerlicherweise noch CPU, passender Ram, Board und wenn es ungünstig löuft das Netzteil + CPU-Kühler. Dann sind wir nämlich nicht mehr bei 25€ sondern bei 100€.
Für 80% der Angestellten im Monat eine beachtliche Summe. Im dekadenten CB "Peanuts".

Meine persönliche Meinung, dass es im Hinblick auf die Inflation möglich sein muss für 300€ eine GPU zu bekommen, die zumindest dem Mittelmaß entspricht. Vor nicht allzu langer Zeit war das eine RX 580 für 250€. 7700XT und 4060 TI für 450€ sind völlig überteuert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
DerMond schrieb:
Die paar Groschen für 4gb mehr Ram hätten 99% aller User sicherlich gezahlt. Einem Konzern oder Anbieter der dem Kunden nicht genau das gibt was er will, obwohl er bereit ist dies zu zahlen, kann man eigentlich nur in die Tonne treten.
Ganz so einfach ist es dann doch nicht. Der Speicher weil gescheit angebunden werden. Das gibt der Chip gar nicht her. Oder Nvidia trickst wie seinerzeit bei der GTX 970... und was wurden die dafür geschmolzen.
Also mehr VRAM = größerer Chip = höherer Preis. Weil sich niemand
Ergänzung ()

Im Endeffekt ist es eine Karte, für Spieler die gelegentlich raytracing ausprobieren wollen, in FHD oder WQHD spielen und die GPU alle 2 Jahre ausrüsten.
Für ernsthafte Raytracing Nutzung ist die zu schwach, für die Langzeitnutzung kann der 12 GB VRAM zu knapp sein. Mit 16 GB bietet die RX 7800 XT das bessere Paket. Raytracing kann die aber auch nicht wirklich gut bzw deutlich schlechter.
Unterm Strich ist die mir echt zu teuer (UVP 660 €).
Bei Nvidia bekommt man für 500 +/- 10% eben auch nix, was die ganzen RT Features wirklich gut beherrscht. Da kann man auch zu RX 7800 XT greifen. Oder warten was RDNA 4 so bringt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: drSeehas
xexex schrieb:
Das einzige was sich nicht geändert hat, sind die "Fans" und deren immer gleichen Argumente
Ich glaube nicht das der PCGH Redakteur ein "Fan" nach deiner Definition ist.
Nur sagt seine Liste etwas anderes als Du und es mag zwar komisch sein aber in seine Expertise habe ich mehr Vertrauen als deine Aussagen.

"Dann zähle mal auf!"

Hogwarts-Legacy
Last of Us Part 1
Jedi Survivor
Calisto Protocol (nicht in der PCGH Liste)
Spider Man Miles Morales
RESI 4 2023
Dead Space 2023
Gollum (nicht in PCGH Liste)
Remnant 2
Lies or P
Lords of the Fallen (nicht in PCGH Bsp Liste)

und weitere Games die Probleme mit 12 GB haben/hatten kannst ja der Liste an Bsp. entnehmen.

Auch sehen diese Videos aus 2023 auch nicht so gut vorallem am Bsp für 8 und 6GB Karten aus in Games 2023, wie du es behauptest. Also ist der Vram eben doch ein Faktor auch wenn es moderne GPUs sind. Bsp. 3070/Ti 8GB. Und die PCGH Bsp. Liste zeigt das es bei 8GB nicht aufhört in Zukunft bzw. eben jetzt bereits.


[/QUOTE]
 

Anhänge

  • Screenshot_2024-01-17-01-06-09-872_com.google.android.youtube.jpg
    Screenshot_2024-01-17-01-06-09-872_com.google.android.youtube.jpg
    974,6 KB · Aufrufe: 129
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: JarlBallin und Rockstar85
Ein guter Leistungssprung bei der Super, ich habe heute dennoch meine XFX 7800 XT für 500 Euro aus den Mindstars bekommen und bin mit der Effizienz auf 1025Mv und den 16GB mehr als zufrieden und das auch noch ohne Spulenfiepen.
 
  • Gefällt mir
Reaktionen: Eli0t, Enyo79 und Toprallog
Quidproquo77 schrieb:
Aktuell gibt es soviel ich weiß kein einziges Game in dem 12GB wirklich limitieren
CoH3 limitiert z.b,da gibts halt keine ultra Texturen mit 12GB vRam.

Das "will"16GB,auch wenns am ende garnicht soviel nutzt.....

Also wenn die spiele von sich aus nicht soviel brauchen,dann packt halt der Entwickler einfach nen pseudo limit rein lol.
 
Zurück
Oben