Test Nvidia GeForce RTX 4070 Super im Test: Mehr Leistung für die 12-GB-Grafikkarte

DevPandi schrieb:
Es ist ein valider Kritikpunkt an der Karte und wer die 12 GB für eine heutige Karte zu wenig findet, der hat genau so recht, wie jemand, der dagegen hält.
Absolut. Derjenige sollte dann aber auch so konsequent sein und die Konkurrenz mit mehr VRAM kaufen statt hier nur zu weinen und damit zu offenbaren, dass man EIGENTLICH ja eine nVidia will aber halt für weniger Kohle weil man Betrag X nicht ausgeben möchte. :)

Und dann am Besten noch den Leuten die sich dennoch eine holen einen Vorwurf draus machen nicht verzichtet zu haben, nicht nachhaltig zu sein etc. pp. nur weil man die abstruse Hoffnung hat, dass dann die Preise auf das eigene gewünschte Level fallen könnten. :D

Hier wird schon viel zusammen konstruiert und verdreht (nicht auf dich bezogen).
 
  • Gefällt mir
Reaktionen: domian, Maviba, Quidproquo77 und 2 andere
VRAM, tja bei einer 3080 wirds ja bereits eng bei diversen Titeln und diese ist gerade mal ein bisschen über 2 Jahre alt. Genauso wird es imho der 4070(S) ergehen, in 2 Jahren ist Schicht im Schacht. Auflösung sei jetzt mal dahingestellt, aber solche Karten kauft man sich vermutlich nicht für FHD.

Wenn man Regler in Games bedienen kann, werden diese Grafikkarten aber durchaus auch über längere Zeit ihren Dienst verrichten können.
 
  • Gefällt mir
Reaktionen: JarlBallin
Schon krass:

RTX 3090 Fe ist nur ca. 5% schneller als die RTX 4070 Super!
Hallo? Purer Wahnsinn für mich.
 
  • Gefällt mir
Reaktionen: calippo und WhiteRabbit123
DAU123 schrieb:
Genauso wird es imho der 4070(S) ergehen, in 2 Jahren ist Schicht im Schacht.
Wenn man unfähig ist die Regler von ganz Rechts ein wenig Richtung Mitte zu bewegen.
Aber einige haben immer noch nicht begriffen, das 12GB auf AMD und Nvidia ein Unterschied ist. AMD braucht mehr Speicher, schlechtes Speichermanagement.
 
Wenn du schon zitierst, dann richtig. Habe ich nämlich ebenfalls dazugeschrieben...

Edit: Speichermanagement hin oder her, deswegen haben AMD-Karten vermutlich von Haus aus mehr Speicher. Nicht desto trotz geht nV-Karten früher der Speicher einfach aus :stacheln:
 
  • Gefällt mir
Reaktionen: JarlBallin
@Tr8or
Der Thread hier ist ein wunderbares Beispiel dafür, wie sich ein bestimmtes, undifferenziertes Narrativ in den Köpfen festsetzt, wenn es nur häufig genug genauso undifferenziert verbreitet wird.
 
  • Gefällt mir
Reaktionen: Apocalypse
Tr8or schrieb:
Wenn man unfähig ist die Regler von ganz Rechts ein wenig Richtung Mitte zu bewegen.
Ich habe meine Grafikkarten normalerweise 3 - 5 Jahre, für mich macht es dann schon einen Unterschied, ob ich den Regler in 1 oder 2 Jahren betätigen muss, oder erst in 3 oder 4 Jahren.
 
  • Gefällt mir
Reaktionen: JarlBallin
DAU123 schrieb:
VRAM, tja bei einer 3080 wirds ja bereits eng bei diversen Titeln und diese ist gerade mal ein bisschen über 2 Jahre alt. Genauso wird es imho der 4070(S) ergehen, in 2 Jahren ist Schicht im Schacht. Auflösung sei jetzt mal dahingestellt, aber solche Karten kauft man sich vermutlich nicht für FHD.
Eine 3080 ist fast dreieinhalb Jahre alt (Release: Sept. 2020) und schafft auch heute VRAM-technisch aktuell 99% der Spiele in WQHD.

Bitte lasst einfach diese Übertreibungen...

Inwiefern beispielsweise eine 6800XT in den letzten Jahren die bessere Wahl war lasse ich ebenfalls mal dahingestellt.

Eine 4070 ist perfekt für WQHD und dass auch für die nächsten Jahre.
 
  • Gefällt mir
Reaktionen: Innocience, calippo, Cohen und 4 andere
D3xo schrieb:
In 10 Monaten kommt schon die 5070.
Da wette ich gegen. Welcher Wetteinsatz schwebt dir vor?

Die 4070 ist übrigens erst im April 2023 erschienen, knapp ein halbes Jahr nach den Highend-Karten.
 
Zuletzt bearbeitet:
BOBderBAGGER schrieb:
Nicht wirklich (...)
Natürlich, denn andere Messinstrumente als Frametimes, Varianzen,FPS, V-ram Allokation und Verbrauch im Zusammenspiel mit der Anwendung stehen einfach nicht zur Verfügung und diese sind ja unstrittig.
Ich bevorzuge jedenfalls klare Messergebnisse als theoretisierendes philosophisches herumspekulieren, warum das AMD Bild nun "richtig" sein soll.
BOBderBAGGER schrieb:
denn sehr viele Probleme die wir das letzte Jahr gesehen haben lassen sich mit einem Balken oft einfach nicht darstellen.
Andere Probleme sind ja nicht Bestandteil der Diskussion, oder habe ich etwas verpasst?
BOBderBAGGER schrieb:
Insbesondere weil Benchmark runs vergleichsweise kurz sind und oft nicht das abbilden was im Spiel tatsächlich passiert.
Je länger man das Spiel spielt, desto mehr verschärft sich die Problematik und gerade dann wenn der V-ram knapp ist, ist die Lage eben zwischen AMD und Nvidia unterschiedlich. Nicht umsonst wird regelmäßig darauf verwiesen. Es wird ja nicht besser für AMD, wenn das Spiel länger läuft...
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Tenferenzu schrieb:
Na Super, noch eine GPU mit zu wenig vRAM.
Daran sind die Gamer aber auch zum Teil selbst schuld.
Sie sind zwar in den Foren immer fleißig am Ätzen und herumnölen, kaufen die Karten am Ende aber trotzdem ganz brav. Sehr konsequent ^^

In manchen Bereichen ist Nvidia aber auch konkurrenzlos, und da die heutige Generation von Gamer neben der mangelnden Konsequenz auch nicht sehr gut darin ist, Kompromisse einzugehen oder Einschränkungen in Kauf zu nehmen, sind sie eben dankbare Opfer.
 
  • Gefällt mir
Reaktionen: JarlBallin
Wan900 schrieb:
Eine 3080 ist fast dreieinhalb Jahre alt (Release: Sept. 2020) und schafft auch heute VRAM-technisch aktuell 99% der Spiele in WQHD.

Bitte lasst einfach diese Übertreibungen...

Inwiefern beispielsweise eine 6800XT in den letzten Jahren die bessere Wahl war lasse ich ebenfalls mal dahingestellt.

Eine 4070 ist perfekt für WQHD und dass auch für die nächsten Jahre.
Auch du liest nur, was du lesen willst... Katastrophe!!!
 
  • Gefällt mir
Reaktionen: JarlBallin
ghecko schrieb:
Soweit ich weiß ist die mit der Super offiziell eingestellt und wird nicht mehr produziert
Die 4070 wird weiter angeboten. EOL ist nur die 4070 Ti und die 4080.
 
  • Gefällt mir
Reaktionen: drSeehas
DevPandi schrieb:
...jetzt bloß nicht aus allen Wolken fallen, dass ich nun DLSS als FSR überlegen hinstelle, es hat schon einen Grund, warum ich schrieb, dass ich gerne ein Advocatus Diaboli bin!
Also hast du erkannt, dass es unsinnig ist, darauf zu beharren? Ist ja schon mal ein Fortschritt.
Eine Einnahme der falschen Gegenposition aufgrund eines rhetorischen Wettstreits, kaufe ich dir nicht ab.
DevPandi schrieb:
Das sieht bei FSR anders aus, damit FSR "vergleichbare" Ergebnisse liefert, muss ein Entwickler wesentlich mehr Aufwand betreiben.
Der Aufwand wäre aber aufgrund der limitierten Arbeitsweise von FSR, sprich weniger Samples gar nicht zu stemmen...
DevPandi schrieb:
Wird FSR mit minimalem Aufwand eingebaut, dann ist FSR DLSS deutlich unterlegen und genau dass ist es auch, was immer wieder zu sehen:
Das ist nicht die Schuld der Entwickler, sondern liegt primär am Upscaling selbst.
Das kann noch so gut integriert werden, es bleibt Stand jetzt immer unterlegen. Gegenbeispiele in Videoform würde ich gerne sehen.
DevPandi schrieb:
Die Unterschiede einer guten FSR und DLSS-Implementation sind subtil und sollte man auf bestimmte Artefakte bei dem einen Upscaler negativ reagieren, kann man den anderen testen und entsprechend entscheiden, was einen dann weniger stört.
Und in welchem Spiel soll das so sein? Das beste Beispiel ist Avatar, wo aber DLSS insgesamt immer noch deutlich vorne liegt, besonders dann wenn man eine andere DLSS Version nutzt und das Ghosting bei kleinen Fliegen, wenn man stillsteht eliminiert. Bewegt man sich durch den Wald ist das DLSS wesentlich stabiler zudem sind auch mehr Details zu sehen, die von FSR verschluckt werden. Auch das ist keine Geschmacksfrage.
Es steht und stand dir frei deine Thesen einfach durch einen Videovergleich zu untermauern. Ich habe das gemacht, von dir kam nichts.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg
Draco Nobilis schrieb:
Nur halt kein Diablo 4
oder Hogwarts
Doch, beides. Diablo 4 halt bis BG3 raus kam und Hogwarts Legacy hatte ich noch auf meiner alten Grafikkarte, eine 1070TI, auf meinem 4k Monitor gespielt.... Natürlich nicht mit maximalen Details aber es war gut spielbar und sah auch nicht scheiße aus. 12 GB VRAM reichen für casual Gaming auch mit 4K Auflösung aus und passt demnach bei der 4070 halt zur Zielgruppe.
 
  • Gefällt mir
Reaktionen: drSeehas und Fallout667
ShowOff schrieb:
die tägliche Vram Diskussion - so sicher wie das Amen in der Kirche :>
Nur so lang ein Hersteller in der Leistung zurück liegt aber mehr Speicher auf die Karten packt.

Sonst pfeift da niemand nach.
 
DAU123 schrieb:
Auch du liest nur, was du lesen willst... Katastrophe!!!
Geht's noch? Willst du Mathe-Ass jetzt bestreiten dass dein "bisschen über 2 Jahre" völlig daneben lag, wenn seit dem Start der 3080 satte 40 Monate vergangen sind?
Ergänzung ()


Hier noch mal dein Zitat:
DAU123 schrieb:
VRAM, tja bei einer 3080 wirds ja bereits eng bei diversen Titeln und diese ist gerade mal ein bisschen über 2 Jahre alt.
 
Dann hängt euch doch an dem 1 Jahr und paar Monate auf.
Fakt ist, bei diversen Spielen geht der 3080 der Speicher aus, Speicherkompression gut oder schlecht :heuldoch::stacheln:

Außer man kann die Regler im Game bedienen... :mussweg:
 
  • Gefällt mir
Reaktionen: JarlBallin
Maxminator schrieb:
Schon krass:

RTX 3090 Fe ist nur ca. 5% schneller als die RTX 4070 Super!
Hallo? Purer Wahnsinn für mich.
Und mit FrameGeneration +100%
 
Zurück
Oben