Test Nvidia GeForce RTX 4070 FE im Test: (Knapp) RTX-3080-Leistung und 12 GB für 659 Euro

Na zum Glück hab ich mir die 6800 zum Schnäppchenpreis von 325€ geholt. Bissl mehr Verbrauch, etwas weniger Leistung. Bin zufrieden mit mir 😅
 
  • Gefällt mir
Reaktionen: Rock Lee, Eli0t, DerFahnder und eine weitere Person
Moselbär schrieb:
Schöner Test, Danke.

Aber zu teuer und "nur" 12GB VRAM.
Ich glaube für den Anwendungsbereich der Karte ( 1080p Sehr hohe FPS/1440p) sind 12 gigs Vram noch ausreichend. 4k geht wohl wie mit der 3080 bei vielen Spielen nur wenn man ein bisschen an den Reglern schraubt. Der Preis stört mich wesentlich mehr als der Vram.
 
danyundsahne schrieb:
Naja, du hast wohl in der Mining und Corona Blase gekauft, da waren die Preise eh nicht mehr zu retten. Da hätte ich überhaupt nicht so eine teure GPU gekauft.
Nope habe die 3090 direkt am release gekauft 1599€. Zumal da schon COVID in China unterwegs war. Eine NV Titan hat auch schon immer min. 1k gekostet und ein 1080ti auch eine 690 GTX dual hat 800€ etc gekostet. Und du musst doch auch nicht kaufen, wenn du sie nur zum spielen nimmst ist es auch zu teuer. Und klar hätte ich gern unter 1k eine rtx 4090 gekauft. Wird es aber erst in einem Jahr frühstens gebraucht geben. Ach ja dann ist ja wieder ne Gen auf dem Markt gekommen und die ist dann auch wieder zu teuer und ich warte dann auf die nächste gen. Etc....
 
Wan900 schrieb:
iablo 4 habe ich vor zwei Wochen im Zweitrechner auf 1440p Ultra mit 8 GB VRAM ohne Probleme gezockt.
Heißt "ohne Probleme" bei dir auch, dass das Streaming einwandfrei funktioniert hat? Oder hast du darauf nicht geachtet, sondern nur, wie die (gefühlte) Performance war? Denn vor allem dort liegt auch der Hund begraben, wenn der Speicher ausgeht. ;) Das mündet nämlich nicht automatisch nur in mieser Performance. Manchmal ist die Performance an sich noch ohne Auffälligkeiten, aber es fängt schon mit Texturenmatsch an. Macht z.B. Hogwarts Legacy.
 
Tronix schrieb:
Für die Video-Encoder:
RTX 3080 8704 CUDA cores
RTX 3070 5888 CUDA cores
RTX 4070 5888 CUDA cores

Etwas enttäuschend 😕

Amaoto schrieb:
Der Encoder ist von den CUDA-Kernen unabhängig:
Zusätzlich beginnt mit den 40xx die 8. Generation von NVENC die nun zwei davon pro Chip enthalten und erstmalig AV1 unterstützten.
Um darüber zu Urteilen, müsste die Qualität und Geschwindigkeit vergleichen werden. Bisher war ersteres für micht nicht ausreichend und daher nutzte ich meistens nur CPU Encoding.
 
Ich habe das Gefühl das JEDES unternehmen aktuell austestet wie weit man "Gewinnoptimierung" Treiben kann.
Ganz egal ob AMD, Intel, Nvidia, Supermärkte, Lebensmittelhersteller, oder auch nur Dönerläden.
Nvidia macht es nur ganz besonders offensichtlich und Versucht über Softwarefeatures eine vollkommen Überteuerte Grafikkarten Generation zu verkaufen.

Und wer jetzt ankommt mit "Ja Fertigungsprozess ist ja auch teuerer", "Ja, ist ja auch effizienter", "Ja, hat ja auch mehr/anderen VRAM" "Ja, beliebiges Argument einfügen" kanns direkt für sich behalten.
Das war auch schon bei dem Generationswechsel von Grafikkarten in 1990, 2000, 2010 und alles dazwischen auch so.
Und trotzdem hat man noch nie für das selbe Geld verglichen mit der letzten Generation so wenig Mehrwert bekommen.
 
  • Gefällt mir
Reaktionen: Lonesloane, Rock Lee, Eli0t und 2 andere
Wie jede Ada, solide bis sehr gute Hardware, mit einem geisteskranken Preisschild
 
  • Gefällt mir
Reaktionen: DerFahnder und Kenzo2019
Beschwert euch lieber bei AMD und Intel dass sie aus den Puschen kommen und ernst zu nehmende Konkurrenz bieten sollen. Und zwar bei allem: Performance, Effizienz, RT, Frame Generation, Reflex, Upscalling in DLSS Qualität und DLSS Verbreitung...

Oder bedankt euch dass Nvidia immerhin die Technologie vorantreibt und irgendwann die anderen hinterherziehen (müssen).
Aber solange das so ist, kann Nvidia die aktuellen Preise verlangen weil das Gesamtpaket leider konkurrenzlos ist. Der Markt macht die Preise.
 
  • Gefällt mir
Reaktionen: derMutant, eraser4400, Mironicus1337 und eine weitere Person
KurzGedacht schrieb:
Es kommen mehr und mehr Spiele raus bei denen 12 GB schlicht zu wenig sind. Zuletzt bswp bei der Diablo 4 beta (war vermutlich noch nicht optimiert) oder bei Hogwarts legacy (braucht in 4k mit RT schlicht ~16GB).

Mit den neuen Engines werden hochauflösende Texturen die entsprechend Speicher brauchen noch häufiger werden.
Die Karten mit zu wenig Speicher auszustatten, um die Lebenszeit unnötig zu begrenzen und die Leute möglichst bald zum Neukauf zu bringen ist irgendwie so ein typisches Nvidia Ding.

War bei der 3080 auch schon so ein Drama. Kaufst ne High End Karte für 1000 € und ein Jahr später hast du schon Spiele bei denen der VRam nicht reicht. Ätzend einfach.
Naja, willst du mit so einer Karte ernsthaft 4k mit RT spielen? Das ergibt doch wenig Sinn.
Ich hatte zuvor eine RTX 3080 mit nur 10 GB und ich hatte nicht ein Spiel in den letzten 2 Jahren, wo ich jemals in das VRAM-Limit gelaufen bin, wohlgemerkt mit der Auflösung 3840x1600 und meist in high/ultra settings.
Ich kann mir beim besten Willen nicht vorstellen, dass diese 12 GB für diese Leistung nicht ausreichen.
Vielleicht gibt es dann mal 1 Ausnahme wegen schlechter Optimierung, aber deswegen 16GB zu verbauen, wäre doch sinnfrei und würde die Karte nur noch teurer machen.
Dieses VRAM-Argument "dass bald neue Spiele kommen und viel mehr Speicher benötigen" höre ich auch schon seit einer Ewigkeit, aber bisher konnte ich davon noch nicht wirklich etwas sehen.
Ich verstehe zwar einerseits deinen Einwand, dass man zukunftssicherer ist, aber es wird meiner Meinung nach viel zu arg hoch gekocht, da man in mehr als 95% der Spiele nicht mal ansatzweise überhaupt an die 12 GB kommt, außer man spielt wirklich in 4k mit RT, aber das ist ja nicht wirklich der Einsatzbereich so einer Karte.
 
  • Gefällt mir
Reaktionen: Alex1966, Glasreiniger, Mironicus1337 und 2 andere
danyundsahne schrieb:
Und die Treiber Probleme gab es eher bei RDNA1 (RX5000) Karten. Das weiß ich noch, da ich selbst eine gekauft habe zu dem Zeitpunkt. Bin aber von den Problemen komplett verschont gewesen. Habe es aber verfolgt.
Aber dass die RX6000 so massig Probleme hatten? Kam mir nicht so vor.
Ja hatte auch ein 5700xt und 5700 und davor Vega 7 Vega 56&64 davor hd 5770 etc. Ich meine die Treiber der letzten Monate, kann natürlich sein das ich halt nur Pech hatte dieses Mal.
 
  • Gefällt mir
Reaktionen: danyundsahne
TrabT schrieb:
Was für eine miese Karte... Gebrauchte 3080 is das einzig vernünftige momentan
Bekommt man die 3080 gebraucht wesentlich billiger grad? Ich würd eher warten bis die 4070 etwas im Preis fällt oder warten ob AMD endlich mal mit was brauchbarem ums Eck kommt und dann kaufen. Gebrauchte gpus wären mir persönlich irgendwie zu unsicher es sei denn man bekommt ne Rechnung mit Restgarantie dazu.
 
qu1gon schrieb:
Steh ich auf dem Schlauch? :-)
Ist eine einfach uppselling Strategie ohne das riesige Angebot alter Karten zu gefährden.
Wer soll die ganzen 3000er Karten kaufen wenn wir wie üblich die ganze untere Palette auf ein einmal bekommen hätten.

Deshalb sind die ja auch preislich (abgesehen der 4090) so positioniert das man gleiche Leistung fürs gleiche Geld bekommt und damit auch noch gleich eine saftige Preiserhöhung zur vorgänger Generation oben drauf.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: qu1gon
Ich bin nach dem Test eher erstaunt, wie gut die RX 6800 sich in Preis Leistung aber vor allem in Performance pro Watt schlägt.
 
  • Gefällt mir
Reaktionen: Organix
Blumentopf1989 schrieb:
Das wird nicht passieren, schließlich sind die Preise für uns, trotz guten Eurokurs, nach wie vor höher als in den USA, selbst mit lokalen Steuern.
599 USD = 545,57€
19% MWSt -> 649,23€

Wenn man noch so Geschichten wie Elektronikentsorgung und Gewährleistung bedenkt, sind die 10€ Aufpreis vom reinen Wechselkurs einwandfrei.
 
  • Gefällt mir
Reaktionen: Rockstar85
Wan900 schrieb:
Diablo 4 habe ich vor zwei Wochen im Zweitrechner auf 1440p Ultra mit 8 GB VRAM ohne Probleme gezockt.

Hogwarts Legacy wurde mittlerweile gepatcht. Außerdem spielt keiner mit einer 4070 4k mit Raytracing Ultra.

12GB sind nicht übermäßig viel aber für die Karte eine sinnvolle Bestückung.

Und bitte hört auf hier ständig Szenarien zu konstruieren, für welche die Karte auch einfach nicht gemacht ist.

Willkommen auf Computerbase. Hab auch nur 8GB spiele auf 1440p alles Flüssig bis jetzt. Meist auf High Setting. 😎

Das ist eher so ein ich hab im Benchmark gesehen der Ram läuft voll die Karte ist jetzt nix mehr Phänomen.
 
  • Gefällt mir
Reaktionen: Alex1966, eraser4400 und CiX
Syrato schrieb:
Danke für den Test.
@Wolfgang , im Fazit heisst es, dass es eine guze WQHD Karte ist und 12 GB VRAM reichen. Steht das nicht im Widerspruch zum Hogwarts Legacy Fazit, wo 12GB VRAM schon zu wenig sind?

Eine gute FullHD Karte (für WQHD zu wenig VRAM, nicht zukunftssicher genug), aber definitiv zu teuer.
În Hogwarts reichen mittlerweile 10GB V-ram inkl. Raytracing für WQHD, 12GB für 4K.
 
  • Gefällt mir
Reaktionen: Leon_FR und wtfNow
Wenn man nun bedenkt, dass die PS5 und Xbox 16GB shared memory haben und immer mehr Spiele rauskommen, die die alten Konsolengeneration nicht mehr bedienen, ist es abzusehen, dass die Entwickler künftig hier den verfügbaren Speicher der Konsolen auch nutzen werden. Ich kann es den Leuten nicht verdenken, wenn sie auf eine Konsole umsteigen. Es ist ein Drama mit Nvidia immer und immer wieder.
Der Beitrag von HWU ist wieder einmal Gold wert, denn dieser zeigt nicht nur die FPS, sondern auch die Grafikqualität und die ist auf einer 3070 schon hart beschissen.
 
Das einzige was mich zum Kauf einer 4070 bewegen könnte wäre DLSS 3.
Aber da ich kein bock habe meine Custom Wakü auseinander zu bauen wir das wohl nix.
 
Ist mir zu wenig Mehrleistung zu meiner 2070 Super zu dem Preis. Dann die nächste Generation abwarten...
 
  • Gefällt mir
Reaktionen: Leon_FR
Zurück
Oben