Test Nvidia GeForce RTX 4070 FE im Test: (Knapp) RTX-3080-Leistung und 12 GB für 659 Euro

Onyva schrieb:
Ich habe eine 4070ti und spiele in WQHD, in Hogwarts Legacy und The Last of Us auf maximalen Settings wurden zu keinem Zeitpunkt mehr als 10.3 GB VRAM reserviert.
Beide Spiele in WQHD? Laut Forenweisen ist man doch da nur in 1080p sicher...und mit 8GB geht nicht mal mehr das....nur Geruckel und Matsch.

Für was olle 12GB nicht alles so reichen ;)
https://i.ibb.co/pRZ5GJH/unknown-2023-04-06-15-43.png
https://i.ibb.co/BKXh7ph/7.png
https://i.ibb.co/nb5PFvj/HL.png
 
  • Gefällt mir
Reaktionen: jak80
Also ich habe in beiden Spielen in WQHD einen Puffer von 1.8 GB VRAM (die Karte hat 12282 Mb VRAM, wenn man es genau nimmt). Grad mal Cyberpunk Overdrive in WQHD getestet, selbst da komme ich grad mal auf 10.2 GB VRAM und das bei maximalen Details + DLSS Quality. Cyberpunk mit Overdrive bietet ja wohl grad so das heftigste was die Grafik angeht und selbst da hab ich nen Puffer von 2 GB VRAM, deswegen kann ich den ganzen hate nicht nachvollziehen. Wer seine Grakka 6 Jahre behalten will, wird sicher nicht mit 12GB auskommen, aber dann reicht die Rohleistung so wieso nicht mehr.
 
  • Gefällt mir
Reaktionen: jak80
Naja mal hoffen dass die Karten zum Großteil einfach Regalhüter werden.
Ich werd die 3080 Ti solange runter reiten, wie die Preise so daneben liegen. Die einzige relevante Karte ist für mich sowieso nur die 4090 und deren Preis ist leider Wunschdenken und damit fällt die gesamte Generation flach.
Spiele die dann so einen Hardwarehunger fordern bleiben dann auch erstmal links liegen.

Das ist einfach zu krass wie die Preisgestaltung aktuell ausschaut. Der Preis wird heftig angezogen und die Leistung zeitgleich sinkt sehr stark. 2016 gabs noch für 650€ die GTX 1080 als bestes Customdesign, die 70er und 70 Ti noch weit günstiger.
Dass die 4070 nicht mal die 3080 Leistung bringt ist unglaublich, die müsste in jedem Fall darüber liegen bei dem Preis um mind. 10%.

Bin mal gespannt wie sich der PC Markt entwickelt und ob er sich wieder normalisiert. Gut meine 3080 Ti war auch zu teuer, viel zu teuer genau genommen, aber zu dem Zeitpunkt konnte man ja eh noch nicht so wirklich viel tun oder im passenden Umfang genießen außerhalb der 4 Wände.
 
Mal abgesehen davon das ich im Strahl Kot...en würden wenn meine RTX 3080 abrauchen würde :freak:
Es würde dann eine Radeon 7900xt oder xtx werden.

Mit Nvidia bin ich irgendwie durch bei den Preisen.
 
DaHell63 schrieb:
Beide Spiele in WQHD? Laut Forenweisen ist man doch da nur in 1080p sicher...und mit 8GB geht nicht mal mehr das....nur Geruckel und Matsch.

Für was olle 12GB nicht alles so reichen ;)
https://i.ibb.co/pRZ5GJH/unknown-2023-04-06-15-43.png
https://i.ibb.co/BKXh7ph/7.png
https://i.ibb.co/nb5PFvj/HL.png
Onyva schrieb:
Also ich habe in beiden Spielen in WQHD einen Puffer von 1.8 GB VRAM (die Karte hat 12282 Mb VRAM, wenn man es genau nimmt). Grad mal Cyberpunk Overdrive in WQHD getestet, selbst da komme ich grad mal auf 10.2 GB VRAM und das bei maximalen Details + DLSS Quality. Cyberpunk mit Overdrive bietet ja wohl grad so das heftigste was die Grafik angeht und selbst da hab ich nen Puffer von 2 GB VRAM, deswegen kann ich den ganzen hate nicht nachvollziehen. Wer seine Grakka 6 Jahre behalten will, wird sicher nicht mit 12GB auskommen, aber dann reicht die Rohleistung so wieso nicht mehr.
 
Onyva schrieb:
Also ich habe in beiden Spielen in WQHD einen Puffer von 1.8 GB VRAM (die Karte hat 12282 Mb VRAM, wenn man es genau nimmt). Grad mal Cyberpunk Overdrive in WQHD getestet, selbst da komme ich grad mal auf 10.2 GB VRAM und das bei maximalen Details + DLSS Quality. Cyberpunk mit Overdrive bietet ja wohl grad so das heftigste was die Grafik angeht und selbst da hab ich nen Puffer von 2 GB VRAM, deswegen kann ich den ganzen hate nicht nachvollziehen. Wer seine Grakka 6 Jahre behalten will, wird sicher nicht mit 12GB auskommen, aber dann reicht die Rohleistung so wieso nicht mehr.
Das war damals bei der 3080 doch das gleiche Spiel. Alle haben sich über die 10GB aufgeregt, das sei viel zu wenig und man müsste sich ja quasi sofort eine neue Karte kaufen. Aber alle Leute die ich mit einer RTX 3080 kenne sind bis heute glücklich mit der karte und können auch noch so gut wie alles auf max zocken. Die ein zwei Spiele in denen man die Texturquali was runter drehen muss machen da den Kohl auch nicht fett und die meisten merken von Ultra auf High eh keinen Unterschied.

Jetzt wird die 4070 kritisiert weil sie zu wenig VRAM hat und man soll sich doch lieber eine gebrauchte 3080 kaufen. Wo ist da der Sinn?
Und auch bei der 4070 wird der VRAM lange genug ausreichen, die 8 GB der 3070 reichen den meisten heute ja auch noch. Dann kann man halt ab und zu mal nicht alles auf max stellen, finde ich jetzt aber auch nicht sonderlich tragisch, weil den Anspruch hätte ich gar nicht wenn ich eine X070er Karte kaufe.
 
  • Gefällt mir
Reaktionen: jak80, derMutant und DaHell63
Für mich die erste Interessante Karte von Nvidia UND Radeon diese Generation.

Für 500€ könnte ich mir die 4070 auch vorstellen. Nur komme ich mit der aktuellen Karte noch hin.

Habe also Zeit und schaue in Ruhe was der Markt an Angeboten zusammenstellt damit genug verkauft wird.
 
eax1990 schrieb:
2016 gabs noch für 650€ die GTX 1080 als bestes Customdesign, die 70er und 70 Ti noch weit günstiger.
Das stimmt aber so ganz und gar nicht. 2016 hat die GTX 1080 lockere 789€ UVP gehabt, die MSI als bestes Custumdesign hat mich im Sommer 2016 850€ gekostet. Die Titan Xp hat 1200€ gekostet. Erst als die 1080ti rauskam wurden die Karten billiger. Dann kam der MiningBoom und die Karten wurden noch teurer. Erst danach wurde es richtig günstig, da habe ich die 1080ti für 720€ bekommen.
Ergänzung ()

Onyva schrieb:
Mich würde es auch mal interessieren wie eine 4070ti mit FG gegen eine 7900 XT mit FSR in Cyberpunk Overdrive abschneidet, ich glaub da bringen einem die 20 GB VRAM auch nicht viel :D
Nein natürlich nicht, die bringen erst dann was wenn ein Spiel halt mehr als die 12GB braucht. Nur hilft das auch nicht wenn die Leistung nicht für das Spiel reicht.
Das war aber quasi schon immer so. Nvidia schneller als AMD dafür AMD mit mehr RAM. Ich habe immer Karten von beiden Herstellern gehabt und kann Rückblickend nicht sagen das mir der RAM bei AMD wirklich viel gebracht hätte. Jede Karte hat immer locker bis zur nächsten Gen ausgehalten. Und dann wurden sie meisten eh zu langsam so das der RAM auch nicht mehr viel gebracht hat. Die einzige Karte bei der die AMD wirklich länger gehalten haben war bei der 7970 mit 6GB und der 290x mit 8GB, aber auch da waren es vielleicht 6 Monate die die Karte länger durchgehalten hat.
 
Zuletzt bearbeitet:
C0rteX schrieb:
Mal wieder schön relativiert. Ohne die vorhandenen Stückzahlen der 4070 FE zu kennen, ist deine Aussage einfach gar nicht haltbar. Frühere Releases liefen halt immer anders ab. Da war bereits kurz nach Start ein Großteil der Ware weg, egal ob FE oder costum und es hat einige Wochen gedauert bis eine breite Verfügbarkeit zur UVP vorhanden war. Das ist mit allen aktuellen Karten anders und die Vertriebskanäle sind voll. Das hat mit einer guten Nachfrage überhaupt nichts zu tun. Ich wollte dein gewünschtes Weltbild wirklich nicht stören. 😂

Die Kritik überwiegt doch auf jedem Techkanal und Forum. Nur immer die gleichen Namen die verteidigen und relativieren. Zum Glück weit in der Unterzahl.
Man schaue sich mal diverse Einlassungen von Igor an.

Wenn die Board-Partner UVP-Karten kaum profitabel an den Mann bekommen, findet hier im Rahmen von NVIDIAs Preispolitik ein Verdrängungswettbewerb statt.

Die Speicherpreise haben enorm nachgelassen. Aber dadurch, dass bisher alle Karten mit GDDR6X ausgeliefert werden und die Board-Partner Speicher + GPU-Chip nur im Bundle von NVIDIA bekommen, hat NVIDIA hier Kontrolle über den Preis. D.h. NVIDIA wird wahrscheinlich von den Speicherpreisen profitieren, die Board-Partner nicht bzw. in deutlichem geringerem Maße, insofern NVIDIA die Vorteile wenigstens teilweise weitergibt.

D.h. auch bei der 4070, dass die Board-Partner die Preise der Founders Edition zur UVP kaum werden mitgehen können. Nun hat man ein gutes FE-Modell und die Board-Partner werden bei ihren UVP-Modellen Abstriche machen müssen oder aber deutlich über den Preisen des FE-Modells liegen. Dann hat man 15% oder mehr Aufschlag für keinen relevanten Mehrwert.

Traurig, dass sich die Board-Partner sich so vorführen lassen.
 
  • Gefällt mir
Reaktionen: ReVan1199
Grundgütiger schrieb:
EBay und eBay Kleinanzeigen sind die FE für 700-850€ sofort verfügbar.
Nvidia schützt nicht vor Bots, Hauptsache Verkauft.
Es haben sich also nur Scalper drauf gestürzt, ob die Rechnung aufgeht wage ich zu bezweifeln.
Hoffen wir mal nicht, also dass deren Rechnung aufgeht. Bei denen sollte man aus Prinzip nichts kaufen, denn wenn diese asoziale Unsitte Erfolg hat, dann wird diese Verkaufsabzocke nie aufhören. Man konnte sich als ich meine FE kaufte soweit ich mich erinnere nur eine pro Versandadresse bestellen, darin bestand der Schutz.

Grundgütiger schrieb:
Bei Mindfactory gibts alles was das Herz begehrt, nur die Verkaufszahlen sind niedriger als zu 4090 im selben Zeitraum.
Die schicken genauso wie NBB aber keine Ware hier nach Italien, auch per Vorkasse nicht. Aber das wäre auch kein Problem, billigste 4070 ist gerade die MSI GeForce 4070 Ventus 2x für 635,50€ inkl. Versand, dabei ist die Umsatzsteuer mit 22% sogar höher.

Ich denke in 2-4 Wochen kann man erst Bilanz ziehen. Schaun mer mal.
Ergänzung ()

Blood011 schrieb:
Naja viele lungern auch nicht in de foren rum und saugen täglich alles auf,für die reicht es wenn NV drann steht und es wird gekauft.
Hier in Italien ist es noch schlimmer, wollte mir im November ursprünglich den 5800x3d holen, der war zwar lieferbar und teils günstiger als in Deutschland, aber keine Chance bei den Boards. Die Shops die sie überhaupt im Programm hatten, da war entweder nichts lieferbar, oder man bekam sie zu Mondpreisen.

Wurde deswegen dann der i5-13600k. Intel, Intel sprach die alte Tante, die alle Prozessoren kannte. Bei den Grafikkarten genauso alle NV-Fans, Radeons sind relativ unbekannt. Aber Apple schlägt sowieso alles. "Wieso das?", fragte ich einmal jemand. Die Antwort war geil: "Na dann wären sie doch nicht so teuer."
Ergänzung ()

kachiri schrieb:
Was ist das Problem an zwei Lüftern? Mehr Lüfter bedeutet erstmal auch mehr Lautstärke. Ich hätte sogar lieber zwei größere Lüfter als immer diese 85mm, 90mm oder 95mm-Lüfter... Wenn es hoch kommt, wird noch ein 100m-Lüfter mit zwei kleineren Lüften gepaart.
Was Du schreibst ist alles richtig, meine 4080FE hat auch "nur" zwei 115mm Lüfter und ich bin ziemlich zufrieden, beim Zocken höre ich die nicht und im Desktop/Office + Videos Anschauen-Betrieb drehen die erst gar nicht. Andererseits, der Kühlkörper ist der gleiche wie für die 4090FE und das Teil kann man nur als Backstein bezeichnen, nur etwas größer und schwerer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: M11E
juwa schrieb:
Die Antwort war geil: "Na dann wären sie doch nicht so teuer."
Das gibt es ja nicht nur bei Apple, sondern praktisch in allen Bereichen. Die Leute verwechseln oft einfach "billig" mit "günstig". Der Ruf des "Billigherstellers" hängt AMD ja auch bis heute noch an. AMD war halt oft günstiger als Intel (auch bei gleichwertiger oder besserer Leistung) und die Leute bringen einen geringeren Preis eben mit "minderwertig" in Verbindung.
 
  • Gefällt mir
Reaktionen: M11E
DaHell63 schrieb:
Beide Spiele in WQHD? Laut Forenweisen ist man doch da nur in 1080p sicher...
Es ging in der Diskussion um die Entwicklung in 2-3-4 Jahren. Nicht darum, was jetzt gerade los ist. Denn selbst heute ist der Speicher stellenweise knapp.

Andere Nutzer haben andere Thesen und Erwartungen als man selbst.
Was läge da näher, als diese lächerlich zu machen ...

Onyva schrieb:
Wer seine Grakka 6 Jahre behalten will, wird sicher nicht mit 12GB auskommen, aber dann reicht die Rohleistung so wieso nicht mehr.
Texturen brauchen Platz, nicht Rohleistung. Eine Karte, die 700 respektive 900€ als TI kostet, ist nur "knapp am Limit" - innerhalb der ersten Wochen ihres Daseins. Ein Anlass zur Freude.

Wie kann man eigentlich wissentlich proprietäre Technologie und geplante Obsoleszenz abfeiern?
 
  • Gefällt mir
Reaktionen: ShowOff und Windell
Connecto schrieb:
Texturen werden durch den angepassten Mip-Map-Bias nicht angefasst. Siehe hier.
Die source texture resolution wird nicht gesenkt. Es werden keine 720p Texturen verwendet, sondern nur in 720p ausgegeben. Die Farbwerte werden durch den Schnittwert des intern 3x höher aufgelösten Bildes genauer bestimmt.
Ultra Texturen mit ultra performance würde aber null Sinn machen.
Connecto schrieb:
Ich habe dazu keine sichere Quellenlage gefunden.
Das Verhältnis war bei der älteren XBOX wahrscheinlich so. Ich glaube nicht, dass effektiv mehr als 8 bis 10GB als Grafikspeicher zur Verfügung stehen.
Das ist auch Windoof. Windoof ist notorisch für Speicher und Resourcenverschwendung.
Ich rede von der PS5. Und es geht ja meistens um Spiele, die von der PS5 auf PC portiert wurden.
Wenns auf der XBOX läuft, läufts meistens auch auf den PC problemloser. 1.5GB nur für Windoof ist schon hart krank, obwohl das Ding ja nix tut.
 
Eli0t schrieb:
Aber das sind doch alles nur Hilfsmaßnahmen um die schlechte Leistung zu verschleiern, bei einer 660€ Karte.
Das gilt aber nicht nur für die 600€ Karten. Wenn man sich die "Leistungssteigerung" seit DLSS eingeführt wurde allgemein anschaut, wird vieles an Rohleistung schöngeredet aufgrund der Hochskalierung. Ich finde das seit der Einführung bedenklich, aber die meisten haben es leider gefressen und finden es super.
 
  • Gefällt mir
Reaktionen: Dai6oro, M11E und Windell
Das gilt aber nicht nur für die 600€ Karten. Wenn man sich die "Leistungssteigerung" seit DLSS eingeführt wurde allgemein anschaut, wird vieles an Rohleistung schöngeredet aufgrund der Hochskalierung. Ich finde das seit der Einführung bedenklich, aber die meisten haben es leider gefressen und finden es super.
schönreden ist ja ok, wenn die leistung ohne stimmen würde, aber nvidia schießt halt den vogel ab... und leider macht es AMD nach, aber die senken die Preise wenigstens.
 
TigerNationDE schrieb:
Das gilt aber nicht nur für die 600€ Karten. Wenn man sich die "Leistungssteigerung" seit DLSS eingeführt wurde allgemein anschaut, wird vieles an Rohleistung schöngeredet aufgrund der Hochskalierung. Ich finde das seit der Einführung bedenklich, aber die meisten haben es leider gefressen und finden es super.
Ich finde DLSS und Co nach wie vor in den meisten Spielen echt grausam, ich weiß nicht wie man sich diese Bildqualität antun kann, wenn man es nicht unbedingt muss. Gerade Spiele wie CoD sehen einfach nur noch wie eine Matschwüste aus, da die Texturen ja von Haus aus schon schlecht sind.
 
  • Gefällt mir
Reaktionen: Solavidos, Blood011, Dai6oro und 2 andere
Zurück
Oben