Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestNvidia GeForce RTX 4070 FE im Test: (Knapp) RTX-3080-Leistung und 12 GB für 659 Euro
Inflation hin oder her, hier wird eine xx60 GPU als xx70 GPU verkauft.
Eine 3060 Ti kam für 399,- EUR auf den Markt und hat sich mit einer 2080 Super angelegt.
Hier kommt nun eine 4070! auf den Markt und schlägt nichtmal die 3080 der letzten Generation.
Das Inflationsargument passt hier einfach nicht, da die Chips von nVidia in der UVP hoch geschoben wurden und zusätzlich eine Leistungsklasse runter geschoben wurden, wenn man sich die letzten Generationen anschaut.
Wir haben nun 80er Preisklasse bei 60er Leistung sozusagen. Inflation hin oder her, dass ist Stillstand.
Oha, die Leistung meiner 3080 bei fast halbiertem Stromverbrauch in Games?
Wenn ich nicht eh einen neuen PC auf dem Zettel hätte für Ende des Jahres, würde ich wohl sofort zuschlagen.
Das Video hatten wir schon bereits und was soll das jetzt aufzeigen, wenn es um 8 gb vs 16 gb geht?
Wo ist da ein Spiel, wo 12 gb nicht ausreichen, selbst bei Ultra + RT settings..........wobei die 6800 Karte dann ohnehin nur 30 Fps ausspuckt und diese Settings somit für so wenig Power sinnfrei sind?
Das bestätigt doch meine Aussagen eher?
Warum sollte Nvidia dir als Kunden einen Gefallen machen, wenn sie ohnehin genug Marktanteile haben und anscheinend Kunden finden? Das ist doch eher naiv, findest du nicht auch? 😂
Sie würden somit nur mehr Konkurrenz zu ihren teureren Karten erschaffen, die erst vor kurzem auf den Markt kamen.
Menno, als ob Du das im BEWEGTEN Bild siehst, die "schlechtere" Bildqualität. Aber ja, die Threads wie schlecht die Bildquali auf PS5 und XBOX Series X ist, sind auch ellenlang. 🤣
FSR 3.0 wird im Sommer kommen, also 'mal die Kirche im Dorf lassen.
Ergänzung ()
Kenjiii schrieb:
Das Video hatten wir schon bereits und was soll das jetzt aufzeigen, wenn es um 8 gb vs 16 gb geht?
Du glaubst doch nicht, daß die Spiele weniger speicherintensiv werden in ZUKUNFT oder?
Selbst wenn sich 12GB ausgehen, kann es dann sein, daß beim Zuschalten von RT - einem DER Hauptargumente für manche - die Leistung komplett wegbricht, weil RT eben auch MEHR Speicher verlangt.
Aber Du darfst Dir nächstes Jahr gerne eine 5070 kaufen, die dann €899 kostet, dort bekommst Du dann Deine 16GB. 🤣
Am Beispiel der 3080 für 700€ UVP von 2020 habe ich das mal mit der Inflation berechnet. Wir haben in 3 Jahren gesamt eine „allgemeine“ Inflation von 19,90%, d.h die 700€ von 2020 sind heute 839,30€. Im Endeffekt haben wir also knapp 180€ Differenz im Preis zur 4070.
Ist nur leider so, dass es DIE Inflation gar nicht gibt. Einfach mal einen Blick auf die Zusammensetzung des Inflationswarenkorbes und das Preis-Kaleidoskop werfen und versuchen zu verstehen, was eigentlich Inflation ausmacht, was weniger und was gar nicht.
Und da Grafikkarten nicht bei uns hergestellt werden, sondern vieles im Herstellungsprozess u.a. aus einem Land kommt, das gerade von günstigen Energieimporten aus Russland profitiert, darf man auch mal schauen, wie eigentlich die Inflation in China oder Taiwan ausschaut.
Technik gehört in der Regel nicht zu den Preistreibern. Und nach den Blasen, die wir während Corona und zu Kriegsbeginn in der Ukraine gesehen haben, hat sich Vieles an vielen Fronten wieder entspannt. Bis hin komplett crashenden Branchen mit crashenden Preisen wie bei den Speicherherstellern, die nicht wissen, wo sie mit ihren Lagerüberbeständen hinsollen.
Inflationsrate für bestimmte technische Produktkategorien im Februar laut statistischem Bundesamt
Hilfe, Deflation bei Fernsehern. Und alle jammern über die Inflation. Wie sieht es denn in der IT aus?
0,1%? Und das trotz NVIDIA?
Also bitte nicht einfach die deutsche lokale Inflationsrate nehmen und irgendwelche Margen-Sicherungsaktionen von NVIDIA & Co. erklären.
Ich verstecke meinen PC nicht, der ist von Minern finanziert worden, als sie GPUs über UVP gekauft hatten, selbst meine gebrauchten. Ansonsten hätte ich eine 3080 nun im PC, das war die letzte Karte vor dem Boom die ich Oktober 2020 gekauft hatte.
Ansonsten wäre mir die 4090 und 4080 zu teuer und die 4070Ti wäre die paar Prozente nicht wert.
Eli0t schrieb:
Samsung hat GDDR6W angekündigt, die würde es dann auch mit 4GB geben...
Aktuell die beste Karte Preis/Leistung ist eine 6800XT und danach kommt die 6950XT und danach die 4070.
Außer es geht um RT dann ist die 4070 auf Platz 1.
Wäre die 4070 um 50-100€ billiger, wäre sie auf Platz 1 in Raster.
Das wird bestimmt noch kommen, wenn AMD seine 7800XT rausbringt, oder Nvidia kaum 4070er verkauft (man hofft es). Bisher sind ALLE Preise von RTX4000 nach Release gefallen.
12GB VRAM hin oder her. AMD hat selbst gesagt das 8GB in 1080p und 12GB in 1440p ausreichen:
Hat AMD die Spiele mal getestet?
Ergänzung ()
Cleric schrieb:
Also bitte nicht einfach die deutsche lokale Inflationsrate nehmen und irgendwelche Margen-Sicherungsaktionen von NVIDIA & Co. erklären.
Mit Inflation hat das nicht viel zu tun, da hat @Cleric recht.
Das Problem bei Nvidia ist der Dollar zu Euro Kurs. 2020 zum Release der RTX3000 konnte man 1:1 rechnen und die Steuern waren schon drin. Heute muss man die Steuern noch zum Teil draufrechnen.
Bei 599$ hat man derzeit 544,74€ dann kommen noch 19% Steuer drauf, wären wir bei 649€.
2020 hat die 3080 699$ gekostet und hier 699€.
Du glaubst doch nicht, daß die Spiele weniger speicherintensiv werden in ZUKUNFT oder?
Selbst wenn sich 12GB ausgehen, kann es dann sein, daß beim Zuschalten von RT - einem DER Hauptargumente für manche - die Leistung komplett wegbricht, weil RT eben auch MEHR Speicher verlangt.
Aber Du darfst Dir nächstes Jahr gerne eine 5070 kaufen, die dann €899 kostet, dort bekommst Du dann Deine 16GB. 🤣
Habe bereits jetzt schon eine 4090, siehe Sig, no worries. 🤷♂️😅
Wie bereits erwähnt, gibt es eiglt. noch kein Spiel wo es nicht ausreicht und nur die äußerst schlecht optimierten kommen jetzt an die Grenze von 12 GB, aber nur in Ultra + RT Settings, wobei dann eben nur 30 Fps rauskommen. Also wo ist der Sinn so eine Karte mit so einer Leistung mit mehr VRAM zu bestücken, wenn sie für solche Gamesettings ohnehin nicht ausgelegt ist?
Selbst die 4070Ti hat nur 12 GB und für die Leistung dieser Karte passt diese Größe an Ram, mal ganz abgesehen davon, dass das der neuere GDDR6X Speicher ist im Vergleich zu dem GDDR6 der 6800 Karte.
selbst wenn sich da etwas verschoben hat und glaub mir ich bin auch kein Freund von der Entwicklung aber die knapp 20% Inflation darf man trotzdem nicht unterschlagen. Selbst von der 4060ti wären es heute 480€ statt 400€ 2020.
80er Preisklasse, 60er Leistung. nVidia hat die Kundschaft gut erzogen, wenn man die 4070 für ein attraktives Angebot hält.
Ergänzung ()
Crifty schrieb:
selbst wenn sich da etwas verschoben hat und glaub mir ich bin auch kein Freund von der Entwicklung aber die knapp 20% Inflation darf man trotzdem nicht unterschlagen. Selbst von der 4060ti wären es heute 480€ statt 400€ 2020.
Dir wurde ja oben nun schon erklärt, dass es in der Tech-Branche praktisch keine Inflation gibt, in vielen Bereichen haben wir sogar einen Preisverfall.
Hier geht es nVidia nicht um einen Inflationsausgleich.
nVidia will lediglich die Traummargen der Mining-Zeit erhalten, was hoffentlich jedoch nicht klappt. Gab es ja in der Gerüchteküche nun öfters die Informationen, dass die Generation sich nicht so toll verkauft wie erhofft.
Ist nur leider so, dass es DIE Inflation gar nicht gibt. Einfach mal einen Blick auf die Zusammensetzung des Inflationswarenkorbes und das Preis-Kaleidoskop werfen und versuchen zu verstehen, was eigentlich Inflation ausmacht, was weniger und was gar nicht.
Viele hier meckern über den zu kleinen Vram zu Recht! Ich komme von einer rx 6800. Aber ein sehr großes Manko, was ich leider nach den Kauf meiner 4070ti festgestellt habe, ist das 192bit kleine Speicherinterface wo durch ich bei der 4070 (ti) ein großes Problem sehe. Leider laufen manche spiele trotz gute FPS träge und oder ruckeln obwohl der Vram bei max 9gb liegt
1. Kann man überhaupt "genug" verdienen?
2. Weil man bei der 3070 nur 8GB bzw. 10GB bei der 3080 verbaut hat, verkauft man nun Grafikkarten nach 2 Jahren schon wieder.
Hätte Nvidia die 3070 mit 12GB herausgebracht, dann hätten viele wohl einfach 2-4 Jahre länger die Grafikkarte verwendet. Entsprechend hat es schon einen Grund warum die RAM-Größen so gewählt wurden. Meine 1070 mit 8GB wurde auch nur 6 Jahre benutzt, weil damals der VRAM so hoch ausgefallen war.
Ergänzung ()
Rhino One schrieb:
Viele hier meckern über den zu kleinen Vram zu Recht! Ich komme von einer rx 6800. Aber ein sehr großes Manko, was ich leider nach den Kauf meiner 4070ti festgestellt habe, ist das 192bit kleine Speicherinterface wo durch ich bei der 4070 (ti) ein großes Problem sehe. Leider laufen manche spiele trotz gute FPS träge und oder ruckeln obwohl der Vram bei max 9gb liegt
Und du hast als Ursache das Speicherinterface ausgemacht? Normal sollte gar nicht ruckeln bei der 4070ti. Das Ding ist sauschnell. Ich würde auf ganz andere Ursachen schließen.
Eine wirklich runde Sache bei niedrigem Verbrauch! Der Preis ist sicherlich der aktuellen Zeit angemessen, vor ein paar Jahren war auch alles noch wesentlich günstiger (der Inflation sei Dank...).
Es wird genügend Käufer geben, die sich die Karte leisten können und wollen - ebenso wie es den Markt für eine 4090 gibt.
Fazit: es bringt nichts zu jammern, es ist wie mit allem: Entweder man kann oder man kann nicht... 😉
Vor allem weil sie mindestens ab 750€ wirklich erst erhältlich ist FE wird es nur in Homöopathischen Mengen geben denke ich mal wie immer Schein und sein halt.
Das wird dann aktives Marketing von Nivida für die 7900XT.
Noch einen Hunni drauf und man hat eine 7900XT mit 20Gb VRAM.
Außerdem vebläßt sie die 4070 locker und ist in RT mindestens ebenbürtig.
wollte ursprünglich die 4070 (ohne Ti) oder die 7900 XT, weil mir die 4070 Ti für den Preis zu wenig VRAM hat.
Die Grafikkarte soll dann auch wieder ca. 4 Jahre reichen und da hab ich mit 20 GB und mehr Leistung definitiv das bessere Gefühl.
Wie kommt es eigentlich zustande, dass sich die Abstände zwischen der 4070 Ti und 7900 XT verändert haben zum letzten Test der 4070 Ti:
Test v. 25.1.23: WQHD
Raster...
Test v. 12.4.23: WQHD
Raster...
Test v. 25.1.23: WQHD
Raytracing
Test v. 12.4.23: WQHD
Raytracing
Werden wohl in jedem neuen Test alle Grafikkarten nochmal getestet?
Liegts einfach nur an neueren Treibern?
Ganz phantastisch. Also ist es auch hier so, dass die zugewonnene Performance quasi 1 zu 1 mit jedem Euro im Vergleich zur 3000 // Ampere draufgezahlt werden muss. 20% mehr fps -> 20 % höherer Preis. Hätte mir besser ne PS5 kaufen sollen.
Naja, features wie DLSS 3.0 oder besseres RT bekommt man bei der 6950XT nicht. Und die 150W weniger Verbrauch beim Gaming im Vergleich zur 6950XT darf man auch dabei nicht vergessen. Für den Preis 650-700 ist die 4070 dann doch die bessere Karte.
Wen interessiert DLSS 3.0? Du hast schlechteres Framepacing und erhöhte Latenz. Das ist für viele Spiele nicht zielführend.
Eine Radeon Karte lässt sich meist sehr gut undervolten.
Bin froh, im November zur 4080FE gegriffen zu haben, mit dem Backstein bisher fünf Monate viel Freude daran gehabt. Die Karte war zwar sehr deutlich über meinem geplanten Budget, aber andere geben für ihre Hobbys oder Sachen wie Autos viel mehr Geld aus. Ich habe habe zwar keine Kristallkugel, ich vermute aber, mit den 16GB einer 4080 wird man gegenüber 12GB der kleineren Karten, mindestens eine Generation neuer Karten überspringen können.
Übrigens, der Wert von Bitcoin steigt gerade wieder deutlich, parallel dazu der von ETH. Ich weiß nicht wie gut die bei der Hashrate sind und ob es sich das lohnt, aber die Preise für Grafikkarten könnten vielleicht bald wieder anziehen. Aber Kristallkugel und so... meine ist da nicht immer frisch poliert. Hoffentlich tritt nicht wieder die gleiche Situation wie vor zwei Jahren ein.