Test Nvidia GeForce RTX 4070 FE im Test: (Knapp) RTX-3080-Leistung und 12 GB für 659 Euro

Warum die grosse Leistungskluft zwischen einer RTX 4070 und RTX 4070 Ti?

Auch JayzTwoCents spekuliert, dass da evt. noch "Super" Ada Lovelace Karten kommen koennten, gegen welche die jetzigen Vanilla-Karten nicht mehr so toll - vor allen Dingen aufgrund der hohen Preise fuer die gebotene Leistung - aussehen koennten:

 
  • Gefällt mir
Reaktionen: mazO!, anarchie99, Rockstar85 und eine weitere Person
Insgesamt eine zu erwartende Leistung, auch wenn da jetzt nicht mehr allzuviel Platz für die 4060 Ti bleibt..
 
Chismon schrieb:
Ganz genau, lieber etwas ineffizienter (und jetzt schon bei Preisen unter 600 Euro) aber dafuer eben nicht mit den 16 GB Speicher verhungern wie bei einer RTX 4070 mit 12 GB in einigen Spielen/Aufloesungen jetzt schon.
Du verlinkst erstnhaft eine AMD Werbefolie die schlicht Irreführung betreiben.
ResEvil macht den Speicher nur voll, nutzt ihn aber nicht, außerdem ist der Speicherverbrauch von AMD Karten generell höher als bei Nvidia.
Chismon schrieb:
Wie das enden kann/duerfte, hat Hardware Unboxed im RTX 3070 vs. RX 6800 Video ja ausfuehrlich beleuchtet und aehnliches droht den jetzigen 12 GB nVidia RTX 4070(Ti) Karten.
Nur, dass die 3070 lediglich über 8GB verfügt und 12GB spielend ausreichen.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
RonTom schrieb:
Inhaltlich kann ich dir schon folgen aber ich muss das teilweise 5x lesen um es zu verstehen.

Zum Beispiel Post 304.

Zitat: "Was mich wieder sauer aufstößt, ist die Sache, dass keine hier, die als rum meckern über die 12 GB VRAm eine selbst haben und als den Leuten erzählen, das 12 GB zu wenig ist und das Mann RT nicht braucht."

Mal querlesen, bevor man antwortet, ist nicht zu viel verlangt.

Nuja wir werden sehen. Ich bin schon davon überzeugt, dass FSR3 für RDNA2 kommt. Wenn nicht, ist es auch kein Problem. Die Leistung der 6800xt passt für mich.
Darf ich fragen was du für eine Schuldbildung abgeschlossen hast? Das was ich schreibe ist die Rechtsform von Duden kannst du gerne aufschlagen und nachschauen.

Ich bin davon überzeugt, das FSR3 nicht auf den alten Karten laufen wird und wenn doch dann nicht so gut wie Nvidias FG.
Ergänzung ()

Rockstar85 schrieb:
Dass PCGH mit der Aussage ziemlich alleine steht, wundert dich nicht?
HW Unboxed, J2C, Selbst der Techjesus hatten das Thema schonmal (Linus meine ich war auch mal dran).. Und DF, so sehr ich die mal mochte, wirken nur noch wie die PR Abteilung von NV..
Die nächste Verschwörung wieso könnt ihr einem einfach nicht glauben und das obwohl die Tester User euch fakten liefern.
 
Rockstar85 schrieb:
Aber die Karte hat in Raster mehr Leistung und DLSS3 ist, abseits von vllt CP2077, einfach nicht ausgereift, dann DLSS normal oder FSR2.
Was ist nicht ausgereift? Ja es gibt Probleme bei bestimmten UI-Elementen. Das Problem gibt es aber bisher nur in dem einen Rennspiel, in CP77 oder Darktide habe ich es noch nicht gesehen.

Die Latenz merke ich nur in direkten 1:1 Vergleich und dann auch nur minimal. Wenn ich dann aber spiele und nicht andauernd an/aus schalte, vergesse ich die höhere Latenz und merke sie nicht mehr.

Ich frage mich hier auch, wie DLSS3 in CS2 ausfallen würde bei 500 Base-FPS.. hat man dann 1000FPS? Und wie hoch würde dann die Latenzsteigerung überhaupt ausfallen? Wenn die Latenz von 500FPS bleibt, macht es dann überhaupt einen Unterschied?

Wie gesagt ich mein Problem das es wie anfangs bei DLSS1 noch kaum Spiele mit DLSS3 gibt.
Was hindert Entwickler daran DLSS3 einzubauen? Oder FSR...
Rockstar85 schrieb:
Insofern wird auch eine 6950XT mit einem Cap auf 200W nicht viel langsamer als eine 3080 sein und dann eben immer noch mehr FPS als eine 4070 bringen.. Und das macht es sehr problematisch.
Die 4070 hat dann keine 200W sondern dann 150W oder weniger mit UV und mit DLSS3 vielleicht nur noch 100W.
Banger schrieb:
Ich erwähnte eine 4080 Super und 4080TI für die Lücke. Oder gleich noch TI mit Super mischen? ^^
4080 Super? Kann passieren. Ti kommt auf jeden Fall.
Aber ich denke eher an eine GPU zwischen 4070Ti und 4080...ist dann Super besser als TI? bei der 2080Ti war es nicht der Fall. Wird es dann eine 4070 Super Ti oder 4070Ti Super geben mit beschnittenen AD103?

@Chismon Du hast aber mit Absicht den anderen Slide von AMD fallengelassen oder?

AMD empfehlt auch VRAM, der bei den Spielen zu problemen führt:
VRAM.jpg

Mironicus1337 schrieb:
ResEvil macht den Speicher nur voll, nutzt ihn aber nicht, außerdem ist der Speicherverbrauch von AMD Karten generell höher als bei Nvidia.
Das ist leider falsch. Bei RE4 kann mangelnder VRAM zum instant Crash führen.
Hier ein Beweis mit Timestamp:

@Mironicus1337
Die Reviews von heute sind nicht alles, weil morgen noch mehr kommt. Wenn die Reviewer überhaupt noch Lust haben...
TPU testet immer viele Spiele und deren Durchschnitt liegt z.b. näher bei PCGH als wie bei allen anderen bei der 4070FE.
Die 4070FE liegt 1-2% VOR der 3080 und 6800XT in 1080p, 1440p sind alle 3 gleichauf und in 4k ist die 3080 5% vorne.
Die 6900XT ist bei allen Auflösungen 4-7% vor der 4070, aber hinter der 3080Ti. :D

GN z.b. testete nicht mit einer 3080FE, sondern einem custom Modell, welches ein paar Prozente vorne liegt.
Seine Daten stimmen, aber das Mischmasch an GPUs verfälscht die durchschnitts Daten ein wenig.
Ideal wäre immer das Referenz Modell vom Hersteller des Chips, also die Founders. Die gibt es aber nicht immer. Z.b. 4070Ti.

Auch können neue Treiber eine alte Karte schneller machen...oder auch langsamer. GN schreibt z.b. den Monat an dem jede Karte getestet wurde hinzu.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
KlaasKersting schrieb:
599 USD = 545,57€
19% MWSt -> 649,23€

Wenn man noch so Geschichten wie Elektronikentsorgung und Gewährleistung bedenkt, sind die 10€ Aufpreis vom reinen Wechselkurs einwandfrei.
Wie gesagt mit lokalen Steuern liegen die Preise mitunter niedriger als bei uns, auch die US Bundesstaaten haben Mehrwertsteuer, wenn auch andere, i.d.R niedrigere.
 
ach da reicht die 6800 XT für WQHD noch ein Jährchen
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Mironicus1337 schrieb:
Auf Niveau der 6900XT bei gerade mal knapp 200 Watt Verbrauch, sehr gute Leistung.
Die 659 Euro sind dann gerade noch okay…..
Die 4070 erreicht doch gerade mal 6800XT Leistung. Die 6900XT legt nochmal 10% obendrauf, die 6950er nochmal 5 auf Kosten der Effizienz.
Ich finde den Verbrauch der 4070 alles andere als beeindruckend.
Mal als Vergleich: ich hab meine 6900XT im Treiber auf 2200Mhz begrenzt, damit verliere ich ca. 10% Leistung, hab aber im Gegenzug anstatt 255W auf dem Chip nur maximal 180W drauf. Je nach Spiel sogar weniger. Das sollte dann für die gesamte Karte bei ca. 220W bis 230W sein. Ich hab nur den Takt begrenzt, kein UV oder so. Damit bin dann gar nicht mehr weit weg von der 4070 und das mit ner Karte die seit mehr als zwei Jahren in meinem Rechner läuft. Einziger Nachteil, ich hab halt 999€ gezahlt.
Alles nicht soo geil, was NV und AMD da gerade liefern fürs Geld.
 
Mironicus1337 schrieb:
ResEvil macht den Speicher nur voll, nutzt ihn aber nicht, außerdem ist der Speicherverbrauch von AMD Karten generell höher als bei Nvidia.
Was Resident Evil macht ist doch egal, Fakt ist, die nVidia Karten verhungern und nein, der Speicherverbrauch ist nicht hoeher bei AMD/RTG, die Kompression ist bei nVidia etwas besser, aber das interessiert nur bei gleicher Speichermenge.

Nur komisch und Pech, dass etliche Tests mit den AMD/RTG-Marketingfolien uebereinstimmen und die 12 GB der RTX 4070Ti Karten eben in mehreren neuen Titeln (und es werden bestimmt noch einige mehr werden) nicht mehr ausreichen in 4K/UHD.

Ergo, bleiben die 16 GB AMD/RTG Karten den 12 GB nVidia Karten in Sachen Speicherausbau leider haushoch ueberlegen, auch wenn Du in Deiner Traumwelt das vielleicht nicht wahrhaben moechtest (dann solltest Du Dich vielleicht besser informieren und nicht ahnungslos losschreiben) ;).

Mironicus1337 schrieb:
Nur, dass die 3070 lediglich über 8GB verfügt und 12GB spielend ausreichen.

Das sieht man ja in Hogwart's Legacy wie 12 GB spielend bei den RTX 4070Ti Karten bspw. mit RT-RT in 4K/UHD nicht ausreichen.

In 2 Jahren duerften die 12 GB RTX 4070 Karten da spaestestens speichertechnisch sein, wo jetzt die 8 GB nVidia Ampere Karten von nVidia sind ... am verhungern ... zumal es damals noch keine so speicherfordernden Spiele in dem Maße gegeben hat wie jetzt mit all den aktuellen und kommenden AAA Titel, die mindestens 12 GB, aber am liebsten 16 GB Speicher sehen wollen.

Du brauchst also nicht anderen und mir nVidia Marketing-Maerchen zu erzaehlen, das macht der nVidia CEO Huang schon in ausreichendem Maße und wird dann nachtraeglich von etlichen neutralen Testern widerlegt ;).

Selbst Hardware Unboxed geht auf die nur knappen 12 GB der RTX 4070 wieder in deren Rezension ein und erwaehnt im Fazit Ihres Testvideos zudem nochmal (fuer Leute wie Dich), dass DLSS3 fuer eine realistisch halbierte Frame Rate sorgt und somit als Smoothing Technologie zwar Vorteile bringt aber eben nicht die Leistung wirklich verbessert.

 
Zuletzt bearbeitet:
theGucky schrieb:
Was ist nicht ausgereift? Ja es gibt Probleme bei bestimmten UI-Elementen. Das Problem gibt es aber bisher nur in dem einen Rennspiel, in CP77 oder Darktide habe ich es noch nicht gesehen
Meine Liste startet bei FS2020 und ende bei F22... Wie gesagt die Liste ist nicht lang.. Aber F22 und FS2020 ist halt was ich so besitze.. Und die Test 4080 hat da gute Leistung gezeigt, keine Frage.. Aber in Shootern kommen die Bildfehler wohl nicht so stark zur Geltung. Und dass es Raster Power braucht, zeigt zB. Atomic Heart..
DLSS und FSR ist gut.. DLSS3 ist Marketing.. Und funktioniert nur wirklich in speziellen Fällen... DLSS3 auf der Ampere Gen auszuschließen ist am Ende Typisch NV

https://www.igorslab.de/performance-boost-mit-fsr-und-dlss-necromunda-hired-gun-im-praxistest/14/
 
Chismon schrieb:
Nur komisch und Pech, dass etliche Tests mit den AMD/RTG-Marketingfolien uebereinstimmen und die 12 GB der RTX 4070Ti Karten eben in mehreren neuen Titeln (und es werden bestimmt noch einige mehr werden) nicht mehr ausreichen in 4K/UHD.
Gott was hat Nvidia uns da nur angetan, aber anders betrachtet ist der Marketingmove aus Florida echt gut, so ist man als im Munde.^^
 
HaRdWar§FreSseR schrieb:
Die nächste Verschwörung wieso könnt ihr einem einfach nicht glauben und das obwohl die Tester User euch fakten liefern.

Das ist halt keine Verschwörung, sondern Tatsache.. Und das wurde auch hier bei CB und Igorslab schon angemerkt.. Die Unterhaltung gab es 2021 schon mal im 3DC Forum, wo der Hr Vötter ja Aktiv ist.
Warum das so ist? Vermutlich mangelnde Sorgfalt?
Fehler werden in der Regel per Copy & Paste ermöglicht...


Es deutet aber vieles auf Treiberprobleme hin. Und es macht eben mehr Sinn, wenn NV den Markt für Ampere etc öffnet um am Ende mehr Daten zu erhalten..

Ich kann es jedoch nicht gut finden, dass DLSS3 ein neuer Proprietärer Dongle ist.
 
  • Gefällt mir
Reaktionen: Antavan
Rockstar85 schrieb:
Das ist halt keine Verschwörung, sondern Tatsache.. Und das wurde auch hier bei CB und Igorslab schon angemerkt.. Die Unterhaltung gab es 2021 schon mal im 3DC Forum, wo der Hr Vötter ja Aktiv ist.
Warum das so ist? Vermutlich mangelnde Sorgfalt?
Fehler werden in der Regel per Copy & Paste ermöglicht...
Das mag sein aber hast du dir das Video angesehen was du uns verlinkt hast. Mann muss es in Slowmotion laufen lassen damit es überhaupt einem auffällt. Das ist so wie die Nadel im Heuhaufen suchen unnötig.
 
HaRdWar§FreSseR schrieb:
Darf ich fragen was du für eine Schuldbildung abgeschlossen hast? Das was ich schreibe ist die Rechtsform von Duden kannst du gerne aufschlagen und nachschauen.

Ich bin davon überzeugt, das FSR3 nicht auf den alten Karten laufen wird und wenn doch dann nicht so gut wie Nvidias FG.
FSR3 auf RDNA2 muss auch nicht so gut laufen wie FG aber es wird besser laufen als DLSS3 auf Ampere. Das wird da nämlich gar nicht laufen...

Ich habe "nur" die mittlere Reife. Ich fand es damals sinnvoller mit 16 ne Lehre zu machen und Geld zu verdienen.

Das mit dem Duden meinst du doch jetzt nicht ernst...
 
  • Gefällt mir
Reaktionen: Schultzie, C0rteX, InsaneTequila und 4 andere
HaRdWar§FreSseR schrieb:
Das mag sein aber hast du dir das Video angesehen was du uns verlinkt hast. Mann muss es in Slowmotion laufen lassen damit es überhaupt einem auffällt. Das ist so wie die Nadel im Heuhaufen suchen unnötig.
Stimmt halt nicht.. bei Ruhigen Spielen siehst du es... Aber lassen wir das.
Dass so sowas in einem Shooter nicht siehst, logisch.. Wenn ich aber bei FS mich im Cockpit drehe sehe ich es.. Das ist halt nicht Nadel um Heuhaufen, sondern wie bei allem Visuellen, meine Wahrnehmung.

Bitte arbeite dringend an deiner Tonart im Forum.. Das wird ja echt immer schlimmer.
 
  • Gefällt mir
Reaktionen: Antavan
theGucky schrieb:
... hast aber mit Absicht den anderen Slide von AMD fallengelassen oder?
Die andere Folie hatte ich vorher schon in einem anderen Thread (vor Veroeffentlichung dieses Threads) gepostet und natuerlich werden dort die aktuell geltenden Speichergrenzen gut ersichtlich, aber ich wollte Falschaussagen/Glorifizierungen zum Speicherbedarf schnell widerlegen.

In 2 Jahren koennte man evt. mit 16 GB aber noch gerade genug fuer (U)WQHD haben und wird bald 20 GB fuer 4K/UHD brauchen, zumindest wuenschen sich - laut MLID - Entwickler mittlerweile 32 GB Speicher fuer 4K/UHD.

Ressourcenschonende Entwicklung ist leider etwas anderes, aber die Anforderungen und der Profitdruck bei den grossen Publishern steigen wohl und sorgen dafuer, dass immer schlampiger programmiert wird.

Wenn man bedenkt, dass Spiele in 4K/UHD zu Zeiten einer GTX 1080 noch mit 8 GB Speicher als ausreichend spielbar galten, aber da gab es noch kein RT-RT und wurde wohl auch noch nicht so mit den Ressourcen geaast von den Entwicklern/Studios.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Kenjiii schrieb:
Du vergleichst ja auch eine 4070 vs 3080?
2,5 Jahre später nach so einer hohen Inflation, scheint es gar nicht mal so ein unfairer Preis zu sein bei deinem Vergleich. Jetzt +20% VRAM, bessere Effizienz und dennoch gleicher Preis trotz der krassen Inflation?
Wowwwwww
Es ist wirklich nur noch anstrengend in diesem Forum. Redet ihr euch eigentlich alles schön mit Inflation?

GTX 970 für eine UVP 330 Euro, war schneller als die GTX 780.

Die 1070 für 399€, war unglaubliche 25 % schneller als die 980 GTX.

2070 RTX für 500 Euro, selbst die war noch schneller als die 1080.

Die 3070 für theoretische 500 Euro war ein ähnlicher Sprung wie Pascal.

Und jetzt kommt eine Karte mit knapp 30% Preissteigerung die in WQHD auf Augenhöhe, teilweise schlechter ist als die 3080. Und du rechtfertigst das mit Inflation. Meines Erachtens sollten die Karten noch teurer werden, damit Gaming auf dem PC nur noch den Leuten mit einem Jahreseinkommen ab 100k möglich ist.
 
  • Gefällt mir
Reaktionen: Schultzie, Neronomicon, ShowOff und 4 andere
Rockstar85 schrieb:
Stimmt halt nicht.. bei Ruhigen Spielen siehst du es... Aber lassen wir das.
Dass so sowas in einem Shooter nicht siehst, logisch.. Wenn ich aber bei FS mich im Cockpit drehe sehe ich es.. Das ist halt nicht Nadel um Heuhaufen, sondern wie bei allem Visuellen, meine Wahrnehmung.

Bitte arbeite dringend an deiner Tonart im Forum.. Das wird ja echt immer schlimmer.
He was stimmt den mit meiner Tonart nicht? Egal lassen wir es hast recht.
 
Dann lieber eine 6900XT oder gar 6950XT - die 4070 ist eine 500€ Karte, aber so eher ein Ladenhüter bzw. OEM "Gaming" Karte.
 
  • Gefällt mir
Reaktionen: w33werner
Rockstar85 schrieb:
DLSS und FSR ist gut.. DLSS3 ist Marketing.. Und funktioniert nur wirklich in speziellen Fällen... DLSS3 auf der Ampere Gen auszuschließen ist am Ende Typisch NV
Tatsächlich sehe ich bei DLSS2/FSR unschöne Schlieren und Grafikfehler vor allem bei Bewegungen und schalte es, wenn meine FPS es zulassen aus. DLSS-FG wird bei mir bisher immer an sein, weil ich keinen Unterschied sehe oder merke.
Und ich spiele keine Rennspiele oder MSFS. :D Bisher also DLSS-FG nur in Shootern genutzt.
Wobei ich auch mal LAAANGSAM auf den Gegner ziele, z.b. mit Scope. Da sehe ich auch nichts.
Ich spiele aber auch auf einen OLED mit ultralow Reaktionszeit. Ich will mit das eingebaute Motionblur/Ghosting das es in TN und IPS gibt nicht mehr antun.
Was ich meine ist dies (mit Timestamp):

HaRdWar§FreSseR schrieb:
Das mag sein aber hast du dir das Video angesehen was du uns verlinkt hast. Mann muss es in Slowmotion laufen lassen damit es überhaupt einem auffällt.
Das ist ja das Problem bei solchen Tests... guck mal wenn ich meine Aufnahme in Slowmotion zeige oder ein Screenshot mache, dann sehe ich total viele Artefakte... jane is klar.
Wenn man den Fotomode (in CP2077) nutzt, dann sollte man FG vielleicht ausschalten....aber ich nutze keinen Fotomodus... und im Fotomodus interessieren keine FPS, dat is Standbild...

RonTom schrieb:
FSR3 auf RDNA2 muss auch nicht so gut laufen wie FG aber es wird besser laufen als DLSS3 auf Ampere. Das wird da nämlich gar nicht laufen...
Und FSR3 läuft dann auch auf Ampere und damit ist eh alles auf dem gleichen Level...außer ein Spiel hat wieder mal DLSS aber kein FSR oder umgekehrt...
Aber wenn es schon Mods gibt die FSR mit DLSS ersetzen können, ist eh wieder alles relativ. :D

Lan_Party94 schrieb:
Dann lieber eine 6900XT oder gar 6950XT - die 4070 ist eine 500€ Karte, aber so eher ein Ladenhüter bzw. OEM "Gaming" Karte.
Warte bis Sommer ab, dann kommt die 7800XT. Die wird deutlich besser sein oder zumindest den Preis der 4070 nach unten treiben.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Zurück
Oben