Test Nvidia GeForce RTX 4070 FE im Test: (Knapp) RTX-3080-Leistung und 12 GB für 659 Euro

yamiimax schrieb:
Also wenn ich amd wäre würde ich erstmal die 7700xt (12? Oder 16?) bringen, da der Preis nicht so teuer ist und die Leistung der 4070 entspricht als Gegenspieler
Ich sehe diese Generation eine 7700 XT nicht als Konkurrenz zur 4070. Die 7900 XT liegt im Schnitt schon nur 10% vor der 4070 Ti. Da dürfte eher eine 7800 XT zwischen 4070 und 4070 Ti platziert werden.

Ich sehe die 7700 XT eher auf dem Level einer 4060 Ti... Das wäre dann so etwa die Leistung einer 6800. Also +20% zur Vorgängergeneration.
Da war ja letztlich auch schon die 6700 XT platziert. Irgendwo zwischen 3060 Ti und 3070.
Also wird die 7700 XT irgendwo zwischen 4060 Ti und 4070 landen. Und diese Generation vermute ich tatsächlich noch mehr in Richtung der kleineren Karte.

We'll see. Wenn die Gerüchte aber stimmen, dass AMD das Feld erst ab Sommer/Spätsommer bespielen möchte, wird NV viele Kunden in dem Segment gewinnen.
Eine 7600 (XT) müsste preislich schon extrem attraktiv platziert werden. Ich tippe hier aber auch eher auf 400-450 Euro für die XT-Variante bei einem Leistungsniveau der 6700 XT. Würde mich nicht einmal wundern, wenn die paar Prozente zur 6750 XT fehlen.

Insgesamt kann man einfach auch sagen, dass man RDNA3 und Lovelace auch einfach auslassen kann, wenn man bereits RDNA2 oder Ampere hat. Und das aus gleich zwei Gründen:
  • der Einkaufspreis von RDNA und Ampere war schon hoch
  • das Leistungsplus im Vergleich zur Vorgängergeneration ist aktuell doch recht gering

Zumindest, wenn man jetzt nicht plötzlich vor hat, eine Klasse höher zu greifen. Für jemanden mit einer 3070 macht es eigentlich auch keinen Sinn, jetzt für 20% mehr zur 4070 zu greifen. Da müsste es mindestens die 4070 Ti sein - eigentlich schon eher die 4080.

Aber immerhin lohnt sich diese Generation die Ti der x70er bei NV ;D
 
  • Gefällt mir
Reaktionen: Rockstar85, daknoll, DerFahnder und eine weitere Person
Pumper33 schrieb:
Deine Aussage ist falsch! CB schreibt „Für die Performance der GeForce RTX 3080 reicht es nicht ganz. Die neue Grafikkarte arbeitet in Spielen 23 Prozent schneller als eine GeForce RTX 3070, die GeForce RTX 3080 bleibt aber 5 Prozent voraus.“
Also, 4070 ist etwas schwächer als 3080- wo soll denn dann bitte eine 3090Ti überholt werden??
Frame Generation und dlss
 
@Wolfgang

Ein interessantes Thema mit dem Fps Cap, da ich es auch nutzte, aber nur über den Nvidia Treiber. Dazu ist Vsync noch an bei mir.

Ich hätte da einen Vorschlag. Wie wäre es, deine Cap Methode und noch im Treiber die Fps zu begrenzen. Falls ein Spiel, das nicht auf deine Methode anspricht, so vielleicht auf die des Treibers+ Vsync an.

Ps.: Ich weiß,ihr habt was anderes zu tun, aber könntest du nicht mal in ein paar Spielen das gegen testen, ob es da eine Veränderung gibt?
 
kachiri schrieb:
Die 7900 XT liegt im Schnitt schon nur 10% vor der 4070 Ti. Da dürfte eher eine 7800 XT zwischen 4070 und 4070 Ti platziert werden.
Da sollte AMD die mal bald bringen nach meinen Infos erst q3 wäre nun aber besser bald
 
DaHell63 schrieb:
DLSS3 legt halt nochmal ~30% auf DLSS2 drauf.
Anhang anzeigen 1346819
Nvidia weiß schon, warum sie DLSS3 für Ampere nicht vorsehen. Die kleineren Lovelace-Karten würden an ihren gesetzten Preispunkten einfach komplett ad absurdum geführt ^_^

Es ist schon interessant, dass beim Blick aufs bisherige Gesamtlineup nur die Topkarte RTX 4090 und, bis zu einem gewissen Grad, die vielvescholtene RTX 4080 attraktiv erscheint. AMD macht es freilich nicht besser, denn dort bekommt man ja nach wie vor nur die schnellsten Karten der Generation, aber Nvidia schneidet der Mittelklasse hier schon ziemlich genüsslich den Boden raus. Wer so viel Geld ausgeben möchte, könnte schon mal in 4K spielen oder RT nutzen wollen, kann das bei 12 GB Speicher in maximalen Details aber vermutlich bald vergessen. Die ersten Spiele, die diesen Speicher einfach wegfrühstücken sind ja bereits auf dem Markt.
 
  • Gefällt mir
Reaktionen: danyundsahne und Kai85
wow Alternate verkauft die kleinen Modelle echt um UVP, hät ich nicht gedacht

dann dürften die mit besserer Kühlung und und auch nicht so extrem teuer sein
 
C0rteX schrieb:
Ich poste euch Mal ein Video von Moore's law ist dead. Er ist ja offenbar hervorragend vernetzt und hat in der Vergangenheit schon so einige Male richtig gelegen.
Das ist sehr wohlwollend dargestellt.
Man muss bei MLID ergänzen, dass er gerne alte Videos und Tweets löscht , bei denen er regelmäßig kilometerweit danebenlag.

Highlights waren seine "leaks", dass die 7900XTX 20% über er 4090 liegen könnte (🤣) und dass AMD mit FSR3 Ende 2022 Nvidia in ein Desaster zwingt, DLSS aufgeben zu können, weil FSR3 das alles auch kann ohne Zusatzchips.
Ja nee, is klar.

Er lag so oft falsch, dass seine "richtigen Vorhersagen" für mich Zufallstreffer aus der Masse sind. Irgendwas wird dann halt stimmen, und meistens das, was 10 andere leaker ebenfalls aus denselben Quellen erhalten und was dann wirklich so stimmte.
 
  • Gefällt mir
Reaktionen: ComputerJunge, H6-Mobs und DerFahnder
yamiimax schrieb:
Frame Generation und dlss
FG- können viele Games nicht, hat oft Artefakte. Kann man also verallgemeinern.
FG- das ist doch in etwa so als wenn 2 gleich gute Hürdenläufer gegen einander antreten, der eine muss aber nur über die Hälfte der Hürden und wen wundert es, wer schneller ist?!
FG ist doch nur ein Software-Trick. Jemand hat das auf eine 2070 zum Laufen bekommen
https://wccftech.com/nvidia-dlss-3-...rtedly-bypassed-rtx-2070-gets-double-the-fps/
 
  • Gefällt mir
Reaktionen: herculesgott
Eigentlich müsste die 3080 nun auf unter 500 euro (min aber unter 550) fallen. Mehr wäre mir die jetzt nicht mehr wert. Auf Kleinanzeigen erhoffen sich trotzdem viele noch über 600 Euro für ihre gebrauchte :D
 
  • Gefällt mir
Reaktionen: M11E und DerFahnder
heroesgaming schrieb:
Nvidia weiß schon, warum sie DLSS3 für Ampere nicht vorsehen. Die kleineren Lovelace-Karten würden an ihren gesetzten Preispunkten einfach komplett ad absurdum geführt ^_^

Es ist schon interessant, dass beim Blick aufs bisherige Gesamtlineup nur die Topkarte RTX 4090 und, bis zu einem gewissen Grad, die vielvescholtene RTX 4080 attraktiv erscheint. AMD macht es freilich nicht besser, denn dort bekommt man ja nach wie vor nur die schnellsten Karten der Generation, aber Nvidia schneidet der Mittelklasse hier schon ziemlich genüsslich den Boden raus. Wer so viel Geld ausgeben möchte, könnte schon mal in 4K spielen oder RT nutzen wollen, kann das bei 12 GB Speicher in maximalen Details aber vermutlich bald vergessen. Die ersten Spiele, die diesen Speicher einfach wegfrühstücken sind ja bereits auf dem Markt.
Das ist der entscheidende Punkt: Nvidias 4000er Reihe schlägt die 3000er Reihe um Welten, jedoch nicht aufgrund von Hardwareverbesserungen, sondern aufgrund von Softwareverbesserungen. Wie ein paar Beiträge zuvor schon geschrieben wurde: Die 4070 schlägt eine 3090 Ti deutlich. Ich würde fast sagen, dass es noch nie so eine große Leistungssteigerung wie von 3000 auf 4000 gab. Man muss sich halt daran gewöhnen, dass in Zukunft der Fortschritt mehr Richtung Softwareverbesserung als Hardwareverbesserung geht, da das Moorsche Gesetz ja offenbar wirklich ausgedient hat.
Ich könnte mir sogar vorstellen, dass Nvidia (aber auch AMD und Intel) in Zukunft manche Softwarefeatures zur Performanceverbesserung per Abomodell freischalten lässt. Möglichkeiten die Kundschaft noch mehr zu melken gibt es genügend 😈
 
  • Gefällt mir
Reaktionen: M11E und wtfNow
Wenn man die 4090 betrachtet, dann gab es auch da einen richtig großen Sprung in der Rohleistung. Oben drauf dann eben auch noch DLSS3. Zusätzlich hat die 80er und 70er Generation endlich mal wieder 50%+ mehr RAM bekommen. Da hatte sich ja seit der 1000er Serie nicht mehr viel getan.

Für mich bleibt aber trotzdem der größte Punkt die Effizienz von Ada. Super Leistungssteigerung und trotzdem weniger Stromverbrauch. 3080 Leistung mit 12GB kann man jetzt mit 150-200 Watt schaffen und mit DLSS3 zusätzlich auch noch deutlich mehr Frames in bestimmten Titeln. Heißt auch, dass viele sich z.B. ein neues Netzteil sparen können.
 
  • Gefällt mir
Reaktionen: Fasertest
Laphonso schrieb:
Das ist sehr wohlwollend dargestellt.
Man muss bei MLID ergänzen, dass er gerne alte Videos und Tweets löscht , bei denen er regelmäßig kilometerweit danebenlag.

Highlights waren seine "leaks", dass die 7900XTX 20% über er 4090 liegen könnte (🤣) und dass AMD mit FSR3 Ende 2022 Nvidia in ein Desaster zwingt, DLSS aufgeben zu können, weil FSR3 das alles auch kann ohne Zusatzchips.
Ja nee, is klar.

Er lag so oft falsch, dass seine "richtigen Vorhersagen" für mich Zufallstreffer aus der Masse sind. Irgendwas wird dann halt stimmen, und meistens das, was 10 andere leaker ebenfalls aus denselben Quellen erhalten und was dann wirklich so stimmte.

Derartige Formulierungen habe ich so nicht gehört. Habe jetzt bestimmt 6 Stunden Videomaterial von ihm gesehen und finde nicht das er irgendwas als Fakt darstellt, sondern immer verschiedene Gesichtspunkte differenziert darstellt. Das ist mehr als ich von so manchen Forumuser je behaupten kann. Hellsehen kann er nicht. Wenn jemand basierend auf Insidern sagt, das die XTX über der 4090 liegen könnte, sollte man das "könnte" schon ernstnehmen.

Ich habe mir jetzt einige Videos angesehen und er hält sich bei sowas eigentlich immer sehr bedeckt. Abgesehen Mal davon, sollte man Gerüchte vielleicht auch besser aus dem Verkehr ziehen, wenn sie sich nicht bewahrheitet haben.

Mit den vollen Vertriebskanälen hat er anscheinend recht, denn alle Karten sind gut verfügbar. Selbst kurz nach Release einer Karte, ist es nicht wie bei vergangen Generationen, dass die Karte ausverkauft ist und erst noch 4-6 Wochen bis zur UVP brauch. Auch der Preisverfall ist einfach ungewöhnlich stark. Schau dir die Preisentwicklung der 4090, 4080 und 7900 xt an.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: BGnom
C0rteX schrieb:
sollte man das "könnte" schon ernstnehmen.
Dann bist Du die Zielgruppe, weil Dir vage Formulierungen und Konjunktive reichen.
Da kann man sich natürlich alles schön im breiten Interpretationsraum als "passte ungefähr" hindrehen.
Er machte zur 4090 über das Jahr 2022 6 oder 7 Aussagen wie sie ausfallen "könnte", und die letzte am Ende stimmte dann ziemlich genau....aber, da hattensogar alle anderen Tech Youtuber längst genau diesselben Infos.

"ha, told ya so! ;) " ist dann irgendwie nicht mehr so ernstzunehmen. Seine Collagen am Ende, wo er überall richtig lag, sind eben selektive Auszüge der "leaks", die stimmten. Der Karton Fehlinformationen wird nicht dagegengestellt. Würde ich an seiner Stelle ja auch nicht machen, das ist ja sein content, Darts werfen und irgendeiner trifft das bullseye.

Ich unterstelle bei echten leaks im Wortsinne eine gewisse Verbindlichkeit und Belastbarkeit (und kein vages "könnte" oder "maybe", das sind brainfarts) und die Anstrengung dabei die Quelle so gut es geht zu tarnen, weben WEIL sie sehr plausibel und belastbar sind.

C0rteX schrieb:
Ich habe mir jetzt einige Videos angesehen und er hält sich bei sowas eigentlich immer sehr bedeckt.
Aha! ;) Das macht man immer dann, wenn man unterstellen muss, dass das eben keine echten leaks sind, sondern irgendwleche "Infos" angeblicher "Insider", die Resonanz brauchen. MLID sammelt das nur, und nicht selektiv. Hatte ihn jetzt 2 Jahre verfolgt und am Ende deabonniert. Er weiß eigentlich gar nix und lag bei Ada und RNDA3 zu oft tu falsch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DerFahnder
Gängige Praxis einfach alles aufzugreifen was man irgendwo liest und dann für Klicks "aufzubereiten". Zwischen total ausgedacht und teilweise wahr ist dann natürlich alles dabei. Schenken kann man sich diese Videos/Artikel natürlich trotzdem. Trotzdem werden sie aber eben geklickt und damit wird es auch genauso weitergehen bei diesen Kanälen. Wer würde hier nicht auf einen 5090er Artikel klicken?

Wenn ich noch an die 600-800 Watt Gerüchte denke... nicht ganz unwahr, weil das wohl bei der Samsung Fertigung angefallen wäre, aber letztendlich mit TSMC zusammen völlig falsch.
 
Fasertest schrieb:
Man muss sich halt daran gewöhnen, dass in Zukunft der Fortschritt mehr Richtung Softwareverbesserung als Hardwareverbesserung geht, da das Moorsche Gesetz ja offenbar wirklich ausgedient hat.
Wobei die Steigerung durch Softwareverbesserungen, also Weiterentwicklung von FSR, DLSS, FG und evtl. neuen Verfahren, einen entscheidenden Haken haben: die entfalten ihre Wirkung nur in Spielen, die diese Features auch unterstützten und die Softwareverbesserungen stehen teilweise auch nur der jeweils aktuellen Generation zur Verfügung.
 
Fasertest schrieb:
Die 4070 schlägt eine 3090 Ti deutlich.
Also die Benchmarks von Computerbase sagen was anderes. Performancerating ist leicht unter einer 3080 fe.
 
  • Gefällt mir
Reaktionen: BGnom, eraser4400, McTheRipper und eine weitere Person
Klar entfalten die Features ihre Wirkung nur in unterstützten Spielen. Aber wie man an DLSS 1&2 bzw. FSR sieht, werden diese Features mittlerweile bei fast allen neuen Spielen berücksichtigt. Das gleiche wird mit DLSS 3.0 FG passieren.

baskervil77 schrieb:
Also die Benchmarks von Computerbase sagen was anderes. Performancerating ist leicht unter einer 3080 fe.
Im Bezug auf die Hardware-Leistung stimmt das auch. Allerdings mit dem neuen Softwarefeature DLSS 3.0 wird die 3080 gerade zu pulverisiert und auch das Topmodell der Ampere-Generation (3090 Ti) wird in Sachen Spieleperformance deutlich geschlagen. Wie gesagt man muss sich daran gewöhnen, dass auch Softwarefortschritt echter Fortschritt ist. Durch DLSS 3.0 werden die Frames zum Teil verdoppelt.
 
  • Gefällt mir
Reaktionen: wtfNow
Fasertest schrieb:
Allerdings mit dem neuen Softwarefeature DLSS 3.0 wird die 3080 gerade zu pulverisiert
Mit diesem DLSS? Wären da nur nicht die Artefakten und UI Probleme.
 
msi gaming x bestellt für 730 € inklu Versand
kann damit leben, meine alte für 380 verkauft netter Vram +4 gb und 30 fps + features
 
Super interessanter Vergleich für Leute mit älteren Systemen.
Ich werde es dann mal mit einer 4070 in meinem i5-6600 System probieren, bevor ich den Rest aufrüste, ersetzt eine 1070 bei 1600p, also im Grunde der Idealfall. Gerade DLSS 3 hilft ja auch nochmal im CPU Limit.
Eine 4070 TI halte ich nicht für sonderlich sinnvoll, wenn die 4070 in 5 Jahren am Ende ist, dann ist es die 4070 TI auch.

 
Zurück
Oben