Test Nvidia GeForce RTX 4070 FE im Test: (Knapp) RTX-3080-Leistung und 12 GB für 659 Euro

Unmoeglich schrieb:
Ich habe mir eine PS5 bestellt. Deutlich billiger als so eine Grafikkarte. Außerdem verbraucht die PS5 statt 500+Watt wie ein kompletter PC "nur" um die 200 Watt. (ok, am 65" Oled dann eben nochmal 150 Watt dazu)

Du brauchst ja auch kein Rechner der 500+ verbraucht! Das ist ja völlig übertrieben^^. Außer bei High End 4k Systemen, die 2 % vielleicht haben und die man auch nicht braucht zum Spielen. Wo kämen wir dahin.

Um es kurz zu machen. Du brauchst bei weitem nicht so ein System! Man kann sich immer noch Rechner zusammen stellen, die max 1000- 1500€ kosten und die, mit ein wenig Optimieren, 150- 300 Watt verbrauchen. Und damit kann man auch alles spielen, von FullHD- WQHD.

Wie du schon richtig angemerkt hast, ist deine PS5+ Fernseher auch nicht gerade sparsam und in meinem Fall dann auch nicht besser.
 
Taurus104 schrieb:
Was meinst du wohl wer von uns eher Recht hat? Jemand der beruflich seit Jahren in der Branche und Materie unterwegs ist oder Du? Und sorry, ich bin nicht dein Nachhilfe Lehrer. Eigenstudium sollte man selbst zu im Stande sein und anhand deiner Schreibweise ist mir das Niveau deutlich zu niedrig, weshalb meine Antwort auch entsprechend ausfällt. Und da RT, PT, DLSS 3.0 FG die Hauptmarketingargumente sind, kann man durchaus anmerken das die bei Einsatz den VRAM stärker belasten als ohne Nutzung. Spiele sollten zudem bekannt sein, Hogwards Legacy, The Last of Us Part 1 Remake, MS Flightsimulator 2020, "RESI4 Remake selbst schon in 1080p ohne RT" (siehe Bild), A Plaque Tale Requiem (1440p). So da ich dir nun doch Nachhilfe gegeben habe, solls es das auch gewesen sein. Den Rest kannst du sicherlich auch mal selbst ausarbeiten. Machs gut.
Awww redet er plötzlich von Niveau und dann kommt sowas dabei raus. 🤣
Ka was dich da bei den Screenshots geritten hat wie "RESI4 Remake selbst schon in 1080p ohne RT". Das stimmt zu 100% nicht, da ist man niemals bei so einer Auslastung hat.
Guck mal auf Youtube, da haben die meisten bei 1440p max. Settings + RT gerade mal 10gb Vram Auslastung.
Von dem er kann ich mir den Rest deiner Behauptungen sparen. So viel zu "beruflich seit Jahren in der Branche" ahjaaaa. Machs gut und lass gut sein.
 
Verglichen mit meiner RX 6800 also ~110% Leistung bei 90% Energiebedarf. Also nicht mehr, als ein Tuningpreset, natürlich auf Kosten des anderen Parameters.

Dass die 7800XT davor liegen wird ist keine gewagte Prognose. Ich hoffe mal, dass N32 zumindest in Q3 fertig wird. Sollten die Gerüchte zu den Eigenschaften der fehlerbereinigten HW stimmen, ist die 4070 Ti wohl der bessere Vergleich (eine hypothetische 7950XTX könnte dann aber auch Einzelsiege gegen die 4090 verbuchen)
 
wtfNow schrieb:
Das ist nicht ganz korrekt, mit FG (und die Technologie dahinter steckt in der Hardware von Ada drin) überholt die 4070 eine 3090 Ti bei weitem (und deutlich weniger Verbrauch als 3080).
Natürlich sind die FPS nicht gleichwertig zu "echten" aber ein großer Unterschied in der Spielerfahrung ist das allemal.
Aber dazu muss ein Spiel das auch erst einmal unterstützen, oder? Das funktioniert ja nur mit DLSS 3?!
 
IronAngel schrieb:
Sind wir mal ehrlich für die 650 Euro gibt es meistens gerade mal Einsteiger Karten, mit Einsteiger Kühler. Wenn ich eine richtige Karte haben möchte, bin ich ruck zuck bei 700 - 750 Euro. Was will ich mit so einer Karte, wo an den Bauteilen und der Kühler gespart wird. Nur damit Nvidia ja seine Marge halten kann. So wird das nichts. Was hindert mich daran einfach eine gebrauchte RTX 3080 gekaufen ? Die Karte ist schneller und günstiger. :)
Und die 3080er sind qualitativ besser? Es rauchen ja sogar 4090er gerne mal in Spielen ohne FPS-Limit ab.
 
Samuelz schrieb:
Ich spiele nun mal keine anderen Spiele aktuell. Du kannst mit deiner 4090 ja gerne andere Bespiele zeigen, schätze, aber da kommt eh nicht viel bei raus. Schönes Leben.

Und nochmal du sagtest folgendes: -> Eine 4070 reicht grade so für FHD mit RT wenn überhaupt. Steht auch oben.... So viel dazu.
Wenn dann musst du schon richtig zitieren und mir am besten nicht erst ein schönes Leben wünschen und dann doch wieder so ankommen und dann wieder falsch.
Kenjiii schrieb:
Mit so einer Karte kommt PT oder RT hauptsächlich nur in Full HD in Frage, wenn überhaupt.
Also jetzt nochmal für dich: Das heißt, in den meisten Fällen machen solche Settings mit so einer Karte mit so einer Performance nur in solchen Auflösungen Sinn, da sonst nicht genug Fps zustande kommen, wodurch sich mit so einer Karte höhere Auflösungen mit solchen Settings erübrigen.
Aber all das war eben bezogen auf den bestückten VRAM mit 12GB entsprechend zu der Leistung dieser Karte.
Dann kamst du mit deiner 3080 Ti, die 20% mehr leistet und machst Screenshots aus FH5 und Deadspace, wo RT fast keinen Unterschied macht...........und bestätigst praktisch meine Aussage mit dem VRAM, bist aber anscheinend der Überzeugung mir jetzt unbedingt aufzeigen zu müssen, dass es doch ein paar Spiele gibt, wo du mit deiner stärkeren Karte auch mit RT in höheren Auflösung spielen kannst, wobei ich das nie völlig ausgeschlossen hatte, vor allem nicht bei solchen Games? :) ok
 
DaCrazyP schrieb:
Aber dazu muss ein Spiel das auch erst einmal unterstützen, oder? Das funktioniert ja nur mit DLSS 3?!
Richtig, ich zocke z.B. viel MSFS 2020 und dort ist es Gold wert, schon allein wegen dem CPU Limit. In Hogwarts Legacy hatte ich damit auch durch.
Man muss natürlich am besten vorher schauen welche Spiele DLSS 3 unterstützen und wie viel man damit verbringt, gibt natürlich auch Fälle wo es nichts nützt weil nicht vorhanden oder wird zu selten angeworfen.
 
  • Gefällt mir
Reaktionen: DaCrazyP
ThirdLife schrieb:
Weil das ja vorher im Thread so angesprochen wurde. Der Chip damals war fast gleich gross, nur der Wafer kostet halt statt 20k$ nur 4k$ auf 16nm. Und jetzt soll trotz enormen Preissprüngen bei TSMC die Karte für dasselbe Geld kommen, trotz Einbruch des Euro und trotz 50% mehr Speicher.

Joa. Klar. Am besten geschenkt gell ?😂

Du kannst von allem Träumen. Kriegen wirst du das halt nicht.

Im Profi-Bereich schon seit jeher Gang und Gäbe. Davon abgesehen: brauchst du eine 4090 ? Ansonsten musst du ja keine 1500 Steine ausgeben. Warum maßt sich eigentlich jeder hier an dass er ein Grundrecht auf ne 200€ 4090 hätte weil "man das brauche" ?🤣

Hab doch gar nicht gesagt, dass ich ein Grundrecht auf eine 4090 für 200€ will. Hab selbst meine 3080 12GB für 1050€ 04/2022 gekauft, dachte es wäre ein Schnäppchen, weil die bis dahin immer noch 1300€ gekostet haben. Hobby kostet immer. 🫣

Also hör bitte auf, in meine Aussagen mehr hinein zu interpretieren, als ich tatsächlich gesagt habe. 🙃
 
DrDeadlift schrieb:
Verglichen mit meiner RX 6800 also ~110% Leistung bei 90% Energiebedarf. Also nicht mehr, als ein Tuningpreset, natürlich auf Kosten des anderen Parameters.
Realistisch gesehen 19% Mehrleistung bei 74% des Energiebedarfs laut Techpowerup bei 185W vs. 250W.

Aber klar, das holst du bei dir auch raus. Wie siehts eigentlich aus sobald du mal nen Titel mit halbwegs RT nutzt ? Wie satt ist die Mehrleistung deines Tuningpresets auf der 6800 dann ? Die würde nichtmal bei 500W mithalten wenn man extrapoliert. 🤣

DrDeadlift schrieb:
Dass die 7800XT davor liegen wird ist keine gewagte Prognose. Ich hoffe mal, dass N32 zumindest in Q3 fertig wird. Sollten die Gerüchte zu den Eigenschaften der fehlerbereinigten HW stimmen, ist die 4070 Ti wohl der bessere Vergleich
Bisher ist das eine ziemlich gewagte Prognose, die 7900XT ist ja schon kaum schneller als eine 4070 Ti. Da reden wir von 10% laut TPU. Irgendwo will auch AMD Geld verdienen. Entweder wird die Leistung einer 7800XT also hoch, dafür auch der Preis oder halt nicht so hoch und dafür etwas günstiger.

DrDeadlift schrieb:
(eine hypothetische 7950XTX könnte dann aber auch Einzelsiege gegen die 4090 verbuchen)
Müssten dann halt cherry picked Titel sein. Da fallen mir spontan nur RDR2 und die Assassins Creed Serie ein. Für alles andere müsste man sicher mal 25% mehr Shader plus sicher 10% mehr Clockspeed liefern. Da reden wir dann aber schnell von Verbräuchen jenseits der 500W noch ohne groß OC zu betreiben.

Und preislich wirds dann auch für AMD schwer, man müsste sicher mal so 13-1400€ einkalkulieren und dafür dann deutliche Abstriche beim RT zu machen wenn man auch ne 4090 holen könnte ? I don't think so. Schwerer Stand für AMD im Moment im Highest-End Bereich ohne vernünftige RT Implementierung und nix in der Hand gegen DLSS3/FG.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wan900 und Laphonso
Mit 74 FPS in Spider-Man Miles Morales (RT) und 39 in Cyberpunk 2077 (RT) dürfte die 4070 doch die Grafikkarte sein, die in WQHD Raytracing zu einem akzeptablem Preis massentauglich* macht, oder habe ich da einen Denkfehler?

Ein Restrisiko stellen natürlich und Verfügbarkeit dar.

*Mit massentauglich beziehe ich mich auf den Durchschnitts-CB-Gamer, dem laut CB Umfrage die bisherigen Ada Preise zu hoch waren.
 
Einhörnchen schrieb:
und 39 in Cyberpunk 2077 (RT) dürfte die 4070 doch die Grafikkarte sein, die in WQHD Raytracing

Also mit DLSS3 sind das eher 75-85 avg fps in 1440p.
1681399755198.png


Zitat Optimum Tech "very surprised that this actually works" und dass das auf einer 4070 so abliefert.

1681399991863.png


vs.
(1:1 Shot im Benchmark, keine best case Werte, die ich gewählt habe)

1681400016028.png


FG ist in diesen (und nur in diesen) Games dann schon ein "Gamechanger".

Wäre halt schön(er), wäre das eine (immer noch teure) 500 - 550 Euro GPU....

danyundsahne schrieb:
Bei MLID und RGT gibt es immer wieder mal Gerüchte zu verkünden.
Ein kaputte analoge Uhr sagt auch zweimal täglich die Uhrzeit korrekt an. ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wannabe_nerd, ZeusTheGod, Wan900 und 2 andere
Laphonso schrieb:
Leider ist die GTX 770 10 Jahre alt, die konnte tatsächlich laut Computerbase Test damals auch alles auf Ultra spielen,
Naja, vor 10 Jahren war auch kein 4K verbreitet und WQHD bzw. 2560x1600 Monitore hatten die wenigsten da die 500-1000€ gekostet haben. Selbst 120/144Hz war da noch Neuland.
Aber Leistung bzw. Vram Ausstattung ist eben nur eine Seite der Medaille, auch der Preis muss passen und da enttäuschen Nvidia und AMD. Wobei jetzt aktuell eine 7900XT unter 850€ einen erfreulichen Trend hingelegt hat.
 
  • Gefällt mir
Reaktionen: Kenjiii und Laphonso
ruthi91 schrieb:
Wobei jetzt aktuell eine 7900XT unter 850€ einen erfreulichen Trend hingelegt hat.
Alles nur Angebot und Nachfrage. Wenn die breite Masse zu den Kursen kauft, wird sich an diesen auch nichts ändern.
 
Nach 3 Jahren die selbe Leistung, zum selben Preis, lang lebe der Technische Stillstand, mögen Sie an ihrer Gier ersticken... einfach nur lächerlich 🤣
 
  • Gefällt mir
Reaktionen: Verak Drezzt
ihr sollt gefälligst bei gleichen preis die ampere gen abkaufen
nvidia will nicht den aib Rabatte geben.
Damit die invest nicht erschrocken die Aktien verkaufen
Aktuell können die Kunden nur eins tun keine nvidia gpu zu dem Kurs kaufen. und wenn dann nur gbr heftigs runterhandeln bsp rtx3080 400€ was angemessen wäre.
 
ThirdLife schrieb:
Aber klar, das holst du bei dir auch raus. Wie siehts eigentlich aus sobald du mal nen Titel mit halbwegs RT nutzt ? Wie satt ist die Mehrleistung deines Tuningpresets auf der 6800 dann ? Die würde nichtmal bei 500W mithalten wenn man extrapoliert. 🤣

Gilt natürlich nur für die Rasterperformance. Immerhin reichts aber für F1 22 dank frugalem Display (1440p @ 75 Hz).

Bisher ist das eine ziemlich gewagte Prognose, die 7900XT ist ja schon kaum schneller als eine 4070 Ti. Da reden wir von 10% laut TPU. Irgendwo will auch AMD Geld verdienen. Entweder wird die Leistung einer 7800XT also hoch, dafür auch der Preis oder halt nicht so hoch und dafür etwas günstiger.

Der Preis wird unterhalb der 7900XT liegen (müssen). Mit 100 mm2 weniger N5 Chipfläche und 4 statt 5 MCDs wird die Marge deutlich höher liegen

Müssten dann halt cherry picked Titel sein. Da fallen mir spontan nur RDR2 und die Assassins Creed Serie ein. Für alles andere müsste man sicher mal 25% mehr Shader plus sicher 10% mehr Clockspeed liefern. Da reden wir dann aber schnell von Verbräuchen jenseits der 500W noch ohne groß OC zu betreiben.

Die Vorstellung, dass N31 genau das leistet was von Beginn an als Ziel anvisiert wurde wirkt überaus absurd. Die Effizienz ist ist in der Umsetzung definitiv verloren gegangen. Wenn es also gelingt die Ursache für den explodierenden Verbrauch der Grafikpipeline zu eliminieren, dürften 3 GHz locker geknackt werden.
+25% beim Takt bei gleichem Energiebudget könnten durchaus möglich sein und würde sich mit den ursprünglichen Gerüchten ebenso decken wie den +50% Performance/Power die AMD selbst in Aussicht gestellt hat (und ja zutreffen, solange nur die Shader genutzt werden)
 
  • Gefällt mir
Reaktionen: ThirdLife
alkaAdeluxx schrieb:
Nach 3 Jahren die selbe Leistung, zum selben Preis, lang lebe der Technische Stillstand
Naja es ist ja nicht so, dass jemand der heute ne GPU kaufen will, mit der 3080 das gleiche bekommt wie mit der 4070. Es ist immerhin die selbe Leistung bei ~60% des Verbrauchs + der Hardware für DLSS3.

Und die 3080 hat damals auch so gut wie niemand für 699€ bekommen^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wannabe_nerd, bronn1996, angband1 und 4 andere
Da hat einer begriffen das texturen nicht an der Auflösung gebunden sind.
 
Zurück
Oben