Test Nvidia GeForce RTX 4070 FE im Test: (Knapp) RTX-3080-Leistung und 12 GB für 659 Euro

0ssi schrieb:
100FPS mit FG und Reflex fühlen sich genauso an wie 60FPS nativ aber 100FPS sehen bei Bewegung
eben viel flüssiger aus.
Ob es optisch Nachteile gibt oder kaum?
Ergänzung ()

rtx4070 schrieb:
Ich wäre auf 4k . Seit 2018 geht das locker. Weis nd was alle haben
Klar kommt auf die games bzw. Regler an 🫡
Ergänzung ()

rtx4070 schrieb:
Keine echten 120. Es ist trotzdem rumgetrickse. :/ weis noch nicht was ich davon halten soll. Mir wäre rohe power viel lieber als dlss und fg. Aber gut.
Jo die ti hat power der Preis is ne andere sache
Ergänzung ()

0ssi schrieb:
RTX4090FE 1869€ ganz ohne Crack :lol:

Irgendwann ändert man seine Prioritäten und dann zählt nur noch der Nutzen den man vom Produkt hat ! :o
Mit ner konsole geht das günstiger
Ergänzung ()

rtx4070 schrieb:
Ist noch nicht Final. Ich warte auf die 7800xt. Der Name war spontan mur egal was da steht.🙂🤣
Hoffe amd ändert seine Pläne noch nach meinen Infos kommt erstmal die 7600 xt und erst im 3!Quartal die 7800 xt...

AMD schweigt ja noch...
 
Zuletzt bearbeitet:
rtx4070 schrieb:
Nein da zu hoher verbrauch. Würde ich sie wollen würde ich sie kaufen. Ganz einfach.💪🏼
Ganz schwache Ausrede. 😂

Du kannst sie ja genauso auf 200W limitieren und hast dennoch mehr Performance als eine 4070. Davon mal abgesehen wird Leistung halt nicht aus dem Nichts generiert. Wenn du mehr Power haben willst als eine 4070 liefert kostet das halt auch mehr Strom. Wenn du 500 statt 50PS willst kostet das auch mehr Sprit. Alles haben wollen aber nix dafür tun, die neue Mentalität scheints.

Wenn dich Stromverbrauch so stört spiel am Besten gar nicht - das verbraucht am Wenigsten. ;)
 
  • Gefällt mir
Reaktionen: Millennial_24K und Solavidos
Mimir schrieb:
Lol, das ist genau der Punkt, den ich nicht verstehe. Da wird über DLSS und FG gemeckert, weil die damit erreichten 120 oder 240 FPS nicht so perfekt sind wie "echt", dass man aber in der Realität oft nicht in diese Performancebereiche kommt, vor allem nicht mit mittelklasse GPUs. Daran denkt scheinbar keiner.

Ich war mit meiner 3060ti heil froh, dass ich damit erstmals Upscaling via DLSS nutzen konnte (FSR2 gabs da noch nicht), weil ich damit in aktuellsten Spielen Frameraten mit einer Mittelklasse (!!) GPU erleben konnte, die ich sonst bisher bei neuen GPUs selbst im High End nicht erlebt hatte bzw. dann nur in älteren Spielen erreichen konnte. CPU Limits waren trotz nagel neuer CPU jetzt so präsent wie noch nie.

Bei den High End Karten sind DLSS und FG aktuell natürlich meist nur dazu da, um die hohen Ansprüche weiter zu befriedigen, bei mittelklasse und Low end ist das aber das beste was passieren konnte.
Jupp, das scheinen viele hier nicht zu verstehen.
Ich zocke nicht so viel dass ich mir eine 4090 kaufen würde, hätte die Leistung aber trotzdem gerne weil ich einen UHD@144Hz Monitor auf dem Schreibtisch habe.
Und nun kommt da eine 4070 Ti für 880€ und zaubert mir dreistellige fps in AAA-Titel mit maximalen Grafikeinstellungen dank DLSS 3.
FG Latenz und "Artefakte" sind in Single Player Titeln mit 100fps+ absolut null komma null ein Thema und DLSS ist mit leichten Schwankungen vergleichbar mit nativer Qualität wie man oben sehen kann. Diese Leistung bekomme ich sonst nirgendwo.
Und dann muss man sich teilweise noch echt schräge Dinge anhören weil man eine 4070 TI wegen der Software Features gekauft hat. Manche Leute sind irgendwie ziemlich dämlich oder einfach nur neidisch.
Und was VRAM betrifft, in 2 Jahren hole ich mir ohnehin die nächste Mittelklasse Generation, abzüglich Verkauf komme ich mit meiner Kasse für mein Schlechtwetter Hobby wunderbar damit zurecht:)
 
  • Gefällt mir
Reaktionen: Pro_Bro, aLanaMiau, jak80 und eine weitere Person
Finde auch das die 4070 ti die beste karte ist (neben der 7900 xt😉)
 
Zuletzt bearbeitet:
Rein von den Daten her finde ich die 4090 und 4080 als die besten Nvidia Karten.
Bei denen stimmt nur der Preis nicht.

Bei der 4070(ti) stimmen sowohl Preis als auch Größe des Vrams nicht.
 
  • Gefällt mir
Reaktionen: Rockstar85 und Solavidos
P/L Karten sind halt teuer entweder warten oder 3000 bzw 6000 gebraucht holen
 
marodeur schrieb:
@R++ Danke für deine Posts, ich nutze auch ein be quiet! 400 Watt Netzteil und habe mir die Palit JetStream (kostet 20€ über UVP) bestellt welche hoffentlich morgen bei mir ankommt.

Die MSI Ventus 3x ist zwar die meist verkaufte Karte auf Mindfactory aber laut Igors Beitrag scheint die Karte nicht die tollste zu sein, er erwähnt zwar den Namen der Karte nicht aber wenn man sich die Bilder anschaut erkennt man das es die MSI ist von der er schreibt.

Hab hier mal in FH5 in 5K mit RT (5220x2880) für maximale Last per GPU-z die Hotspot Temps und so auslesen lassen.
Powertarget zu testzwecken auf 100% gelassen.

Siehe Screenshots.
~65°C Chip und Memory
~81°C Hotspot
Geht eig. Bei 19-20°C Raumtemperatur.

VRAM wird in dieser Auflösung z.B. in FarCry 6 mit HD-Texture Pack und max Settings geschlachtet:evillol:
1fps.
12,2GB VRAM-Belegung.
23GB RAM-Belegung.

Es werden - gerade bei der Vegetation - nicht alle Sachen korrekt geladen.

MfG, R++
 

Anhänge

  • 4070.gif
    4070.gif
    24,5 KB · Aufrufe: 164
  • 4070_2.gif
    4070_2.gif
    24,8 KB · Aufrufe: 169
  • FarCry6_2023_04_16_19_47_14_297.png
    FarCry6_2023_04_16_19_47_14_297.png
    4,4 MB · Aufrufe: 172
  • Gefällt mir
Reaktionen: herculesgott
R++ schrieb:
Hab hier mal in FH5 in 5K mit RT (5220x2880) für maximale Last per GPU-z die Hotspot Temps und so auslesen lassen.
Powertarget zu testzwecken auf 100% gelassen.

Es werden - gerade bei der Vegetation - nicht alle Sachen korrekt geladen.
Womit jetzt nix neues klar wäre: es ist keine 5K Ultra Details-Karte. Irgendwie so gar nicht unerwartet.

Mit meiner 3080 Ti hatte ich damals mit ebenfalls "nur" 12GB VRAM aber irgendwie keine Probleme (in 4K).
 
  • Gefällt mir
Reaktionen: R++
Ja klar, sollte nur mal zeigen, was passiert wenn man es (sinnlos) übertreibt :D
Alles über 4K wird auch je nach Spiel und Settings ggf. mit ner 4090 "ungemütlich".

EDIT: Nachtrag: Das mit der Vegetation und Darstellungsfehler gilt für Far Cry 6! Da wohl 16-18GB+ VRAM benötigt werden würde.

In FH5 gibt es keine Texturprobleme in 5K. Da wollte ich nur die Temperaturen testen, da ja die MSI Ventus als "schlechte" Karte (Kühler nicht mit Pads verbunden?) gelten soll gem. dem Kommentar über Igorslab.

MfR, R++
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
ThirdLife schrieb:
Mit meiner 3080 Ti hatte ich damals mit ebenfalls "nur" 12GB VRAM aber irgendwie keine Probleme (in 4K).
RTX hat Forza Horizon 5 auch erst seit kurzem...
 
ThirdLife schrieb:
Mit meiner 3080 Ti hatte ich damals mit ebenfalls "nur" 12GB VRAM aber irgendwie keine Probleme (in 4K).
Der Unterschied zu heute ist aber auch die in Spielen verwendete Texturauflösung. Der Speicherbedarf für Texturen ist seit dem Release der 3000er Karten auch gestiegen und wird auch die nächsten Jahre weiter steigen. Bei Karten mit 8 GB (bspw. der 3070) muss man in einigen neuen Spielen ja schon die Texturqualität selbst in FullHD runterstellen, damit man keine Laderuckler oder sonstige Performanceprobleme hat.
 
R++ schrieb:
... wollte ich nur die Temperaturen testen, da ja die MSI Ventus als "schlechte" Karte (Kühler nicht mit Pads verbunden?) gelten soll gem. dem Kommentar über Igorslab.
Auch guru3d hat von den Problem mit den sehr heißen VRMs dieser Karte berichtet, die Temps wirst du aber nicht in Tools wie GPU-Z sehn da dort keine Sensoren sind. Ich wollte dich halt nur innerhalb deiner 14-Tagefrist darauf hinweisen das diese Karte durch hohe VRM Temps möglicherweise eine niedrigere Lebenserwartung hat, vorallem wenn man die Karte oft am Limit betreibt.
 
  • Gefällt mir
Reaktionen: M11E und R++
Eli0t schrieb:
Ultra Texturen mit ultra performance würde aber null Sinn machen.
Davon hat doch niemand gesprochen. Es ging doch rein um die Tatsache, dass keine 720p Texturen verwendet werden. Würde das anders laufen, dürfte es sich nicht Super Sampling schimpfen.
 
Neronomicon schrieb:
Was auch an der fehlenden Optimierung liegen kann.
Das mag sicherlich stimmen und sollte eigentlich auch nicht vorkommen. Ändert für die Praxis aber nichts daran, dass mit 8 GB Karten unabhängig von deren Rechenleistung bei manchen aktuellen Spielen selbst in 1080p schon Abstriche bei der Texturqualität machen muss.
 
  • Gefällt mir
Reaktionen: Millennial_24K
ArrakisSand schrieb:
12GB sind bereits Heute viel zu wenig (und Morgen?) und wer auf wilde Ruckelorgien und und eine mangelhafte Texturqualität steht ist mit dieser Karte bestens bedient.
Die RTX3070 (8GB) knickt gegen die RX6800 (16GB) im folgenden Hardware Unboxed Video gnadenlos ein.

Hab mir jetzt auch endlich mal das Video angeguckt.

Schon irre, dass selbst mit RT die 6800 in einigen Spielen schneller ist als die 3070. Und das Selbst DLSS Performance in Hogwarts Legacy das Vram Problem der 3070 nicht lösen kann.

Also jedem das seine. Aber wer heute eine GPU 12 GB Vram kauft, darf sich in 2..3 Jahren nicht beschweren.
 
  • Gefällt mir
Reaktionen: Windell
Casillas schrieb:
Und das Selbst DLSS Performance in Hogwarts Legacy das Vram Problem der 3070 nicht lösen kann.
Dieses VRAM an der Auflösung Festmachen war in meinen Augen eh schon immer eine Lüge und hat nur nVidias Marketing in die Karten gespielt. Das trifft vielleicht mal zu wenn eine eh schon knapp bemessene Karte bei 1440p vs 2160p über einen gewissen Punkt geschoben wird. Sobald der Content mal entsprechend VRAM-hungrig ist, rettet einen Auflösung nicht mehr.

Man sieht ja jetzt sehr gut, dass man die Auflösung gar nicht genug senken kann, um den grundlegenden Bedarf der Spiele noch zu befriedigen.
 
  • Gefällt mir
Reaktionen: BGnom
Ich muss unbedingt noch etwas zum Punkt Benchmarkparcour von ComputerBase loswerden:

Das Thema Raytracing ist oftmals eine subjektive Geschichte. Die einen sind absolut euphorisch, die anderen kümmert es überhaupt nicht, oder man befindet sich irgendwo zwischen diesen beiden Extremen. Ich selbst gehöre zu letzteren.

Die Entscheidung von den verantwortlichen Redakteuren bei ComputerBase, den Anspruch an die RT-Hardware zurückzuschrauben, begrüße ich voll und ganz. Auf der anderen Seite zeigt es meiner Meinung nach aber auch den falschen Fokus der Redaktion auf die Bedeutung von Raytracing im Generellen. Wenn man rein objektiv und nüchtern auf die neue Technik schaut, sollte klar sein, dass sie trotz aller Fortschritte in den letzten Jahren immer noch sehr am Anfang steht. Das heißt also: Raytracing bereits jetzt eine viel zu hohe Bedeutung bei der Leistungsbeurteilung von Grafikkarten zukommen zu lassen, ist aus Sicht der Vernunft einfach falsch. Derzeit ist Raytracing im Vergleich zur Rasterisierung immer noch mehr ein zusätzliches optisches Gimmick als eine gefestigte und etablierte Beleuchtungstechnik am Spielemarkt. Dementsprechend hätte schon im Vorfeld klar sein sollen, dass der Benchmarkparcour mit maximaler RT-Last nicht der richtige Weg sein kann. Denn siehe da, es gibt auch noch Grafikkarten mit schwächerer RT-Leistung als Nvidias 1500€+ Riege. Wer hätte das gedacht.

Von daher wünsche ich mir von den verantwortlichen ComputerBase-Redakteuren für die Zukunft etwas mehr Objektivität und etwas weniger Subjektivität.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: M11E, Windell und mibbio
Lurtz schrieb:
Man sieht ja jetzt sehr gut, dass man die Auflösung gar nicht genug senken kann, um den grundlegenden Bedarf der Spiele noch zu befriedigen.
So wie bei dem TLOU Märchen? In 1080P 14/12GB VRam?

2560x1440p geht auch mit 8GB VRam

tlou-i_2023_04_14_13_41_02_503.pngtlou-i_2023_04_14_13_41_45_755.pngtlou-i_2023_04_14_13_42_37_848.pngtlou-i_2023_04_14_13_43_13_323.pngtlou-i_2023_04_14_13_43_47_626.png

tlou-i_2023_04_13_10_43_26_678.pngtlou-i_2023_04_13_10_44_05_197.pngtlou-i_2023_04_13_10_45_10_251.pngtlou-i_2023_04_13_10_45_41_566.pngtlou-i_2023_04_13_10_46_02_984.pngtlou-i_2023_04_13_10_49_01_963.png

...es geht auch höher

6.png7.png8.jpg9.jpg10.jpg
 
Zuletzt bearbeitet:
Zurück
Oben