Test Nvidia GeForce RTX 5070 im Test: Stillstand mit MFG bei bestenfalls 649 Euro

Neodar schrieb:
Nein, sind sie nicht, egal wie laut und wie oft das User mit der rosaroten NVidia Brille krakeelen.

Offenbar kaufst DU deine Grafikkarten immer nur für das Hier und Jetzt.
Viele andere Käufer wollen hingegen mit so einer Investition ein paar Jahre über die Runden kommen und somit für 650€ nicht gerade mal das bekommen, was heute gerade noch reicht.

Recht habt ihr Beide irgendwo... Der eine mit der Aussage das 12GB reichen und der andere das dem nicht so ist.

Hab hier im Haushalt zwei Rechner mit 12GB und einen mit 24GB und dann noch zwei mit 8GB.

Alle können das was sie spielen wollen mit 60 Bildern in schick spielen. Ohne Probleme.

Meine 24GB fallen aus der Reihe. Aber ich bin auch nen Nerd der gerne in VR zockt.

Am Ende heißt es Leben und leben lassen.

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: Enyo79 und JMP $FCE2
lynx007 schrieb:
Gibt ja auch schon hier welche die meinen das es sich lohnt den Upscaler bei FHD und 30 FPS einzuschalten.
Die denken vermutlich auch, dass die doppelte Latenz ein Feature ist.🥸
 
  • Gefällt mir
Reaktionen: Pisaro, xXDariusXx und Apocalypse
@Leeway Hohe Zahlen sind besser! Oder?.... ODER? :D
 
  • Gefällt mir
Reaktionen: Pisaro, Apocalypse und Leeway
Bei der 5070 hat NV wohl so alles falsch gemacht, was man so machen kann. Wozu überhaupt einen neuen Die, man hätte doch auch einfach den alten aus der 4070 SUPER rebranden können.

Meine Erwartung zur 5060: 3. Generation mit 3060-Leistung und 8GB VRAM, das Einzige was kontinuierlich hoch geht ist der Preis.

Ich würde ja gerne sagen, GPUs waren noch sie so langweilig, die Wahrheit ist aber, das GPUs noch nie so frustrierend wahren, da man jetzt seit 3 Generationen keine nennenswerte Verbesserung bei Performance/Preis mehr hat und Upgrades noch nie so schlecht fürs Geld wahren.
 
  • Gefällt mir
Reaktionen: Celinna und Wichelmanni
Marcel55 schrieb:
Die hätten die 5070ti als 5070 vermarkten sollen und die 5070 als 5060.
Genau so. Alles hätte eine Klasse runter rutschen müssen. Die 5080 wäre dann zur 5070Ti geworden und die eigentliche 5080 hätte 24 GB Vram bekommen müssen. Die Lücke zur 5090 ist ausreichend groß um da noch ein paar Karten zwischen zu quetschen. Dann wäre es zwar auch irgendwie komisch aufgestoßen, aber die Abstände hätten gestimmt und die Preise auch.
So ist das von NV reinste Abzocke.
 
  • Gefällt mir
Reaktionen: Mracpad
Gravlens schrieb:
Und es ist denke ich sowieso trotzdem der Fall, das auf lange Sicht gesehen 12 GB VRAM zu wenig sein werden.^^
Gemessen am Namensschema passt es aber, dass des eigentlich eine 5050 ist und leider über 350€ kostet ist eine andere Baustelle und wird es auch bleiben.

Aber ja, die 12GB werden auf lange Sicht zu wenig sein - die Frage ist nur was "lange Sicht" bedeuten soll, weil auch 100GB irgendwann zu wenig sein werden (theoretisch, praktisch wird es dann schon lange keine PCs mehr geben...).

Wer diese Karte zum Spielen in 4K kauft dem ist sowieso nicht zu helfen, für FHD ist sie aber bis auf den Preis durchaus OK und das wird nicht zuletzt wegen den Preisen noch sehr lange die meistgenutzte Auflösung bei vielen Spielen/Spielern bleiben (dass sie manchmal von einer 4070S überholt wird ist aber natürlich lächerlich).

Natürlich hätte Nvidia den Chip anders bauen und dann weitere 100$ zusätzlich verlangen können - die Frage ist nur, ob das besser wäre zumal das auch die Preise der anderen noch weiter nach oben treiben würde.
Hier will jeder nur noch maximalen Gewinn, aber mal sehen was AMD leisten kann, immerhin sollten sie in dieser PL-Klasse gut mitspielen können.
 
mibbio schrieb:
Gegen das Einschalten von Upscaling spricht ja auch gar nichts, um zu niedrige FPS zu erhöhen. Denn genau dafür ist es primär gedacht. Was bei 30 fps dagegen eher weniger sinnvoll ist, ist (Multi) Frame Generation, aber das hat recht wenig mit dem Upscaler zu tun.
Doch, es sieht scheiße aus! Es sieht extrem scheiße aus, wen man 720p oder noch weniger hochskalliert! Als Grenze gilt 1080p -> QHD, was jeder weiß der sich etwas mit dem Zeug beschäftigt. Es sieht unglaublich scheiße aus. Und zwar in einem Maßstab das es sinnvoller ist alles ander voher runter zu drehen. Aber Fakeframes machen das am ende nicht besser wie ich oft schon selber festgestellt habe.

Und ich kaufe mir doch nicht 2025 eine GPU auf "720p" zu spielen, oder irgendwas dazwischen, nur damit es schlechter aussieht als wen ich einfach die Schieberegler auf LOW stelle. Hab es erst letzens wieder dem Dune Benchmark gesehen.... die einfach im AUTO, ich war Lazy und meine GPU ist alt, einfach FSR auf 900p ausgibt. Mit Fakeframes...

Und ab nen bestimmten level sieht FSR/DSL schlechter aus, als SPiele vor 2010. Das muss ich mir dann auch nicht antun. Aber das hat man bei einer 5070 nicht... die sit ja für alles 4k oder auch QHD schnell genug was man so aktuelles kaufen kann. ;) :evillol:


PS: Vieleicht ändertz sich das aber jetzt mit FSR4 oder DLSS4! Aber bis jetzt habe ich halt nur tests bei 4k oder "QHD gesehen wo es heist, QHD sieht besser aus als QHD. Oder 4k sieht besser aus, als 4k" dann funktiooniert das vieleicht auch bei FHD. Ich glaube aber nciht wirklich daran. Weil auch die Redakteure bei diesem Thema mit FHD gern nen Bogen machen.
 

Anhänge

  • 1741118185662.png
    1741118185662.png
    852,5 KB · Aufrufe: 75
Zuletzt bearbeitet:
AnkH schrieb:
Das Ding hier ist maximal eine x60Ti, aber wieder kein Wort dazu zu lesen im Test, wann, WANN nimmt CB endlich ihre journalistische Verantwortung wahr? Mit dem Wischiwaschi im Fazit sicher nicht...
Ich würde CB keine vorwürfe machen. Wir wissen doch alle, was passiert, wenn man Nvidia zu sehr kritisiert.
CB ist auf kostenlose Muster der Nvidia Karten angewiesen.
 
Wie oft magst du die Folie/den Screenshot denn noch posten @lynx007? Das war jetzt das dritte Mal...
 
  • Gefällt mir
Reaktionen: Leeway
@Cronos83
sorry hab sie rausgemacht... Muss ne schelchte Angewohnheit von Twitter sein... Habe sicherheitshalber auch den Tab zu gemacht. :evillol:
 
  • Gefällt mir
Reaktionen: Cronos83
Sunweb schrieb:
4070 - Nachfolger: 5070
4070 Super - Nachfolger: 5070 Super
4070TI - Nachfolger: 5070TI
4070TI Super - Nachfolger: 5070TI Super
Das kann man sich letztlich zurechtdefinieren, wie man will. Tatsache ist nun mal, dass die Leute die 5080 mit der 4080 Super verglichen haben, nicht mit der 4080, und dass nun in genau der gleichen Weise die 5070 mit der 4070 Super verglichen wird, nicht mit der 4070. Logischerweise, denn es ergibt bei der Betrachtung der Frage, wie sich Preis und Leistung bei Nvidia entwickelt haben, ja wenig Sinn, so zu tun, als habe es die Super-Refreshs nie gegeben. Letztlich herrscht seit der letzten Aktualisierung der 4000er-Modellpalette mit den Super-Varianten Stillstand; da interessiert es - zu Recht - auch keine Sau, ein weiteres Jahr zurückzugehen, nur um 20% Mehrleistung attestieren zu können, "Vorgänger" hin oder her.
 
  • Gefällt mir
Reaktionen: Celinna, suessi22, Apocalypse und 2 andere
lynx007 schrieb:
Doch, es sieht scheiße aus! Es sieht extrem scheiße aus, wen man 720p oder noch weniger hochskalliert!
Wenn ich in QHD DLSS Performance an mache, dann habe ich genau 720p und das sieht mittlerweile ziemlich gut aus. Ist ja auch irgendwo logisch. An meinem 4K Samsung Odyssey nutze ich fast permanent DLSS Ultra Performance, aber mindestens Performance. Zu Balanced, Quality oder DLAA sehe ich kaum mehr Unterschiede.
shaboo schrieb:
Letztlich herrscht seit der letzten Aktualisierung der 4000er-Modellpalette mit den Super-Varianten Stillstand; da interessiert es - zu Recht - auch keine Sau, ein weiteres Jahr zurückzugehen, nur um 20% Mehrleistung attestieren zu können, "Vorgänger" hin oder her.
Bleibt immer noch das OC Potenzial mit bis zu 15%. Damit kommt man immerhin an eine 4070 Ti Super ran.
 
Chismon schrieb:
Kritisiert wird das Produkt jedoch auch hier im CB Artikel deutlich, wenn auch nicht so sehr mit dem Zaunpfahl wie anderenorts, z.B. bei HUB ;).
HUB hat ja auch nichts mehr zu verlieren.

 
  • Gefällt mir
Reaktionen: Chismon und Celinna
@Quidproquo77
Deckt sich nicht mit meinen erfahrung. Aber bei mir auch auf FHD schluss. und wenn da FSR irgendwas rumrendert, sieht es grundsäztlich aus wie 720p Scheißes... oft sogar schlechter weil, interpoliert wird... sprich kanten verschwinden, alles wirkt übertrieben weich und ekelhaft... und für wirkt das so als würde man ein spiel aus der Jahrtausenwende einem Spiel von 2015 gegenüberstellen....

Ist vermutlich auch geschmacksache. Bis dato war FSR zumindest kein ersatz für natives 1080p. Und lieber drehe ich alles runter und spiel auf 30fps, befor ist das matsch zeug antue. Fühlt sich dann alles fast an, als würde man wieder zu Milineial spielen.

DLSS soll ja besser sein. Aber auch da sagen die Reviewer oft, lohnt erst bei QHD. und selbst da auch nur wen man kein problem mit ghosting hat. Letzters soll sich ja stark in DLSS4 gebessert haben. Aber ich habe noch niemanden gehört "jetzt können auch die leute die FHD spielen DLSS einschalten" . Und ich verfolge praktisch jedes Update darüber.
 
Ehrlich gesagt verstehe ich die Berichterstattung langsam nicht mehr. Warum testet man nicht auch mit MFG?
Meine RTX 5080 war schon ein Upgrade zur RTX 4090 und inzwischen die RTX 5090 ist einfach nur unglaublich.
Ich habe bei cyberpunk 2077 mit meinem neuen 480 hz OLED ganze 400 FPS in RayTracingOverdrive!
Diese benchmarks hier sind eben nur die halbe Wahrheit. Extrem flüssig im Vergleich zur fast gleich schnellen 4090, weil man Technologie weglasst um es vergleichbar zu machen!
MarcoHatFragen schrieb:
Wo sind denn die MFG Benchmarks oder bin ich blind, weil das war gerade für mich das interessante ob Nvidia sein Versprechen wahr machen konnte und die 5070 schneller ist durch mfg als eine RTX 4090?
 
@Vitche Hier hat sich wohl ein Fehler eingeschlichen bei den techn. Daten zu den 4070/4070S:
Video Encoder (NVENC) hatten diese auch nur 1x, nur die TI Varianten hatten 2x!
1741119457266.png

1741119313102.png

Eine Diät für die Video Engine​

Einen Schritt zurück macht die Grafikkarte derweil bei der Video Engine. Zwar setzt die GB205-GPU auf Nvidias NVENC-Encoder der 9. Generation und Decoder der 6. Generation, es gibt beides aber nur in einfacher Ausführung. Damit bleibt die RTX 5070 nicht nur hinter den anderen Blackwell-Modellen zurück, sondern auch hinter der RTX 4070 (Super) mit zumindest zwei Kodiereinheiten.

https://www.nvidia.com/de-at/geforce/graphics-cards/40-series/rtx-4070-family/
1741119213501.png
 
  • Gefällt mir
Reaktionen: Vitche
1024 schrieb:
Ehrlich gesagt verstehe ich die Berichterstattung langsam nicht mehr. Warum testet man nicht auch mit MFG?

Steht im Test... und mehrfach in den Kommentaren:
Aufgrund der Verschiebung des Marktstarts der GeForce RTX 5070 in eine denkbar vollgepackte Woche, in der nicht nur zusätzlich die Radeon RX 9070 und RX 9070 XT erscheinen, sondern parallel auch der MWC in Barcelona stattfindet, war die verfügbare Zeit für den Test der RTX 5070 stark eingeschränkt. Zu allem Übel kam noch ein Krankheitsfall in der Redaktion hinzu, sodass zum Testen lediglich ein Tag Zeit blieb. Der Umfang des Tests ist daher zum Fall des NDAs ein wenig reduziert. Weitere Benchmarks und Analysen, etwa zur Leistung bei hoher Raytracing- oder Pathtracing-Last oder mit MFG, werden im Laufe der nächsten Wochen nachgereicht.
 
  • Gefällt mir
Reaktionen: Vitche
Quidproquo77 schrieb:
An meinem 4K Samsung Odyssey nutze ich fast permanent DLSS Ultra Performance, aber mindestens Performance. Zu Balanced, Quality oder DLAA sehe ich kaum mehr Unterschiede.
Stelle ich bei Monster Hunter Wild auf meinem 4K Oled TV von DLSS Quality auf Performance kommt mir sofort die Galle hoch. Gar nicht mal sooooo sehr bei Standbildern. Klar, auch da sieht man einen Unteschied, im bewegten Bild allerdings sieht es echt grausam aus.
 
  • Gefällt mir
Reaktionen: Celinna und Otsy
Zurück
Oben