Test Nvidia GeForce RTX 5070 im Test: Stillstand mit MFG bei bestenfalls 649 Euro

SweetOhm schrieb:
und sind es dann mit aktiviertem RT wirklich über 70 Watt weniger ?!?
Ja, ich dachte beim Eintragen auch erst, dass ich die Logs durcheinander gebracht habe, das hat aber so seine Richtigkeit. Die Erklärung steht auch direkt nach der Tabelle im Text:
Aufmerksamen Lesern mag aber bereits aufgefallen sein, dass die Leistungsaufnahme der GeForce RTX 5070 beim Einschalten von Hardware-Raytracing durchweg und insbesondere sehr deutlich fällt. Im besagten Beispiel von Spider-Man 2 sind es ganze 74 Watt weniger und auch bei Dragon Age: The Vailguard ist die Differenz ungewöhnlich groß, will heißen größer als bei den drei stärkeren Blackwell-Grafikkarten.

Offenbar ist es in diesen Fällen so, dass die GeForce RTX 5070 ihre Recheneinheiten nicht mehr voll auslasten kann. Mutmaßlich, weil die 12 GB Speicher zu einem Flaschenhals werden, wie bereits die Benchmark-Ergebnisse gezeigt haben. Die Grafikkarte hat zwar noch GPU-Kapazitäten frei und würde sie gerne nutzen, kann die für die Grafikberechnungen nötigen Daten aber im zu knappen VRAM nicht vorhalten. In der Konsequenz müssen die Daten zeitaufwändig aus dem System-RAM nachgeladen werden, was immer wieder zu Latenzen führt, die der GPU-Scheduler nicht überdecken kann. Damit kommt es verstärkt zum Leerlauf einzelner SMs – und einem unbeabsichtigten Rückgang beim Energieverbrauch.

lynx007 schrieb:
Heist das ihr teste die 5060/9060 nicht, weil das nicht mehr eure Zielgruppe ist? :D ;)
Quatsch, natürlich werden wir die testen, aber eben mit Standardfall WQHD. Full HD wird es dann höchstens noch als Sondertest geben, mit reduziertem Umfang und weniger Grafikkarten. Das mag sich hart anhören, aber eine Grafikkarte, die 2025 kein WQHD schafft, solle es als neuen Release (!) gar nicht mehr geben. Wie gesagt, die Auflösung ist aus unserer Perspektive beim Thema Upgrade tot.

lynx007 schrieb:
Du kannst doch nicht auf 90% der Leser verzichten. Du glaubst doch nicht wirklich das alle in wirklcihkeit mit ner 5090 hier rumdüsen oder?
Nein, so viele sind es auch mit der 4090 nicht, da kamen wir bei den Sonntagsfragen auf "nur" 12 Prozent (was immer noch absurd viel ist imho). Tatsache ist aber auch, dass bei der letzten jährlichen Hard- und Softwareumfrage in der Community inzwischen 89 Prozent der Teilnehmer bei ihrem primären Desktop-Bildschirm auf eine höhere Auflösung als Full HD setzen. Und tatsächlich schreiben wir (seit jeher) in erster Linie für unsere Community und nicht Google-User. Ist wirtschaftlich vielleicht nicht immer das klügste, das ist aber unser Aushängeschild und das finden wir auch selbst gut so.

Diese Umfrage jedenfalls ist eine Bestandsaufnahme. Wir sagen nicht, dass man auf Full HD unter gar keinen Umständen mehr spielen kann. Die Aussage ist (zunächst einmal) nur, dass man nicht mehr mit Ziel Full HD aufrüsten sollte, weil das unserer Meinung nach keinen Sinn mehr ergibt. Wer einen Full-HD-Monitor nutzt und Aufrüsten will, sollte da zuerst anpacken und erst danach über eine neue Grafikkarte nachdenken.

Aus persönlicher Perspektive kann ich ergänzen, dass ich schon 2015, also vor inzwischen zehn Jahren, mit meinem primären Bildschirm zu UHD gewechselt bin, damals mit der R9 Fury. Die steckt heute jedes Budget-Modell im Notebook in die Tasche. Und spätestens mit Upsampling ist das auch in aktuellen Spielen kein Problem mehr, wie gesagt. Mir persönlich ist es gar unbegreiflich, wie man 2025 noch immer an Full HD festhalten kann. ^^
 
  • Gefällt mir
Reaktionen: Jagdwurst, Blackland, evilhunter und 4 andere
Vitche schrieb:
Wir haben eine Zeit erreicht, wo es keinen Sinn mehr ergibt, für einen Full-HD-Bildschirm überhaupt noch eine neue Grafikkarte zu kaufen, da sollte der Bildschirm schlicht und ergreifend zuerst aktualisiert werden, am besten gleich zu UHD.

Kann ich so nur unterschreiben, lieber 4K und dann je nach verwendeter GPU das Upscaling auf Quality-Performance stellen.
Mich wundert ehrlich gesagt, warum sich das selbst in einem Technikforum noch nicht komplett durchgesetzt hat, wobei nvidia mit ihrer VRAM-Politik natürlich auch einen Teil beiträgt.
 
  • Gefällt mir
Reaktionen: Pisaro, zhompster und Vitche
Vitche schrieb:
Wer einen Full-HD-Monitor nutzt und Aufrüsten will, sollte da zuerst anpacken und erst danach über eine neue Grafikkarte nachdenken.

Und wenn derjenige hauptsächlich CS, Overwatch etc. mit 1080p/360 Hz spielen will, und nur nebenbei ein paar AAA-Games ?
 
1024 schrieb:
Warum testet man nicht auch mit MFG?

Weil MFG oder auch normales FG nutzlos ist, wenn die Basis-Framerate nicht mindestens bei 60-70fps liegt.

Außerdem sollten so Techniken absolut nicht genutzt werden, wenn es darum geht, die Karten direkt miteinander zu vergleichen.
 
  • Gefällt mir
Reaktionen: Jagdwurst, SweetOhm, Myon und 6 andere
Vitche schrieb:
Quatsch, natürlich werden wir die testen, aber eben mit Standardfall WQHD. Full HD wird es dann höchstens noch als Sondertest geben, mit reduziertem Umfang und weniger Grafikkarten. Das mag sich hart anhören, aber eine Grafikkarte, die 2025 kein WQHD schafft, solle es als neuen Release (!) gar nicht mehr geben. Wie gesagt, die Auflösung ist aus unserer Perspektive beim Thema Upgrade tot.

Full HD hat imho schon noch ein wenig Relevanz, weil man über die Ergebnisse die Performance von Quality Upscaling (WQHD) und Performance Upscaling (4K) grob abschätzen kann.

JMP $FCE2 schrieb:
Und wenn derjenige hauptsächlich CS, Overwatch etc. mit 1080p/360 Hz spielen will, und nur nebenbei ein paar AAA-Games ?

https://www.computerbase.de/news/mo...ode-bei-lcd-und-ein-glossy-oled-modell.88215/

Edit: Muss natürlich nicht von Asus sein, war aber das erste Suchergebnis ;)
 
Blackwell ist und bleibt die mit Abstand schlechteste neue Generation, nicht nur Leistung meh sondern auch die Treiber sind diesmal fehlerhaft.
 
  • Gefällt mir
Reaktionen: eXe777, SweetOhm, Myon und eine weitere Person
JMP $FCE2 schrieb:
Und wenn derjenige hauptsächlich CS, Overwatch etc. mit 1080p/360 Hz spielen will, und nur nebenbei ein paar AAA-Games ?
Ja, man kann sich immer E-Sports-Szenarien konstruieren, die all solche Überlegungen mit ganz anderen Zielsetzungen über den Haufen werfen. Das wird aber in der Praxis auf die wenigsten Nutzer zutreffen, zumal es ja ebenso unterstellt, dass man den PC / den Bildschirm nur und ausschließlich zum Spielen (dieser Art Spiele) verwendet. In der Praxis dürfte da bei den meisten noch Lesen, Schreiben, Videos schauen (YouTube, Netflix, you name it) oder vielleicht sogar Programmieren dazu kommen. Und spätestens da erschlagen UHD-Bildschirme die Full-HD-Gurken in einer Deutlichkeit, die man als Performance-Uplift mit einer Grafikkarte selbst beim Wechsel GT 1030 -> RTX 5090 vergeblich sucht.

Falls es dann aber doch primär das E-Sports-Szenario sein soll: Das geht inzwischen auch problemlos zumindest in WQHD, oder man kauft halt einen der neuen Dual-Mode-Bildschirme, wo mann dann beispielsweise zwischen UHD/244 und FHD/480 wechseln kann.

Noch einmal: Wir wollen niemanden und keinen Lesern mit speziellen Gaming-Anforderungen untersagen, mit einem Full-HD-Monitor Spaß zu haben. Und wer unbedingt nur mehr FPS in Full HD haben soll, wer sich da bereits festgelegt hat und genau weiß, was er will und dass er nur das will; okay, go for it. Empfehlen werden wir das der breiten Masse unserer Leser aber nicht mehr.
 
  • Gefällt mir
Reaktionen: Jagdwurst und ApeZilla
Ich gehe an sowas zwar immer ohne irgendwelche Erwartungen heran, aber insgesamt war jede 50er Karte bis jetzt sehr ernüchternd.

Kommen die Tests der RX 9070 XT und RX 9070 am 05.03. oder 06.03.? :)
 
Ich find's klasse! Kann ich ganz getrost meine 4070 Super behalten.
 
  • Gefällt mir
Reaktionen: Jagdwurst, ~Executer~ und Vitche
Ich würde mir aber ja in Tests von 8GB-GPUs für 2025 auch diese eindeutige Ansage wünschen: Die sind nämlich wirklich Gurke und außer im absoluten Low End für Low-End-Preise nicht zu verteidigen. Und das auch im nach wie vor genutzten FHD. :D Und für genau diese Auflösungen werden so einige bisherige Karten noch offiziell vermarktet. Was halt passiert bei einer halben Dekade Stillstand.

Ob RTX 5060 / RX 9060 hier deutlich nachlegen, muss sich erst zeigen... So oder so werden sowohl Nvidia als auch AMD wenigstens eines ihrer Produkte ziemlich sicher wieder spezifisch als "FHD-ready" vermarkten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
SKu schrieb:
Ist das so? Ich habe vor ein paar Tagen mal mit dem DLSS Swapper die neuste Version, die verfügbar war, in Satisfactory getestet. Ich sah dort keinen gravierenden Unterschied bei den Items auf den Förderbändern. Das Ghosting war immer noch präsent.

mit preset K? ich denke bei dir war nur J aktiv, weil K muss man erzwingen per nvidiainspector oder über die nvidia app

alleine die Schärfe in der Bewegung sind Welten dazwischen

Edit: und wie einer schrieb das spiel ghostet auch ohne DLSS, ist also ein Spiel Problem. Lieber nen anderes testen

oder das Video schauen ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und Pisaro
Vitche schrieb:
Falls es dann aber doch primär das E-Sports-Szenario sein soll: Das geht inzwischen auch problemlos zumindest in WQHD, oder man kauft halt einen der neuen Dual-Mode-Bildschirme, wo mann dann beispielsweise zwischen UHD/244 und FHD/480 wechseln kann.

Der bringt nur leider denen nichts, die sich nur einen 200€-Monitor und eine RTX 4060 leisten können. Wie z.B. Schülern. Bei <50 fps Durchschnitt in AAA-Games hört bei mir der Spaß auf, da würde ich bei begrenztem Grafikkartenbudget eher wieder auf FHD gehen.

Vitche schrieb:
In der Praxis dürfte da bei den meisten noch Lesen, Schreiben, Videos schauen (YouTube, Netflix, you name it) oder vielleicht sogar Programmieren dazu kommen. Und spätestens da erschlagen UHD-Bildschirme die Full-HD-Gurken in einer Deutlichkeit, die man als Performance-Uplift mit einer Grafikkarte selbst beim Wechsel GT 1030 -> RTX 5090 vergeblich sucht.

Auch nur eine Meinung. Ich fand die Schrift auf dem FHD-Monitor angenehmer, als auf dem WQHD-Nachfolger, weil der Windows-Zwangsfont auf 27" WQHD mir bei 100% Skalierung zu klein ist, und bei 125% 💩 aussieht.

Und bei Videos hat man nur etwas von UHD, wenn man die Wucherpreise für entsprechende Streamingabos oder Disks bezahlen will. Das will ich nicht, und nutze deshalb immer noch einen FHD-Beamer.
 
Ich wollte mich nicht über Darkwarter belustigen, ich fand es allgemein einfach nur witzig. :)
 
Dachte ich jetzt auch nicht.

Die RX 9070 wird wohl witzigerweise zu der interessantesten Karte dieses jahr, wo viele schrieben das sie ein Flop wird
 
Zuletzt bearbeitet:
Nvidia und der ärmliche VRAM ist mittlerweile DER Runninggag wie die jämmerlichen 60 Hz Displays von Apple im Jahr 2025 🤣
 
  • Gefällt mir
Reaktionen: eXe777 und ApeZilla
mehr strom reinpumpen, für gleiche performance. toll gemacht nvidia. die fake frames und 12GB kann sich nvidia dorthin schieben wo keine sonne scheint

aber so lange es die leute kaufen wird sich leider nichts ändern!
einzig positive von dieser enttäuschenden gen. meine alte GPU wird länger aktuell bleiben
 
  • Gefällt mir
Reaktionen: Jagdwurst, eXe777, ApeZilla und 3 andere
Zurück
Oben