Ja, ich dachte beim Eintragen auch erst, dass ich die Logs durcheinander gebracht habe, das hat aber so seine Richtigkeit. Die Erklärung steht auch direkt nach der Tabelle im Text:SweetOhm schrieb:und sind es dann mit aktiviertem RT wirklich über 70 Watt weniger ?!?
Aufmerksamen Lesern mag aber bereits aufgefallen sein, dass die Leistungsaufnahme der GeForce RTX 5070 beim Einschalten von Hardware-Raytracing durchweg und insbesondere sehr deutlich fällt. Im besagten Beispiel von Spider-Man 2 sind es ganze 74 Watt weniger und auch bei Dragon Age: The Vailguard ist die Differenz ungewöhnlich groß, will heißen größer als bei den drei stärkeren Blackwell-Grafikkarten.
Offenbar ist es in diesen Fällen so, dass die GeForce RTX 5070 ihre Recheneinheiten nicht mehr voll auslasten kann. Mutmaßlich, weil die 12 GB Speicher zu einem Flaschenhals werden, wie bereits die Benchmark-Ergebnisse gezeigt haben. Die Grafikkarte hat zwar noch GPU-Kapazitäten frei und würde sie gerne nutzen, kann die für die Grafikberechnungen nötigen Daten aber im zu knappen VRAM nicht vorhalten. In der Konsequenz müssen die Daten zeitaufwändig aus dem System-RAM nachgeladen werden, was immer wieder zu Latenzen führt, die der GPU-Scheduler nicht überdecken kann. Damit kommt es verstärkt zum Leerlauf einzelner SMs – und einem unbeabsichtigten Rückgang beim Energieverbrauch.
Quatsch, natürlich werden wir die testen, aber eben mit Standardfall WQHD. Full HD wird es dann höchstens noch als Sondertest geben, mit reduziertem Umfang und weniger Grafikkarten. Das mag sich hart anhören, aber eine Grafikkarte, die 2025 kein WQHD schafft, solle es als neuen Release (!) gar nicht mehr geben. Wie gesagt, die Auflösung ist aus unserer Perspektive beim Thema Upgrade tot.lynx007 schrieb:Heist das ihr teste die 5060/9060 nicht, weil das nicht mehr eure Zielgruppe ist?![]()
![]()
Nein, so viele sind es auch mit der 4090 nicht, da kamen wir bei den Sonntagsfragen auf "nur" 12 Prozent (was immer noch absurd viel ist imho). Tatsache ist aber auch, dass bei der letzten jährlichen Hard- und Softwareumfrage in der Community inzwischen 89 Prozent der Teilnehmer bei ihrem primären Desktop-Bildschirm auf eine höhere Auflösung als Full HD setzen. Und tatsächlich schreiben wir (seit jeher) in erster Linie für unsere Community und nicht Google-User. Ist wirtschaftlich vielleicht nicht immer das klügste, das ist aber unser Aushängeschild und das finden wir auch selbst gut so.lynx007 schrieb:Du kannst doch nicht auf 90% der Leser verzichten. Du glaubst doch nicht wirklich das alle in wirklcihkeit mit ner 5090 hier rumdüsen oder?
Diese Umfrage jedenfalls ist eine Bestandsaufnahme. Wir sagen nicht, dass man auf Full HD unter gar keinen Umständen mehr spielen kann. Die Aussage ist (zunächst einmal) nur, dass man nicht mehr mit Ziel Full HD aufrüsten sollte, weil das unserer Meinung nach keinen Sinn mehr ergibt. Wer einen Full-HD-Monitor nutzt und Aufrüsten will, sollte da zuerst anpacken und erst danach über eine neue Grafikkarte nachdenken.
Aus persönlicher Perspektive kann ich ergänzen, dass ich schon 2015, also vor inzwischen zehn Jahren, mit meinem primären Bildschirm zu UHD gewechselt bin, damals mit der R9 Fury. Die steckt heute jedes Budget-Modell im Notebook in die Tasche. Und spätestens mit Upsampling ist das auch in aktuellen Spielen kein Problem mehr, wie gesagt. Mir persönlich ist es gar unbegreiflich, wie man 2025 noch immer an Full HD festhalten kann. ^^