News Blender-Benchmark-Leak: GeForce RTX 5090 schlägt Mittelwert aller 4090 um 36 Prozent

MasterWinne schrieb:
Also wenig verwunderlich wenn nicht alle Seller beliefert werden. Wer also keine aus dem ersten Schub abbekommt, sollte sich schnellstmöglich auf die Vorgänger einschießen.
Ich persönlich mache mir da absolut garkeinen Stress.
Die neue Generation scheint ihre Mehrleistung ja primär softwareseitig zu bieten und bis DLSS 4 mit MFG in die meisten Titel integriert ist, dort sauber optimiert läuft und allgemein die Treiber Optimierungen für einen Großteil der Games mit der neuen Gen durch sind, wird wohl auch noch ein wenig Zeit vergehen. (Wenn man bedenkt, dass das Bios der RTX 5080 laut Gerüchten wohl durch "Komplikationen" erst im Dezember fertig wurde, liegt der Gedanke nicht fern, dass da noch einiges an Optimierungen nach Release nachgereicht wird...)
Mutmaßlich schlechte Verfügbarkeit und entsprechende Scalperpreise verderben mir endgültig die Lust, da direkt zu Release zuzuschlagen.

Mein Backlog an Games die ich dieses Jahr noch spielen möchte, ist noch mehr als ausreichend mit weniger anspruchsvollen Spielen gefüllt, die noch prima mit der RTX 3070 laufen.
Mal schauen wie es in ein paar Monaten aussieht, wenn der ganze Release Zirkus vorbei ist.
Wobei ab es mir ab Mitte Mai / Anfang Juni hier im Büro eh oft zu warm zum zocken wird, da kommt die Zeit des Steamdecks (oder der Switch) auf Balkonien oder dem R36S am Baggersee.
Entsprechend wird es bei mir mit dem Upgrade vermutlich sogar erst Ende August, wenn die Temperaturen wieder angenehmes zocken im kleinen Büro zulassen, dann werde ich mir mal genauer anschauen wie der Markt bis dahin aussieht.
Gute Verfügbarkeit und Preise sollte bis dahin gegeben, eventuelle Montagsmodelle oder frühe Serienfehler durch Revisionen behoben und Bugs oder schlechte Performance durch Patches und Updates weitestgehend behoben und optimiert sein.
 
  • Gefällt mir
Reaktionen: Notting
Lutscher schrieb:
Naja welchen Mehrwert hatten die Titan Karten denn ?
Die waren zB auch in Double Precision Berechnungen nicht so kastriert wie die normalen GTX Karten.
Für Semi-Pro User durchaus attraktiv, weil die Quaddro nochmal deutlich teurer waren.
 
  • Gefällt mir
Reaktionen: PegasusHunter und Hate01
BloodGod schrieb:
Ankündigung sagt 30% mehr Specs, NVIDIA selbst sagt 30% mehr Leistung, erster benchmark leak sagt 30% mehr.

User: Hää, Wtf? Ich nix verstehe.
Das was ich bisher gesehen habe sieht bei realer Spieleleistung bei gleichen Settings eher nach 10-15% aus.
Bereits die 4090 kann ihre Rohleistung bei Spielen oft nicht umsetzen, was bei der 5090 noch deutlicher der Fall sein wird.
Blender ist halt eher ein Spezialfall der Richtung synthetischer Benchmark geht.
Gut für die Leute die damit rendern aber wenig Aussage Kraft für Spieler.
Da ausgenommen MFG alle anderen DLSS Verbesserungen auch für die bisherigen RTX Karten kommen, ist diese Generation wohl die uninteressanteste Generation seit längerem.
 
  • Gefällt mir
Reaktionen: Hate01 und domian
Sas87 schrieb:
Sieht ja gar nicht mal so beeindruckend aus.
So wenig Mehrleistung und dann fast alles über mehr Shader und mehr bzw. schnelleren VRAM realisiert? o_O

Die 5080 wird ja dann diesmal richtig "schlecht".
So magere Mehrleistung und nicht genügend VRAM für die "nahe" Zukunft.

Aber im Grunde ist es gut wenn Nvidia nicht weiter davon zieht.
Fur viele die eine rtx 3000 oder eine ältere Generation haben, wird die rtx 5080 mit all den Features trotzdem sehr interessant...
 
Laphonso schrieb:
Spiele ultramax genießen

ultramax in extralow Auflösung, Ausgegeben in extra fancy 4k und zu sehen bekomnt man ausgedachte Bilder, öfter mal Schlieren und Artefakte und die Maus wird schwammig... in Spielen, die Nvidia wichtig genug waren um sie zum Implementieren der Zaubersprüche zu animieren... in allen anderen Spielen bringen die Rennstreifen dann nichts...

Darauf kann ich auch etwas warten, bis sich die Preise eingefahren haben... 30% bei einer 500€ Karte sind ok, bei der TopKarte erwarte ich mehr als einen seichten Refresh.

Edit:

Ansprüche sind verschieden, deshalb gl & hf !
 
Zuletzt bearbeitet:
BloodGod schrieb:
Nvidia sagt höchstselbst 30% mehr Leistung zur 4090 bei nativer Leistung:
Was ist denn native Leistung? Fällt DLSS darunter?
BloodGod schrieb:
Scheint wohl keiner mitbekommen zu haben wenn ich mir die nichtsahnenden Kommentare hier so angucke 🥳
Vielleicht weil das nicht explizit auf den Slides steht?
 
Berlinrider schrieb:
Na dann nähern wir uns doch langsam meiner Erwartung an (circa 35% +-).

Viel spannender ist doch am Ende die Frage, welche Leistungsaufnahme dafür gefordert wird.
Ehrlich gesagt nicht wirklich, in dem Preisbereich mache ich mir doch keine Sorgen um 100kWh hin oder her pro Jahr :rolleyes: Mit PV-Anlage die sich ganz ohne Grafikkarte in kürzester Zeit amortisiert gleich zweimal nicht …
Bei manchen könnte man meinen die zahlen Ihre Stromrechnung nichts selbst, die Grafikkarte fällt bei dieser in einem modernen Haushalt nämlich überhaupt nicht auf - sofern man nicht arbeitslos ist und 16 Stunden am Tag zockt …
 
Zuletzt bearbeitet:
Was für eine Freakshow diese ganze Diskussion rund um die 5000er! Keiner hat ne Ahnung was wirklich kommt aber jeder meint Ahnung zu haben.
 
  • Gefällt mir
Reaktionen: GameOC, Spit187 und maxi_rodriges
Saniix schrieb:
Bedeutet, von 100 fps auf 130 fps upzugraden oder von 60 auf 78 fps ist 2000€+ wert?
Landet die alte 4090 im Müll bei dem Upgrade? :lol:

Das Upgrade kostet dich nach Abzug des Ebay Verkaufspreises „nur“ 700€ - sprich 43% Aufpreis für 30% mehr Leistung - sofern die 6090 wieder erst in 2 1/2 Jahren kommt sind das unterm Strich tatsächliche Kosten von gerade einmal ~ 2 Dönern im Monat :rolleyes:
 
Krautmaster schrieb:
Das doch genau das was von der Rohrleistung her zu erwarten ist. Surprise?

Ich habe an meinem WC eine 110 Millimeter Rohrleistung (auch als DN 110 bekannt), reicht meistens ;- )
 
  • Gefällt mir
Reaktionen: JJJT, Krautmaster, Teeschlürfer und 5 andere
Postman schrieb:
Interessiert mich eher weniger, da mein Netzteil immer ausreichend ist und der Rest an Strom aus der Steckdose kommt, denn ich auch regelmäßig mit Solar reinhole oder im Winter selbst bezahle.

30% mehr ist ein gewohnter Wert und im 4K Highendbereich schon sehr viel.
Eine Solaranlage hat übrigens mit Strom nichts zu tun. Im Gegenteil brauchen die Pumpen der Solaranlage auch Strom.
Damit machst du deinen Wasserspeicher warm.

Soviel zum Thema mein Strom kommt aus der Steckdose und der ist grün, weil einer es so gesagt hat.
Wenn dunkel ist und es weht kein Wind, so wie jetzt im Winter, beziehen wir den Atomstrom aus dem Ausland, da unsere Gas und Kohlenkraftwerke nicht ausreichend Strom liefern. (Danke an die Politiker).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: goldeye, Postman und PegasusHunter
SavageSkull schrieb:
Das was ich bisher gesehen habe sieht bei realer Spieleleistung bei gleichen Settings eher nach 10-15% aus.
Bereits die 4090 kann ihre Rohleistung bei Spielen oft nicht umsetzen, was bei der 5090 noch deutlicher der Fall sein wird.

Merkte ich auch bereits an, aber zur Präsentation hat NV zuerst mit absurden Leistungswerten dank DLSS4 geworben, statt die Rohleistung zu vergleichen. Nun gut, wenn die Leute auf geliehene Fake-Frames abfahren, die dann mehr oder minder "gestreamt" werden, wirds gruselig. Bin gespannt, wenn es jemanden geling Multi FG auf der RTX4er Serie freizuschalten, wie dann die Vergleiche der Leistung ausschauen. Sicherlich nicht mehr ganz so faszinierend.

Kein Frage, die 5er Serie sind tolle und interessante Karten, aber wenn ich AI lese oder AI Cores, gehen bei mir die Rollläden runter. Man kauft mehr und mehr nur den Service, nicht mehr die Hardware.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Azeron
xxwernixx schrieb:
Keiner hat ne Ahnung was wirklich kommt
1737181853517.png


:D
Ergänzung ()

iron_monkey schrieb:
Ansprüche sind verschieden
In den letzten 6 Jahren habe ich genau "solchen" Zweiflern hier in Gaming Sessions mal selbst überlassen, Raytracing und DLSS zu testen.
Die haben ALLE jetzt eine RTX Karte.

Das Gejammer in den Postings kommt witzigerweise mehrheitlich von denen, die gar keine Nvidia GPU haben oder von außen zuschauen und DLSS3 Titel gar nicht selbst gespielt haben.

Ich habe hier 100% ausnahmeslose WTF Momente bei Cyberpunk als DLSS inkl. Raytracing und Pathtracing Vorezeigetitel für NVidia RTX erlebt, daher grinse ich immer irritiert bei solchen negativen Postings wie Deinen, iron monkey ;)

btw


Und es gibt ja keine Alternative....

AMD bringt Anfang 2025 jetzt nur Ende 2022 Performance und hängt auch technologisch mindestens eine Generation zurück. Da kommt jetzt nur Midrange, und bei den 9070ern hoffen wir alle auf zumindest konkurrenzfähige Preise .

Und weißt, Du, auf was AMD nun setzt? FSR4, also auf alles, was Du scheisse findest.
Die machen Nvidia am Ende dann doch alles nach, eben weil es (insbesondere Upscaling) alternativlos ist

Dann bleibt Dir nur, alle 5-6 Jahre oder alle 3 Generationen halt eine neue GPU zu kaufen, dann hast Du Deine "nativen" Performancezuwächse, das ist ja auch eine Option :-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: goldeye, guillome, legenddiaz und 4 andere
Find ja solche gerüchte News immer lustig obwohl man im Hintergrund schon selbst testet 😁
 
  • Gefällt mir
Reaktionen: goldeye
gustlegga schrieb:
Die waren zB auch in Double Precision Berechnungen nicht so kastriert wie die normalen GTX Karten.
Für Semi-Pro User durchaus attraktiv, weil die Quaddro nochmal deutlich teurer waren.
Für Boinc-Fans ein Traum. Besonders bei Projekten, die auf Double Precision gesetzt haben. :schluck:
 
  • Gefällt mir
Reaktionen: gustlegga
Man sollte erstmal die Test am 24.januar warten. Und es muss ja auch ein neuer Treiber her, für die neue Generation
 
Fyrex schrieb:
Oder kann es sein, dass ich das gleiche Spiel erlebe mit einer deutlich günsteren Grafikkarte?
Du spielst dann sicher nur in HD, wir in 4K, 5K oder 8K - weil unser Monitor das kann und wir sonst nie nativ spielen könnten, wie jemand mit einem billo Monitor ;-)
 
  • Gefällt mir
Reaktionen: Fighter1993
Naja, das Ergebnis passt für mich 1:1 zu dem Mehr an Shadern und schnellerem Speicher wenn man eine Anwendung hat die das 100% ausreizen kann. In Games wird dieses Ergebnis so vermutlich nicht auf dem Teller stehen. Ich würde eine 5090 hier um avg. 20-25% schneller sehen max. (ohne Drölfzigframegen).
 
paganini schrieb:
Wenigstens bekommt man bei Nvidia einen Plus an Leistung. Bei der Konkurrenz wird man voraussichtlich mit einem Minus an Leistung rauskommen ;-)
Ersteinmal den Preis abwarten. Was bringt einem 5070 Käufer das Leistungsplus bei der 5090, wenn das ohnehin ein für ihn uninteressantes Preissegment ist?
 
Ach ... wenn ich doch nur meine Grafikkarte für mein einziges installiertes Game "Unreal Tournament 3" bräuchte ... diese Welt in 4K könnte für mich auch weiterhin eine so günstige Berauschung bleiben ... alles was ich bräuchte, eigentlich ... aber nein, da muss dieses aufwendige Animation-Rendern sein ... dieser Rausch nach der Geschwindigkeit parallel geschalteter GPUs ... grrr
 
Zurück
Oben