News Blender-Benchmark-Leak: GeForce RTX 5090 schlägt Mittelwert aller 4090 um 36 Prozent

ICHBINDA schrieb:
Für KI-Anwendungen ist die RTX 5090 durch den zusätzlichen VRAM um ein Vielfaches leistungsfähiger als die 4090.
Also erst einmal, es sind nur 33% mehr, also in etwa wie 6 auf 8Gb oder 12 auf 16Gb, also nicht soo viel mehr.

Wenn in einem Spiel bei einer bestimmten Auflösung der VRAM nicht mehr reicht wird "geswapt", was massiv die Framerate absenkt, das ist bekannt.

Läuft denn bei Ki Berechnungen ebenfalls alles in dem immer noch winzigen paar GB VRAM/RAM so dass es zu ähnlichen Effekten kommt? Wieviel VRAM nutzen denn dann die NVidia KI Karten?

Hätte gedacht, die zugrundeliegenden Daten sind sowieso TB groß, so dass es sowieso nicht auf die paar GB Cache ankommt.
 
Quidproquo77 schrieb:
Nativ sieht um Längen schlechter aus und kosten das doppelte an Leistung.
ich verlasse mich auf keine videos mehr. auf meinem rechner sieht nativ besser aus als dlss. das ist mir zu unscharf und weichgezeichnet.
 
  • Gefällt mir
Reaktionen: Azeron
Die Diskussion um die Schärfe bgzl. DLSS kann man sich eigentlich sparen, hängt einfach vom Spiel ab, wenn es so implementiert wurde wie es von Nvidia vorgesehen wurde ist DLSS der perfekte Ersatz für Anti-Aliasing, da kann zumindest TAA nicht mithalten.^^

Und man kann auch oft mit dem Nvidia-Inspector selbst nachhelfen, bei mindestens zwei der letzten Spiele, die ich gespielt habe bzw. eines immer noch, konnte ich dadurch das Nachschärfen auf "0" stellen.^^
 
  • Gefällt mir
Reaktionen: Kommando
wern001 schrieb:
Die Latenz von deiner Internetverbinung ist glaub wichtiger als die FPS Steigerung von 60 auf 120 fps

Fake frames sind nur blendwerk um hohe FPS zu erreichen. Damit werden schnelle Shooter nicht besser spielbar.
Hohe FPS mit FakeFrames sehen in Benchmark besser aus, sagen aber nichts über die spielbarkeit.
Die Latenz der Internetverbindung kommt noch obendrauf und ist ja am selben Anschluss eh eine unveränderte Konstante (hier ging es aber eh um Single-Player, oder?). Mit dem Fake Frames hast du aber recht.
Wenn es eine echte FPS-Verdopplung (oder mehr) ist – also keine Fake-Frames – dann merkt man das durchaus. Einen kompetitiven Shooter will ich eigentlich auch nicht unter 200 FPS spielen, du kriegst ja zwingend ein aktuelleres "Update" des tatsächlichen Geschehens (von Netcode-Details mal abgesehen). Hohe-FPS geben dir somit einfach merkliche Vorteile – das ist seit Quake-3/CS-Zeiten eigentlich bis heute unverändert. Ein Shooter muss da einfach "funktionieren" nicht zwingend schön aussehen.

Für Singleplayer braucht es dann nicht sooo viele FPS, aber dennoch merkt jeder erfahrene Shooterspieler eigentlich sofort, wenn da nur zweistellige FPS im Game anliegen – ganz egal, was Nvidia da für Blendwerk drüber wirft.
 
War Farcry 6 nicht nur knapp 25% Mehrleistung. Rohleistung war meine ich 27% mehr?
Man darf auch nicht vergessen, dass das Verbrauchslimit eine Rolle spielen kann, dass die 5090 vielleicht ein paar Prozente weniger aus den Einheiten herausholt.
Nichtsdestotrotz wird die 5090 die einzige Karte der 5er Gen sein, die kaufbar sein wird, wenn man das Geld hat.
Die anderen sind quasi nichts mehr als eine Umbenennung der alten Garde, wo man quasi nur für das DLSS4 Feature zahlen soll.
Man darf aber nicht vergessen, dass gerade Frame Generation das Problem aller Karten ist und nach Möglichkeit nicht genutzt werden sollte, um die Spielerfahrung nicht noch weiter unnötig zu verschlechtern.
Denn es gilt: je mehr Zwischenbilder eingefügt werden, desto glatter erscheint das Bild optisch, desto größer wird jedoch der Inputlag am Eingabegerät, also der Maus.
Gefühlt wird das Spiel also immer schlechter und unspielbarer, und weil es ein Paradoxon zur Darstellung auf dem Monitor ist, nimmt man das als besonders unangenehm war.
Vor allem im CPU Limit, wo Nvidia Reflex & Co. unbrauchbar ist.
Das wurde ja schon im Blindtest mit nur einem Zwischenbild sehr oft erkannt, dass Upskaling mit Frame Generation aktiv ist.
Einfach mal mit der Maus ruckeln, ob es nachzieht.
Vor allem Rennspiele reagieren empfindlich, wenn man 30 gegen 60FPS stellt.
Wenn jetzt Leute auf die Idee kommen und mit Frame Generation daraus 100FPS machen, sieht man eine superschöne Welt, weil der Bildschirm glatte Bilraten anzeigt, aber das Ungetüm auf dem Monitor ist trotzdem bockig wie ein Esel.
Man kann natürlich darüber streiten, welches Szenario welchem noch schlimmer erscheint.
Ich könnte mir aber vorstellen, dass man noch mehr Frust mit der Maus hat, weil es jetzt nicht mehr im Einklang mit dem Bild ist.
Man fährt also supersmooth durch die Innenstadt eines Cyberpunk, donnert aber ständig überall irgendwo gegen, weil es so ein geeiere ist.
AMD hat nicht umsonst gesagt, man sollte möglichst mindestens 50-60FPS nativ mitbringen, damit man das überhaupt aktivieren sollte.
Nicht nur wegen den möglichen Fehldarstellungen.
DLSS 4 wird aber dieses nun noch mehr aushebeln, weil jede Flitzpiepe an Einsteigerkarte damit befeuert wird, um die Bildrate von 60 zu erzielen (ich vermeide hier die Angabe von FPS, weil es keine FPS sind ^^).
 
Zuletzt bearbeitet:
MrHugelberg schrieb:
Super, 30% mehr Leistung, bei 28% mehr Strom.
Die verkaufen uns (mal wieder) dieselbe Karte 🤡

Ja, tun sie - die Features sind DDR7 (wo ich noch nicht abschätzen kann was das bringt) und eben das DLSS4-Paket - ansonsten sind es SUPER-Karten der 4000er gen (aber eben auch Preislich, wodurch das ganze kein Scam ist und es dennoch Sinn macht die neuen GPUs zu bevorzugen)

Am Ende muss sich halt zeigen was das DLSS Paket wert ist (wenn AMD bei seiner bisherigen Hauptschwachstelle aufgeholt hat, hängt es im Grunde daran was sich dort am ende durchsetzt 5070TI oder 9070XT - die AMD-Karte könnte eine Preisklasse niedriger ausfallen frage ist halt ob das AI-Paket perspektivisch eine Leistungsklasse höher performt - beides ist abzuwarten...
 
Gullveig schrieb:
Oh mein Gott! Wie hinterhältig von Blender! Wer kann denn auch ahnen, dass sich hinter "submit result" ( auf Deutsch: Ergebnis übermitteln) eine Funktion versteckt, die dann das Ergebnis übermittelt!

Die Menschheit wird immer dümmer...
Jedenfalls impliziert übermitteln nicht automatisch veröffentlichen. Deshalb sind es 2 verschiedene Worte.
 
Und beide Worte sind gleich schlecht, wenn man noch geheime Grafikkarten damit testet.
 
Darkwater schrieb:
Ja, tun sie - die Features sind DDR7 (wo ich noch nicht abschätzen kann was das bringt) und eben das DLSS4-Paket - ansonsten sind es SUPER-Karten der 4000er gen (aber eben auch Preislich, wodurch das ganze kein Scam ist und es dennoch Sinn macht die neuen GPUs zu bevorzugen)
Gilt ja nur für die "normalen" Karten bis x80. Bei der 5090 wird ordentlich aufgeschlagen. Ich hoffe weiterhin, dass nVIDIA mal endlich mit ihrer Preispolitik auf die Schnauze fällt, aber wir sind mittlerweile bei 2500€ angekommen und es ist immer noch nicht der Fall.

Als ich vor Jahren mal die Prognose gewagt habe, dass eine x60 Karte bald 1000€ kosten wird, wurde mir der Vogel gezeigt. Soweit sind wir dank Stagnation in diesem Bereich nicht direkt, ausser nVIDIA würde uns nicht eine eigentliche 5070 als 5080 verkaufen (und somit ist die 5070 eigentlich eine 5060 und zack, haben wir fast die 1000€ für eine x60er Karte, das aber nur nebenbei...).
 
AnkH schrieb:
Als ich vor Jahren mal die Prognose gewagt habe, dass eine x60 Karte bald 1000€ kosten wird, wurde mir der Vogel gezeigt.
Den zeigt man dir auch heute noch.
AnkH schrieb:
Soweit sind wir dank Stagnation in diesem Bereich nicht direkt, ausser nVIDIA würde uns nicht eine eigentliche 5070 als 5080 verkaufen (und somit ist die 5070 eigentlich eine 5060 und zack, haben wir fast die 1000€ für eine x60er Karte, das aber nur nebenbei...).
Eine 60er ist nun mal das, was Nvidia als 60er verkauft, und nicht das, was einige sich als 60er wünschen. Und die 649 Euro der 5070 sind auch keine 1000 Euro, nicht mal annähernd.

Es gab auch Leute, die wollten eine 5090 unbedingt bei 3500 oder 4000 Euro sehen - genau dieselbe Sorte Spinnerei.
 
Wenn man die ALUs der beiden 90er durcheinander teilt, kommt man bei knapp 32% an. Rechne das seit Jahren so, sofern die Shader eine ähnliche Leistung haben. Trotzdem etwas verwunderlich in Hinblick auf die restliche Ausstattung, dass die Mehrleistung anders ausfällt. Immerhin hat die Karte DDR7 Speicher und knapp 1800GB/s Ramdurchsatz - alleine hier hätte ich an ein Leistungsplus von weiteren 10% gedacht. Bzw. die Mehrleistung steckt ja schon in den Benchmarks., etwas verwunderlich. Aber mal sehen wie das mit dem OC des RAM wird, aber auch das OC der GPU durch den niedrigeren Basistakt, denn da ist noch einiges an Luft bis zu den 3K
 
Zuletzt bearbeitet:
Woody17 schrieb:
Läuft denn bei Ki Berechnungen ebenfalls alles in dem immer noch winzigen paar GB VRAM/RAM so dass es zu ähnlichen Effekten kommt? Wieviel VRAM nutzen denn dann die NVidia KI Karten?

Hätte gedacht, die zugrundeliegenden Daten sind sowieso TB groß, so dass es sowieso nicht auf die paar GB Cache ankommt.
Den Trainingsdatensatz streamst du natürlich von der Platte/Systemspeicher(bei kleineren Datensätzen)/NAS oder Web(bei besonders großen Datensätzen). Aber in den VRAM müssen das Modell und der aktuell zu prozessierende "batch" an Daten. Hast du mehr VRAM kann dein Modell größer (und damit leistungsfähiger) sein und/oder deine Batch-Size größer werden. Eine größere Batch-Size heißt typischerweise schnelleres und stabileres Training, da es sehr wenig kostet die Matrix Operationen in der einen Dimension noch häufiger zu machen. Also doppelte Batch size kommt nahe an doppelte Trainingsperformance ran. Damit ist VRAM in AI Anwendungen sehr wichtig und man kann eigentlich nie genug haben, siehe auch die kommenden Blackwell Ultra Chips.
 
  • Gefällt mir
Reaktionen: Woody17
Erste Geekbench Tests von der 5090 sind geleaked, der erste ging am 17.01. online, inzwischen gibt es ein paar mehr .

Techspot schreibt heute: "early benchmarks show underwhelming performance uplift over the RTX 4090".

Ich habe in Geekbench in älteren GB-Versionen zwei vergleichbare Scores mit 4090 und gleicher CPU gefunden, allerdings gibt es leichte Unterschiede in den Ram-specs und natürlich sind die Scores auch viel älter (Anfang 2023), daher sicher weitere Unterschiede im Windows/Treiber usw. Trotzdem interessant imho:

OpenCL Scores:


  • RTX 5090: 12900K, Z690, 64GB DDR4 3.600: 367740
  • RTX 4090: 12900K, Z690, 32GB DDR4 3.200: 326086
  • RTX 4090: 12900K, Z690, 32GB DDR5 6.400: 332618
Wenn das stimmt (!) sieht das nicht mehr nach der vermuteten 36% Mehrleistung aus, zumindest nicht in Geekbench bzw. nicht mit einem 12900k oder vergleichbarer CPU. Im Gegenteil, unter Berücksichtigung des höheren Preises und des höheren Verbrauchs der 5090 ziemlich enttäuschend.

Ich weiss allerdings auch nicht, zu welchem Anteil die CPU und der RAM die 5090 ausbremsen (das ist ganz sicher der Fall). Mit einer Top-CPU und System würde das besser aussehen (allerdings glaube ich persönlich nicht, dass dann irgendwie 36% durchschnittliche Mehrleistung nach diesen Ergebnissen (wie gesagt, wenn sie stimmen) erreicht werden - so abgrundtief ausbremsend ist ein 12900k auch wieder nicht).

Ich hoffe immer noch, dass es nicht so ernüchternd wird und es einen sinnvollen Updatepfad für 4090-Besitzer gibt.
 
Zuletzt bearbeitet:
Also sozusagen 2 Jahre RTX 4090 + 2 Jahre Stillstand bis zur 6090...
 
slowmichael schrieb:
Das würd ich ja zu gern unterschreiben wenn es nicht in meiner Verfolgeransicht ein, für mich unerträgliches :rolleyes:, Ghosting hinter der Karre erzeugen täte, wo mir der rote Lack in Scheiben von der Karre wegfliegt.
Hast du das wirklich nicht ?
Habe eben mal DLAA aktiviert und bin die Südstrecke von Virgina in meinen gewohnten 4K@120hz gefahren und ständig sehe ich entweder rechts oder links hinter der Karre diese roten Fetzen wegfliegen, die es mit TAA nicht gibt.
Doch das habe ich auch, aber das finde ich beträchtlich weniger schlimm, als die schlechte Auflösung wenn DLSS noch nicht fertig berechnet hat.

Und bei TAA hab ich mir mal eben die Mühe gemacht das Problem in einem Spiel zu suchen, was es herausragend darstellt:

p2.jpg
p2-2.jpg



DLSS liefert identisch ab, solange das Bild nicht statisch ist und DLSS keine 300-500 millisekunden Zeit zum berechnen hatte.
Das ist am Ende auch nichts weiter, als Engine.ini Tweaks um die Kantenglättung zu verbessern weil out of the Box ist es halt Müll und das in jedem Spiel

Hier schau dir mal das Nummernschild an bzw. den Schatten darunter oder die Texturen der verschneiten Straße...

p3.jpg

p3-3.jpg


Deswegen hasse ich TAA und DLSS, beide sind grauenhaft in meinen Augen wenn es um Bildschärfe geht.
Die Rücklichter auch... als würde man zwischen Playstation 3 und Playstation 5 umschalten.

Tatsächlich ist die Bildschärfe out of the Box genauso schäbig, wie meine Sehkraft ohne Brille (60-70% vs 125/125%). Katastrophal empfinde ich das.
 
Woody17 schrieb:
Also erst einmal, es sind nur 33% mehr, also in etwa wie 6 auf 8Gb oder 12 auf 16Gb, also nicht soo viel mehr.

Wenn in einem Spiel bei einer bestimmten Auflösung der VRAM nicht mehr reicht wird "geswapt", was massiv die Framerate absenkt, das ist bekannt.

Läuft denn bei Ki Berechnungen ebenfalls alles in dem immer noch winzigen paar GB VRAM/RAM so dass es zu ähnlichen Effekten kommt? Wieviel VRAM nutzen denn dann die NVidia KI Karten?

Hätte gedacht, die zugrundeliegenden Daten sind sowieso TB groß, so dass es sowieso nicht auf die paar GB Cache ankommt.
klar so kannst du ein 30GB KI Modell in den VRAM laden vorher ging nur ein 23GB KI Modell des ist ein unterschied. ;)

33% sind es nur weil der Kühler das Limit ist. Eine Partnerkarte mit Höheren Taktraten auf dem VRAM erreicht 45%-50% mehr und unter Wasser noch mehr. und 50% sind wellten bei Grafikarten. ;)
 
slowmichael schrieb:
und ständig sehe ich entweder rechts oder links hinter der Karre diese roten Fetzen wegfliegen, die es mit TAA nicht gibt
Hab seit heute DLLS4 in Forza Motorsport und im Flight Simulator 2023 aktiviert (auf RTX4080) und dieses Ghosting gibt es jetzt tatsächlich nicht mehr :daumen:
Ergänzung ()

eax1990 schrieb:
Deswegen hasse ich TAA und DLSS,
Ja, aber ohne bringt mich das Flimmern um :kotz:
 
Zurück
Oben