Test Nvidia GeForce RTX 3090 im Test: Die größte GeForce für eine kleine Zielgruppe

@Wolfgang
@Jan
@SV3N

Erstmal cool, dass ihr den Puget-Benchmark bzw. die Anwendung in eure Grafikkartentests mit aufgenommen habt. Wie immer am Puls der Zeit. 👍
Kann das sein, dass zwei Werte der RTX 3090 im Diagramm Premiere Pro (PugetBench 0.92 Beta – Details) minimal fehlerhaft sind?

Hier die Werte eures Scores.
Sonst ist ja kein TR 3990X System mit RTX 3090 in der Datenbank, das zudem genau 1188 Punkte hat.
https://www.pugetsystems.com/benchmarks/view.php?id=13174

Im Test:
"4K H.264 150Mbps 8bit (59.94FPS)" nach "Lumetri Color - Export (H.264 40Mbps UHD)" steht in euerem Diagramm: 126,2fps.
In den Raw-Results des Benchmarks werden aber nur: 122,37fps angegeben. 🤔

Das gleiche gilt für "4K RED (59.94FPS) Export".
Da steht ein Score-Wert von: 192,5 in eurem Diagramm den 190,7 in den Raw-Results gegenüber.

Das Ganze erscheint etwas verwirrend, da sonst alle Werte übereinstimmen.
Vielleicht könnt ihr das ja aufklären? 🙂

Weitere Dinge die mir aufgefallen sind:

1. Vielleicht könnt ihr im Diagramm nicht "nur" den Exporttyp benennen, sondern auch was der Ausgangscodec war?
Das ist nämlich nicht unwichtig und hat teilweise deutliche Auswirkungen auf die Werte in der Praxis.
Aktuell steht im Diagramm bspw. zweimal "Lumetri Color - Export (H.264 40Mbps UHD)" mit zwei unterschiedlichen Werten.
Das erscheint mir unübersichtlich.
Ich bin mir nicht sicher, ob jedem Leser klar ist, dass das einmal von "4K H.264 150Mbps 8bit (59.94FPS)" und einmal von "4K ProRes 422 (59.94FPS)" ausgehend ist. 🤔

2. Ihr schreibt, dass euer Diagramm "Bilder pro Sekunde (FPS)" nutzt.
Ist aber nicht ganz korrekt, denn ihr verwendet bspw. bei "4K Heavy GPU Effects (59.94FPS)" sowohl bei "Export" als auch "Live Playback" einen Score-Wert.

3. Es kommt auch zweimal "4K Heavy GPU Effects (59.94FPS) – Playback" als Angabe im Diagramm vor.
Einmal meint ihr den "Live Playback Score" und einmal "Extreme - Live Playback (Full Res)".
Das macht Vergleiche mit eigenen Werten etwas schwieriger, da nicht sofort klar wird, was genau getestet wurde.

4. Vielleicht könnt ihr noch hinschreiben, dass ihr Premiere Pro 14.4.0 genutzt habt, denn die einzelnen Premiere Versionen sind ja nicht immer über alle Effekte/ Codecs gesehen gleich schnell.

5. Ihr habt es in der Einleitung zum Benchmark schon geschrieben, dass mal die GPU und mal die CPU stark gefordert ist, es werden in einigen Tests aber auch nur Teilleistungen von GPU und CPU gefordert.
Das macht den Benchmark leider etwas unscharf.
Bspw. im Test "4K ProRes 422 (59.94FPS)" nach "Lumetri Color - Export (H.264 40Mbps UHD)"
kommt eure Kombination TR3990X + GTX 1080 FE auf: 87,1fps.
Ein wesentlich schwächeres Testsystem hier aus 3700X + GTX 1060 FE liefert hingegen: 97,52fps.
Das eine schwächere CPU + GPU dennoch das bessere Ergebnis liefert, würde man ja zunächst nicht erwarten, wenn der Benchmark entweder CPU- oder GPU-abhängig wäre.
Vielleicht kann man das im Text noch irgendwie klarer herausstellen, dass teilweise IPC/ Takt wichtig ist? 🙂

Update:
Interessant wäre zudem der Hinweis, dass alle "Live Playback Tests" nicht mehr fps liefern können als das Quellmaterial selbst hat (im Test 59,94fps). Das heißt die Mehrleistung einer High-End-Karte ist hier leider häufig verloren, da die GPU sich kaum anstrengen muss.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Burner87 schrieb:
Nvidia hätte die RTX 3080 für 1.199 Euro anbieten sollen

Ja, das ist der einzige Fehler von Nvidia, nach der viel zu billigen 1080Ti wieder etwas zu billig anzubieten.
Man hat 1.5 Jahre lang die Leute konditioniert, dass mindestens 1200 Euro und 11GB nötig sind, damit ein Spiel in 1440p / Ultra Settings ruckelfrei läuft. Das ist absolut unverständlich!

Ich hoffe aber, dass Crytek weiterhin hart daran arbeitet, solche Fehler zu minimieren. Die komplizierte Suche nach ineffiziente Algorithmen ala "Can it run... ?" Settings ist sehr zeitaufwändig. Zum Glück sind die pragmatischen Leute aus der "Far Cry" Zeit nicht an den Schaltern und torpedieren nicht ständig die Rückständigkeit.
 
Das die 3090 vom Preis/Leistung Verhältniss zum zocken zu teuer sein wird, war vorher klar. Und mit 8k gaming zu werben, ist echt ein Witz.
Aber für Leute, die mit 3D SW wie Blender arbeiten, ist die 3090 ein echter Kracher, denn da kann man die 24GB VRAM gut gebrauchen. Die Titan RTX war mir viel zu teuer, aber die 3090 ist dagegen fast ein Schnäppchen - wenn man sie dann mal bekommt ...
 
MeisterOek schrieb:
Ich versteh auch nicht, warum er sowas erwähnt und extra den Test mit seinen 3 Probanten durchführt, aber am Ende keine Empfehlung für Gamer gibt. Hätte er sich dann auch schenken können.

Ich denke, weil der Preis noch immer ausserhalb von normalen gamern liegt. Den den doppelten Preis für "smootheres" Gameplay, muss man sich auch leisten können/wollen.
Ist ähnlich G-Sync vs. Free Sync.
G-Sync ist halt ne Spur besser, kostet aber eben dann auch nen massiven Aufpreis. Manchen ist es das Wert, den meisten nicht. So sehe ich es bei der 3090 auch. Wenn ich das Geld habe, warum soll ich mir nicht eine 3090 gönnen, auch wenn das P/L schlecht ist.
Das ist sowiso meistens nur im mittelberreich oder unten gut.

Mann muss sich immer vor Augen halten, dass das Produkt nur angeboten wird,weil die Nachfrage danach groß genug ist, sodass es sich rentiert. Man wird nicht zu einem Kauf gezwungen.
 
  • Gefällt mir
Reaktionen: MeisterOek
Bin mal gespannt, ob da noch was im Verborgenen liegt.

Die GTX 980 war damals auch deutlich teurer gegenüber der GTX 970 für sehr wenig Mehrleistung. Wir wissen, wie es ausgegangen ist... :evillol:

Naja, ich will mal nichts unterstellen. Evtl. ist auch einfach der zusätzliche VRAM das Killer-Kriterium für die Zukunft und der Preis einer 20GB-3080 steht auch noch in den Sternen.


Und auch wenn der Aufpreis enorm ist für das Leistungsplus. Irgendwelche Leute kaufen trotzdem immer, einfach um den längsten Balken zu haben. Damit finanziert NV dann den günstigeren Preis für die 3080. :D
 
Zuletzt bearbeitet:
JanMH schrieb:
Insgesamt geht mir die Entwicklung in Sachen Stromverbrauch in die falsche Richtung, egal ob nVidia oder AMD.
Irgendwann sollte zu hoher Stromverbrauch mit Wertungsabzügen bestraft werden. Mir ist klar, daß man dann vorher einen Wert X als Grenze setzen muß.
Was meinst du mit Wertungsabzügen? Sowas wie die Karte hat weniger FPS pro Watt in den Test? Die RTX 30 Serie steht da besser da als die Vorgängergenerationen. Und das ist auch schon in den Tests drin.

Das ist hier die High-End Version, fast am maximum des Technisch möglichen, ich bin mir sicher für ne 3060 reicht dann auch wieder das 550W Netzteil wie sonst auch, und weniger Storm als ne 2070 wird sie auch verbrauchen. Wahrscheinlich sogar mit einem soliden Abstand. Und Vorgänger mit 350W TDP gibt es bei Nvidia auch, die 490 zum Beispiel.

In 4 Jahren gibt es dann wahrscheinlich 5NM+ Karten, da geht der Verbrauch dann wahrscheinlich so langsam wieder nach unten, weil die 8k Displays noch auf sich Warten lassen und 144 4k auch ohne 500W Peak Power geht. ;-)
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Schmickey schrieb:
Finde die Mehrleistung für die 3900 beachtlich
Genau, round about 11% sind "beachtlich". Ich weiß ja nicht aber manche Menschen....^^

Ich muss echt auf AMD hoffen, ich habe keine Lust mehr auf meine 1080 Ti in 3440x1440. Mal sehen was da kommt.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Blackbeard schrieb:
Das die 3090 vom Preis/Leistung Verhältniss zum zocken zu teuer sein wird, war vorher klar. Und mit 8k gaming zu werben, ist echt ein Witz.
Aber für Leute, die mit 3D SW wie Blender arbeiten, ist die 3090 ein echter Kracher, denn da kann man die 24GB VRAM gut gebrauchen. Die Titan RTX war mir viel zu teuer, aber die 3090 ist dagegen fast ein Schnäppchen - wenn man sie dann mal bekommt ...
Nur ist die Titan RTX halt immer noch und etlichen Anwendungen schneller, das ist halt das Problem mit dieser Titan Klasse Karte, die aber nicht Titan Qualität liefert. Dafür kostet sie dann 500€ mehr als die GTX Titan, aber immerhin nur die hälfte zu einer RTX Titan die imho schlicht ohne zertifizierte Treiber viel zu nah am Quadro Preis war. Die RTX 6000 hat ja nur so um die 1000€ mehr gekostet.
 
Zuletzt bearbeitet:
Vitec schrieb:
Ich denke, weil der Preis noch immer ausserhalb von normalen gamern liegt. Den den doppelten Preis für "smootheres" Gameplay, muss man sich auch leisten können/wollen.
Ist ähnlich G-Sync vs. Free Sync.
G-Sync ist halt ne Spur besser, kostet aber eben dann auch nen massiven Aufpreis. Manchen ist es das Wert, den meisten nicht. So sehe ich es bei der 3090 auch. Wenn ich das Geld habe, warum soll ich mir nicht eine 3090 gönnen, auch wenn das P/L schlecht ist.
Das ist sowiso meistens nur im mittelberreich oder unten gut.

Mann muss sich immer vor Augen halten, dass das Produkt nur angeboten wird,weil die Nachfrage danach groß genug ist, sodass es sich rentiert. Man wird nicht zu einem Kauf gezwungen.
Davon abgesehen gibt es ja auch Leute, die GPU Power für ihre Arbeit brauchen. Wie z.B. meine Freundin, welche mit allerlei 3D Programmen am werkeln ist.
Und nach ihrer Arbeit noch nice zocken zu können sind ja dann wie 2 Fliegen mit einer Klatsche erwischt zu haben.
 
Laphonso schrieb:
Zahlen lügen nicht.

Shadow of the Tomb Raider unter 4K

Die 2080 TI Rog Strix schiebt 65 fps.
Die 2080 TI Aorus Waterforce ballert 71 frames

Die MSI 3090 schafft hier hier im Test 77 fps.

Ganze 6 fps mehr...
Falls du mit an der Kotzgrenze laufenden Karten vergleichen willst.
(Ich weiß leider nicht exakt mit welchen settings es im Benchmark lief, also hab ich mal highest gewählt und ansonsten die settings angehängt.)
sott_oc.jpg

Settings:
sott_settings1.jpg
sott_settings2.jpg
 
  • Gefällt mir
Reaktionen: Laphonso
nospherato schrieb:
Falls du mit an der Kotzgrenze laufenden Karten vergleichen willst.

Also 79 fps sind komplett irre 😲 damit müsstest Du im Dunstkreis von Rekordwerten sein unter 4K und mit der 2080Ti.
 
Die beiden neuen Nvidia- Karten scheinen sich ja als richtige Überflieger, mit enormen Zuwächsen, zu erweisen, zumindest für meine Zwecke, Rendern von Bildern und Videos mit Octane, und in Zukunft vermutlich auch Redshift.

Gern hätte ich bei einer RTX 3080 FE zugeschlagen, aber nicht einmal die Aufforderung zum Erwerb erreichte mich.

Jetzt bin ich mal gespannt welche Leistung die 3070 erbringt, dann heißt es einfach warten, bis man an der Reihe ist, das Portemonnaie zu zücken, und eine der Karten zu ergattern.

Angesichts des enormen Leistungszuwachses sicherlich eine Zeitspanne, die an der Geduld zerrt, aber ich habe vor über zwanzig Jahren auch schon mehrere Monate auf einen neuen Golf 4 warten müssen.!
 
Hier noch mal ein Vergleich mit einer 2,1 GHz 2080 TI

Da lohnt sich die 3080 noch nicht mal in RTX oder DLSS

2080 Ti 2,1 GHz zu 3080 OC2080 Ti 2,1 GHz zu 3090 OC3080 OC zu 3090 OC
Anno 1800 UHD
1​
8​
11​
Borderlands UHD
23​
36​
11​
CoD MW UHD
21​
24​
9​
Control UHD
11​
24​
12​
Death Stranding
17​
28​
10​
Doom E UHD
22​
34​
10​
F1 2020 UHD
18​
28​
9​
Gear Tactics UHD
10​
23​
11​
Ghost Recon B
21​
34​
12​
HZD UHD
13​
29​
14​
Metro Exodus
13​
27​
13​
RDR 2 UHD
16​
24​
7​
Residen Evil 3
14​
29​
13​
SoTR UHD
12​
24​
11​
Division 2 UHD
18​
25​
7​
Trackmania UHD
10​
21​
9​
Wolcen UHD
12​
29​
16​
Leistungszuwachs
14,7​
26,4​
10,9​
COD MW UHD RT
10​
22​
11​
Control UHD RT
20​
32​
11​
Deliver M UHD RT
18​
30​
10​
Metro E UHD RT
8​
17​
8​
SoTR UHD RT
5​
10​
5​
Leistungszuwachs
12,1​
22,3​
9,0​
Controll UHD DLSS
20​
31​
9​
Death Stranding
9​
16​
7​
Deliver M
17​
17​
0​
Leistungszuwachs
15,4​
21,5​
5,3​
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Galora und Zock
@Duke711
beide Karten da oder wie hast vergleichen?

Ich verstehe noch nicht was die Diskussion soll... ihr vergleicht ne alte damals >~1200€ teure Karte mit der 3080?

Bei den 20% wird es sich immer kaum lohnen umzusteigen, von einer GTX 980 TI wie der meinen aber schon eher. Und da würde ich jetzt eher zur 700€ 3080 greifen als zb gebraucht um die 550€ hinzulegen. Gebraucht 300-400 wäre ggf was anderes.

Edit: Ihr müsst einfach auch mal schauen wie massiv groß der 16nm Chip der GP102 ist. Wenn man wirklich hätte einen massiven Sprung von der GP102 hätte machen wollen / können, dann hätte es einen ähnlich großen Chip in TSMC 7nm gebraucht und nicht einen kleineren GA102 in 10nm von Samsung.
Die Frage ist wie es weiter geht. Ob Nvidia Richtung 5nm TSMC geht, oder ob Samsung noch was drauflegen kann. Ggf würde sich sogar ne neue Gen in 7nm TSMC lohnen, da wo auch der GA100 her kommt.

Aber das wird dauern.
 
Die 3080 lief also schon so ziemlich am Limit des von Nvidia machbaren, wenn man sich das Wenige an Mehrleistung der 3090 anschaut.

Die Frage bleibt jetzt noch, wie viel mehr wird die 20GB Version der 3080 kosten?
 
Tomahawk schrieb:
Damit ist die schnellste nVidia-Grafikkarte doppelt so schnell wie die schnellste AMD-Grafikkarte.
Yep, die High End Karte von NV ist doppelt so schnell als die Midrange Karte von AMD und kostet ÜBER das Vierfache ! Aber das findest Du bestimmt auch "Geil" ...

MfG Föhn.
 
Vitec schrieb:
Ich denke, weil der Preis noch immer ausserhalb von normalen gamern liegt. Den den doppelten Preis für "smootheres" Gameplay, muss man sich auch leisten können/wollen.
Ist ähnlich G-Sync vs. Free Sync.

Das mit Adaptive Sync ist doch eh wieder so ne Sache.
Seit es Adaptive Sync Monitore gibt, ist keiner mehr gezwungen, exakt 60 FPS konstant zu erreichen oder 120 oder 144 FPS. Microruckler sind Geschichte, Tearing gibts auch keines und Vsync braucht man auch nicht und jede beliebige Framerate lässt sich sauber darstellen.

Ob das jetzt mal 50 oder 70 FPS sind? Drauf gepfiffen. Interessiert mich mit Adaptive Sync einfach nicht mehr.

Dazu noch DLSS, was die Performance im Zweifel verdoppeln kann und free AntiAliasing on Top liefert...

Da fragt man sich manchmal echt, warum man für ein Paar Prozent mehr Leistung überhaupt Geld ausgeben sollte.
Hardwareleistung relativiert sich meiner Meinung nach immer mehr. Features sind sehr viel wichtiger geworden.


Früher (vor 10 Jahren) wars halt komplett anders.
  • Du spielst nicht mit maximalen Details? -> Viel spaß mit deutlich schlechterer Grafik
  • Du hast auf deinem 60 Hz Display nicht exakt und konstant 60 FPS -> Viel spaß mit Microrucklern
  • Du hast nicht genug Leistung um das alles noch mit 4x MSAA zu zocken (was die FPS halbiert)? -> viel spaß mit einem total verpixeltem und flimmerndem Spiel!

Damals konnte man wirklich um jedes bisschen performance froh sein, da es einfach einen Unterschied wie Tag und Nacht ausmachte, wenn man einen weiteren der oben genannten Punkte endlich erfüllen konnte.

Aber heute ist das alles doch Jacke wie Hose. Es reicht aus, nen bestimmten FPS Bereich zu erreichen, den man für gut erachtet und muss sich keine Gedanken mehr um Display Synchronisation machen, die Unterschiede zwischen den Detailstufen muss man mit der Lupe suchen und AntiAliasing (TAA, TSSAA, DLSS) ist praktisch komplett kostenlos und so effektiv wie noch nie.

Es war noch nie einfacher, ruckelfrei mit top Bildqualität und ohne nennenswerte grafische Abstriche mit günstiger Hardware zu spielen. Und dann geben die Leute für minimalste Performancesteigerungen so viel aus, wie noch NIE.

Für mich passt das irgendwie nicht zusammen.
Habe das Gefühl, dass sich manche da mittlerweile einfach viel zu sehr reinsteigern...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: MurphysLaw
Laphonso schrieb:
Zahlen lügen nicht.

Shadow of the Tomb Raider unter 4K

Die 2080 TI Rog Strix schiebt 65 fps.
Die 2080 TI Aorus Waterforce ballert 71 frames

Die MSI 3090 schafft hier hier im Test 77 fps.

Ganze 6 fps mehr...
Und damit 18% schneller als die Strix und 8% schneller als die 1600€ 2080ti Aorus Waterforce
Also 8% Performance mehr für 10% mehr Geld.


Dafür aber halt halt in einem vollen Maya Viewframe schon mal 1000% mehr Performance, wenn der 2080ti Speicher voll laufen würde. Was, so deine Zahlen stimmen, ehr beindruckend und bedenklich wäre, ist das die 3080. ;-)

Natürlich hast du jetzt gar keinen Benchmark mit der 3080 gepostet der Vergleichbar wäre, macht aber nix. ^_^
 
Haenger schrieb:
Dann kannst du dir ja ausmalen, was die 20GB-Version kosten würde :daumen:
Preislich würde ich auf die goldene Mitte tippen
Und "alle" wären happy wenn die RTX 3080 mit 20 GB dann "NUR" 1200 € kosten würde !
Was vorher das Spitzenmodell (Titan mal außen vor) RTX 2080 Ti gekostet hat.
Und schon hat nVidia einen vierstelligen Betrag für die zweitschnellste Karte auf dem Markt etabliert.
Ganz schön clever&smart ... ;-)

MfG Föhn.
 
  • Gefällt mir
Reaktionen: McTheRipper und Apocalypse
Zurück
Oben