Notiz Doom Eternal: Nvidia vergleicht GeForce RTX 3080 mit RTX 2080 Ti in 4K

In Zeiten von 4k mit HDR uund 144 Panel, finde ich die Leistung der 3080 nicht so super.
Minium 144FPS sollte schon die Leistung sein.
 
t3chn0 schrieb:
Es werden je nach Usecase zwischen 40-100% Mehrleistung ggü. einer 2080Ti sein. Das ist für den Preis schon ein extremer Sprung.
Wäre da nicht der mickrige Speicher. Die 3070 mit 16 GB und ich hätte mir die sofort zu Release geholt.
 
t3chn0 schrieb:
Es werden je nach Usecase zwischen 40-100% Mehrleistung ggü. einer 2080Ti sein.

Egal was Nvidia für Zahlen verspricht.

Die doppelte Anzahl der Shader entspricht nicht der doppelten Leistung. Sie haben eine schöne Lösung gefunden, die mehr oder weniger mit HT oder SMT vergleichbar ist. Besser, aber nicht perfekt.

Bei wirklich guter Software, kann die 3090 100% schneller sein, als die 2080Ti in FPS bei Games. Möglicher weise.

Die neuen Karten sind wirklich gut. Die 3070 wäre ohne AMD wohl die neue 3080 geworden und die 3090 wäre für das upgrade als "super" nächstes Jahr gekommen.

Warum aber immer meckern? Der Preis von 499 ist mehr als lecker und hier darf man bei den kleinen Babys auch mal danke sagen.

20 Nvidia Marketing TFlop für 500 bucks.....geil. Nehm ich².

mfg
 
TorgardGraufell schrieb:
Bin noch auf einer 1080 oc unterwegs....die kommt dann in Wohnzimmer Pc :D
:D Die 3080(Ti) kommt in das Wohnzimmer wegen des UHD TVs die 1080 ins Arbeitszimmer zu seinem WQHD Monitor
 
.Sentinel. schrieb:
Da muss man ein wenig aufpassen. Es ist ja meines Wissens noch nichtmal bekannt, ob da z.B. DLSS zum Einsatz kam oder auch nicht.

Dadurch dass DLSS ein festes Budget in der Frametime hat, könnte eine 3080 prozentual bei dessen Nutzen noch einmal zusätzlich Abstand zur 2080 TI gewinnen.
Die Tensor- Einheiten sind auf der 3080 gut doppelt so stark....

Wobei es bei den bisherigen Benchmarks (die ICH gesehen habe), völlig egal ist, ob die Spiele "nativ" oder mit Raytracing bzw. DLSS sind. Es wurden 2000er mit 3000er verglichen und beide Kartenserien haben in der Hinsicht die gleichen Features. Also Chancengleichheit auf beiden Seiten.
 
McFritte schrieb:
Es wurden 2000er mit 3000er verglichen und beide Kartenserien haben in der Hinsicht die gleichen Features. Also Chancengleichheit auf beiden Seiten.

Da DLSS ein Verfahren ist, welches fest auf ein Zeitbudget geht, besteht da schon ein Unterschied. Je höher die Auflösung, umso höher wird auch prozentual eine 3080 eine 2080 in die Schranken weisen.
 
.Sentinel. schrieb:
Da DLSS ein Verfahren ist, welches fest auf ein Zeitbudget geht, besteht da schon ein Unterschied. Je höher die Auflösung, umso höher wird auch prozentual eine 3080 eine 2080 in die Schranken weisen.

Das mag sein, ich weiß nur in Grundzügen was DLSS ist. Das ändert aber nichts an der Tatsache, das es beide Karten nutzen können. Wie die das intern handhaben, ist mir als Anwender völlig egal. Da zählt doch was an Leistung am Ende rauskommt.
Etwas unfair wird es natürlich, wenn man eine AMD mit 4K-Auflösung arbeiten läßt, während die NVidia mit 2K und DLSS (was AMD verwehrt bleibt) arbeitet. Aber selbst da wäre es mir (!) ziemlich egal, wenn die Bildqualität vergleichbar ist. Ob die das Ergebnis jetzt mit 4K, 2K+DLSS, Feenstaub oder einer täglichen Opfergabe erreichen
 
  • Gefällt mir
Reaktionen: engineer123 und .Sentinel.
Das Spiel alleine sagt im Moment nicht viel aus. Ich meine aber, dass die 2080 Ti zur 1080 Ti in Vulkan Games auch besser performte und so auf 40 statt 30% kam. Zudem ist DooM Eternal ein Paradebeispiel für schöne Grafik + Performance.
 
McFritte schrieb:
Das mag sein, ich weiß nur in Grundzügen was DLSS ist. Das ändert aber nichts an der Tatsache, das es beide Karten nutzen können. Wie die das intern handhaben, ist mir als Anwender völlig egal. Da zählt doch was an Leistung am Ende rauskommt.

Aber das ändert schon viel an der Tatsache...
1599226408864.png


Die neuen Karten haben nicht nur an der Shaderleistung zugelegt, die haben auch bei der RT und AI Leistung einen drauf gelegt. Spiele die RT und DLSS nutzen profitieren noch stärker von den neuen Chips, als Spiele die nur Rasterisierung verwenden.

1599226488296.png
 
  • Gefällt mir
Reaktionen: .Sentinel.
lolololol schrieb:
Ihr meint wahrscheinlich eingeblendetem
oder umrahmt mit lenden vom schwein in pfeffersoße..
Inxession schrieb:
Haben die damals das NDA unterschrieben?
und die gpu haben sie geklaut?
Vendetta schrieb:
irgendjemand hat mal die Value per Cores ausgerechnet und kam dann zum Schluss, dass die 3080 von der Preisleistung vorrauslichtlich besser ist als die 3070 bei 500 Euro.
das braucht man nicht extra ausrechnen, das sieht man schon anhand einer vergleichtabelle, wenn man nur rein die shader und die fp32-tflops vergleicht und den preis links und rechts davon sieht.
KarteRTX 3090RTX 3080RTX 3070RTX 2080 Ti
Shader10.4968.7045.8884.352
FP32-Leistung35,7 TFLOPS29,8 TFLOPS20,4 TFLOPS13,4 TFLOPS
Preis14996994991200
 
Zuletzt bearbeitet:
xexex schrieb:
Aber das ändert schon viel an der Tatsache...

Die neuen Karten haben nicht nur an der Shaderleistung zugelegt, die haben auch bei der RT und AI Leistung einen drauf gelegt. Spiele die RT und DLSS nutzen profitieren noch stärker von den neuen Chips, als Spiele die nur Rasterisierung verwenden.

Ich glaube, wir reden hier gerade aneinander vorbei :-)
Die technische Seite ist natürlich höchst interessant für die zukünftige Entwicklung. Aber für mich (!) als dummen Anwender ist im Moment nur interessant was am Ende rauskommt.
Ich sehe mir die aktuellen Benchmarks der Spiele an die mich interessieren und die eine Karte hat mit Raytracing und DLSS 100% und die andere Karte 150% der FPS. Ob das nun an mehr Shadern, mehr RT-Kernen, höherem Takt oder frommen Gebeten liegt mag für die Zukunft entscheidend sein. Die aktuell getesteten Spiele/Benchmarks sind halt vergleichbar, da beide Serien Raytracing und DLSS nutzen können.

Ansonsten wird NVidia ganz sicher auch cherrypicking bei der Auswahl betrieben haben, so ganz traue ich der Sache noch nicht. In spätestens zwei Wochen sind wir alle schlauer, wenn die echten Tests erscheinen.
 
Hier auch noch ein sehr interessantes Video was Denkanstöße zu dem gezeigten geben kann. Besonders am Anfang des Videos, wo 2080 Ti und 1080 Ti nochmal verglichen werden. Interessant wie die Wahrnehmung von Jensen und seinen Slides des Performance Unterschiedes zwischen 2080 Ti und 1080 Ti von denen von Hardwareunboxed abweicht:
Und hier noch ein sehr valider Punkt:
Harwareunboxed.png
 
Zuletzt bearbeitet:
4k endlich flüssig spielbar. Wobei Doom imho ein schlechtes Beispiel ist, so hässlich wie das aussieht. Abgesehn davon ist ja nicht bekannt, ob es in 4k rechnet oder eine kleinere Auflösung rauf rechnet. Somit ist 4k relativ.

Faszinierend finde ich wie zielgenau die alle schießen, wenn man bedenkt wie schnell die unterwegs sind und dann hupfen sie noch herum wie ein Flummi. Da komm ich schon lang nicht mehr mit hehe
 
m.Kobold schrieb:
Also war es dann doch nicht so falsch. Sondern es kommt nur drauf an wie man Argumentiert...

Ergo die 2080Ti war in Doom nur 33% langsamer... darauf wollte ich eigentlich auch hinaus.
Doch, es war komplett falsch, weil wenn die 3090 2x so schnell wie die 2080ti ist, dann ist die 2080ti immer noch nur 50% langsamer. Das ist ein himmelweiter Unterschied zu dem was du gesagt hattest, weil du die Basis halt massiv verschiebst, gerade WEIL die neuen Karten so massiv viel schneller sind. 400% schneller sind übrigens 80% langsamer und 500% der Leistung, 1000% der alten FPS und die Karte ist 10x so schnell, aber die alte Karte nur 90% langsamer. Jetzt ist die 2080ti halt so 33 bis 50% langsamer als eine 3080 die auch noch weniger kostet. ;-)

Aber gut das wir das geklärt haben.. Klar, 50% weniger Leistung oder auch 30% klingt erst mal nach gar nicht soviel., ist aber doch mehr als Solide für eine neue Generation. Mehr hatten selbst Karten wie die legendäre 8800 nicht.
 
Zuletzt bearbeitet:
xexex schrieb:
Die neuen Karten haben nicht nur an der Shaderleistung zugelegt, die haben auch bei der RT und AI Leistung einen drauf gelegt. Spiele die RT und DLSS nutzen profitieren noch stärker von den neuen Chips, als Spiele die nur Rasterisierung verwenden.

Mich hat beim DF Video etwas gewundert, warum die durchschnittlichen 75% Unterschied sowohl bei den Spielen ohne RT+DLSS als auch bei Spielen mit RT+DLSS vorhanden waren.

Ich hätte erwartet, wenn man die Shader Performance erhöht, hat man die 75% Unterschied in non-RT Spielen.

Wenn man jetzt dazu die exakt gleiche RT Performance beibehalten hätte, müsste der Performanceverlust bei Nutzung von RT ja gleich stark bleiben und da man die RT Performance aber erhöht hat, sollte der Unterschied doch bei RT Nutzung nochmal größer ausfallen, was aber nicht der Fall war.

Aber nochmal drüber nachgedacht macht es doch irgendwo Sinn:
Wenn ich mehr Shaderleistung habe, dann habe ich mehr FPS, sagen wir statt 100 nun 160.
Wenn ich jetzt RT zuschalte, dann muss eine 2080 das mit 100FPS als Basis stemmen, eine 3080 aber mit 160.
Folglich braucht die 3080 auch ca gleich viel mehr RT Leistung um nicht prozentual stärker einzubrechen als die 2080. Hätte sie nur soviel RT Leistung wie die 2080 würde sie vmtl in die FPS Region der 2080 abstürzen.

Somit bleibt der Unterschied am Ende gleich
 
  • Gefällt mir
Reaktionen: xXDarthGollumXx, .Sentinel., McFritte und eine weitere Person
Vitali.Metzger schrieb:
Wäre da nicht der mickrige Speicher. Die 3070 mit 16 GB und ich hätte mir die sofort zu Release geholt.
Bis du sicher das du die 3070 für sowas 549€ oder auch 599€ genommen hättest? Nur wegen den 8GB mehr? Ich frag nur, weil der Speicher ja nicht umsonst ist, nicht mal für Nvidia. Bei 599 … ich muss zugeben, da hätte ich dann doch lieber die 11GB 3080 für 699 genommen.


Dabei verstehe ich die Gier nach dem Speicher durchaus, haben ist bekanntlich besser als brauchen.
 
t3chn0 schrieb:
-Unnötiges Komplettzitat entfernt-
Wie es richtig geht, ist hier nachzulesen


Rocket Lake mit der neuen Core Architektur und eine 3090...das wäre doch eigentlich genau das richtige für dich.

@Volker schaut doch dieses mal, ob ihr euch mit @Esenel und @KlaraElfer kurzschliessen könnt. Bei dem Leistungssprung bei den GPUs braucht es dringend einen Nachtest der CPUs mit Core/Ram OC.
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
  • Gefällt mir
Reaktionen: t3chn0
LegeinEi schrieb:
-Unnötiges Komplettzitat entfernt-
Wie es richtig geht, ist hier nachzulesen

Hi

lol... Hallo alter Mann....

Mal so vom alten Sack zu altem Sack: für eher ruhigeres Gaming wäre da Horizon Zero Down auf jeden Fall etwas.

Da kann "man" problemlos durch die Landschaft schleichen und Kämpfe auch umgehen wenn "man" will.

DAS liebe ich so an dem Game.
Sooo...und jetzt weiter meinen Rollator polieren...ist schließlich Wochenende.

Gruß Bernd
 
Zuletzt bearbeitet: (Komplettzitat entfernt)
  • Gefällt mir
Reaktionen: LegeinEi
Taxxor schrieb:
Wenn man jetzt dazu die exakt gleiche RT Performance beibehalten hätte, müsste der Performanceverlust bei Nutzung von RT ja gleich stark bleiben und da man die RT Performance aber erhöht hat, sollte der Unterschied doch bei RT Nutzung nochmal größer ausfallen, was aber nicht der Fall war.
Im Q&A auf Reddit haben sie das relativ gut erklärt.

Es gibt da schon unterschiede. Mit der Neuorganisation der SMs haben sie tatsächlich je nach Szenario die einzeln ansprechbaren CUDA- Cores verdoppelt. Mit der Abhängigkeit, dass rein rasterbasiert immernoch ein guter Anteil Int reingemischt ist und man sich für eine reine doppelte oder einfache gemischt- Nutzung entscheiden muss.

Das heisst, dass einige SMs per Rasterizer zwar im verdoppelten Modus arbeiten können, jedoch andere auf dem klassischen Modell bleiben. Damit steigt die Leistung zwar spürbar an, aber nicht so weit, wie man es bei einer Verdoppelung der Einheiten inkl Effizienzsteigerungen im I/O System im Hintergrund vielleicht erwarten könnte. Das war bei der Präse aber eine DER großen Überraschungen.

Für RTRT ist die neue Organisation wiederum optimal, da dort vorhin das Problem bestand, dass die FP32 Ressourcen der SMs deutlich zu knapp waren. Da hat man nun im Hybrid Szenario erheblich mehr Ressourcen für die kleinteiligen und schwer koherent zu bekommenden Rayshader zur Verfügung.

Soll heissen, wo Du vorher tatsächlich die RT Engine auf 5000 Shader losgelassen hast, lässt Du sie jetzt auf im schlechtesten Fall auf dediziert rund 2500 extra cores los, hättest aber noch die vollen 5000 FP/Int32 auf Lager.
Rein theoretisch führt das dazu, dass bei zugeschaltetem RT die Leistung anteilig weit weniger einbrechen sollte, als zuvor...

Ich bin ziemlich gespannt, ob sich das dann bei meinen Tests im Visual Studio dann in der Praxis genau so nachstellen lässt und was da tatsächlich dann an Performance rauszuholen ist.
 
Zuletzt bearbeitet:
Was mir gerade einfällt … Doom Eternal, 4k max Textures … da ist eine 2080 doch langsamer als eine 1080ti. Schneller Speicher hilft halt nicht, wenn der VRAM einfach nicht groß genug ist. Und in dem Fall sind die 8GB der 2080 nicht genug.

Das relativiert dann zumindest den Digital Foundry Benchmark ziemlich? Was haben sie sonst noch drin wo die 8GB voll laufen?
 
Zurück
Oben