Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

Artikel schrieb:
Nvidia gibt an, dass der Kühler der GeForce RTX 3080 Founders Edition bei identischer Leistungsaufnahme von 320 Watt bei gleicher Lautstärke 20 Grad kühler oder bei gleicher Temperatur 10 dB leiser arbeitet als das Pendant auf der GeForce RTX 2080 FE. Wird die GeForce RTX 2080 FE mit den Werkseinstellungen von 225 Watt betrieben, fallen die Unterschiede geringer aus, bleiben aber immer noch vorhanden: 78°C bei 30 dB auf der RTX 3080 stehen 81°C bei 32 dB auf der RTX 2080 gegenüber.
Wie kommen die denn bitte auf diese Werte? Die 2080 kommt im Test bereits im Idle auf 32 DB :freak:
 
fox40phil schrieb:
Frage zu DLSS:
Kann ich es nur für fixe Auflösungen nutzen? Also geht z.B. 5k nicht? Aber 8k schon? Das wäre doof =/.
DLSS ist eigentlich unabhängig von der Auflösung. Man kann es in drei Qualitätsstufen einsetzen. Quality, Balanced und Performance. Technisch entspricht das einem Skalierungsfaktor von 2x, 3x und 4x.
5k in Performance rendert also einem Viertel von 5k.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: moreno111, fox40phil und DJMadMax
fox40phil schrieb:
Frage zu DLSS:
Kann ich es nur für fixe Auflösungen nutzen? Also geht z.B. 5k nicht? Aber 8k schon? Das wäre doof =/.
Ich mag mich irren, aber meines Wissens ist DLSS (2.0) lediglich ein neurales Netzwerk mit (beliebiger) Upscaling-Funktion. Welche Auflösung im Endeffekt auf deinem Bildschirm landet, sollte egal sein. Viel wichtiger ist eher, dass das Spiel DLSS unterstützt und das ist aktuell - wie auch bei Raytracing - nur eine Hand voll.
 
  • Gefällt mir
Reaktionen: m.Kobold, Otsy und fox40phil
Lese ich das richtig, die 3080FE wird mit unter Last nicht wärmer als knapp 80 Grad bei 30db?
Das wären ausgesprochen gute Werte für das Referenzdesign.

Die Folie zur Lautstärke ist trotzdem frech, wird die 2080 mit 320W betrieben... Laut ComputerBase Test zur 2080FE läuft die Karte bei 75 Grad auf 42db, auf 225W.

Falls es mir heute nicht schon viel zu spät war, finde ich den Kühler durchaus gelungen. Auf die Tests bin ich echt gespannt. ^^
 
  • Gefällt mir
Reaktionen: Tzk und Lübke82
Bin ich allein mit dem etwas komischen Gefühl dass das zwar durchaus beeindruckende Hardware ist, aber die neuen Features mit all den Verbesserungen interessieren mich zumindest bisher überhaupt nicht?

Raytracing ... gerne, aber da denke ich an die früheren Techdemos wo alles mittels RT gemacht wird, nicht RT-unterstütztes rastering. Noch dazu nur in ausgewählten Titeln und so die ich noch nicht mal habe ... meh.
DLSS? Bestimmt nett um 8k in spielbare FPS zu bringen, aber ich armer schlucker hab nen ganz passablen 1920x1080 Monitor der so schnell nicht kaputt gehen wird. Bei dem was ich so spiele gibts das oft garnicht. Dazu habe ich im laufe der Zeit eher mittelmäßige Erfahrungen mit den meisten Leistungstricks gemacht und nehme doch lieber die 'echten' Details. Bumpmaps ersetzen kein Tesselation ersetzt keine handmodellierte Geometrie. Manchen wird das sicher noch etwas sagen ^^

Mir sagt irgendwie doch der klassische Weg mehr zu. Mehr Rechenleistung, mehr Details möglich. Das Hauptproblem dabei war schon immer dass irgendwer die 'mehr Details' auch produzieren und im Spiel auswählbar machen muss. Anstelle von ingame-Plakaten in 256x128 pixel und 'DLSS macht das schon' lieber gleich in 4096x2048 reinpacken. Für alle denen das zu viel ist hat man mipmaps erfunden. Wirds spiel eben größer. Da die meisten sowieso per Download ausgeliefert werden kann man die hochauflösenden Texturen sogar optional machen falls jemand keine 80 GB zusätzlich laden will.
Nennt mich altmodisch, aber mich hats immer geärgert wenn in einem Spiel irgendwo Schrift zu sehen war die aber so unscharf war dass man nichts lesen konnte.
Da hilft auch kein Bild in voller Auflösung das 'so ähnlich' und nur in ausgewählten Spielen verfügbar ist.

128x FP statt fix 64x FP + 64x INT ist an sich ja nett, aber das ist ein bisschen wie bei AMD mit ihren Bulldozerkernen. Nettes Feature, durchaus sinnvoll, aber das als doppelte FP Leistung bewerben ist nur die halbe Wahrheit.
Unterm Strich bedeuten mehr Einschränkungen bei der Abrufbarkeit der Leistung meistens eher mehr Verwirrung und Enttäuschung beim Kunden, denn ich als Spieler weiß leider nicht was genau meine Spiele so auf der GPU berechnen. Wer tut das schon außer den Entwicklern selbst und einigen die wirklich Ahnung von der Materie haben?
Wem fällt ein Spiel ein das kaum bis garkeine INT-Leistung von der GPU verlangt? Die laufen auf Ampere dann bestimmt super!

Zu meinem Glück schmeiße ich nun Medieval 2 Total War an und morgen steht Diablo 2 auf dem Plan :D
 
  • Gefällt mir
Reaktionen: Ernie75, Cruentatus, tuxnice und 6 andere
Bigeagle schrieb:
Nennt mich altmodisch, aber mich hats immer geärgert wenn in einem Spiel irgendwo Schrift zu sehen war die aber so unscharf war dass man nichts lesen konnte.

... und morgen steht Diablo 2 auf dem Plan :D

Alles klar. Macht Sinn.
 
  • Gefällt mir
Reaktionen: Trinoo, adAstra, Laphonso und 2 andere
Ich muss schon sagen. Da stecken extrem viele technische Neuerungen drin und das alles nur in einem Jahr. Wahnsinn und alle Achtung vor den Leuten die bei Nvidia arbeiten.
 
DJMadMax schrieb:
Ich mag mich irren, aber meines Wissens ist DLSS (2.0) lediglich ein neurales Netzwerk mit (beliebiger) Upscaling-Funktion. Welche Auflösung im Endeffekt auf deinem Bildschirm landet, sollte egal sein. Viel wichtiger ist eher, dass das Spiel DLSS unterstützt und das ist aktuell - wie auch bei Raytracing - nur eine Hand voll.
Stimmt. DLSS muss von Spiel unterstützt werden. Es ist für jeden, der zum Beispiel schon TAA implementiert hat aber sehr einfach zu implementieren.
Treiberseitig lässt sich DLSS leider nicht aktivieren, da es vor den Postprocessingfiltern und dem UI-Renderer durchgeführt werden muss. Es lässt sich nicht vom Treiber an letzter Stelle durchführen.

DLSS ist aber ansonsten eine wirklich interessante Sache.
Es berechnet die hochskalierten Bilder nicht nur aus Einzelbilder und versucht dabei zu erraten, wie die fehlenden Informationen aussehen könnten. Das würde nicht funktioniern.

DLSS nutzt stattdessen Informationen aus mehreren vorangegangenen Frames um damit das aktuelle Frame in einer höheren Auflösung zu berechnen.
Vor allen Dingen nutzt es dabei nicht nur Pixelinformationen, sondern auch Bewegungsvektoren, Tiefeninformation, Lumineszenzinformationen und diverse andere Parameter, die dabei helfen das Bild hochzuskalieren.

Das Neuronale Netz ist letztendlich nur dafür verantwortlich zu entscheiden welche Pixel aus den vorherigen Frames für das aktuelle Frames noch sinnvoll sind und welche Pixel für das aktuelle Frame nicht mehr sinnvoll sind.
Es entscheidet nur die Pixel für das Upscaling zu verwenden, die sich von Bild zu Bild nicht all zu stark verändert haben und die Pixel zu verwerfen, die zum Beispiel durch Explosionen oder andere schnelle Farbwechsel entstehen.
Ich denke daher ist es auch so wichtig die Lumineszenzinformationen an das Neuronale Netzwerk zu übergeben, weil es daran Explosionen und Partikeleffekte erkennen kann. Auch die Tiefeninformation wird extrem dabei helfen zu erkennen, ob Objekte zu verwerfen sind oder nicht. Nahe an der Kamera befindliche Objekte sind garantiert immer störend.
Unter Berücksichtigung all dieser Dinge verhindert DLSS letztendlich Ghosting Effekte von bewegten Objekten und schafft es dennoch Informationen von statischen Details über mehrere Frames zu aggregieren und so sehr viele Informationen über einen Pixel zu sammeln, die ein akkurates hochskalieren ermöglicht.

Das ist auch der Grund, warum DLSS das Filmmern von Kanten und Moire Mustern so gut unterdrücken kann. Es skaliert nur gleichbleibende Farben hoch und unterdrückt schnelle Farbwechsel.

Ergo kann die Qualität des hochskalierten Bildes durchaus höher sein als das native Bild, da es ja aufaddierte Informationen aus mehreren vorherigen Bildern enthält.
 
  • Gefällt mir
Reaktionen: Schmiddlon, C3LLoX, JPsy und 15 andere
Wenn man also mehr als 8 GB haben, aber unter 300 Watt TDP bleiben will, fällt diese Generation von nv schon mal weg.
Merkwürdige Taktik.
 
  • Gefällt mir
Reaktionen: Zubz3ro und DarkerThanBlack
DarkerThanBlack schrieb:
Kannst ja 1500 Euro für ne Grakka bezahlen. Mein Fall ist es nicht. Alternativen gibt es noch nicht...
Naja, wenn dir 10GB zu wenig sind, musst du eben in den sauren Apfel beißen und tief in die Tasche greifen.
Aber du kannst nicht herkommen, dich über zu wenig Speicher beschweren, obwohl es eine Karte mit mehr Speicher gibt, und dann sagen ne, die ist mir zu teuer. Wo ist da die Logik?
Die RTX3080 hätte sicher auch gleich mit 16GB statt 10GB kommen können. Aber statt 699€ hätte die dann 899€ gekostet. Will auch wieder keiner. Also was denn nun?

Ich denke das mit dem Speicher wird überbewertet. Falls sich DLSS durchsetzen sollte (ich hoffe da kommt noch eine gleichwertige freie Alternative die von beiden Lagern genutzt werden kann), dann wird man auch mit den 10GB sehr lange keine Probleme haben. Wahrscheinlich länger als die meisten die Karte nutzen werden.

Der große Vorteil ist, dass man schon mit der 3080 den großen Chip hat und nicht erst mit einer hypothetischen 3080ti.
Die 3 Karten x80, x80ti und Titan wurden zu x80 und x90 zusammengefasst, die x80 ist dabei sehr teuer, bietet aber auch was fürs Geld, und die x90 ist unfassbar teuer, bietet dafür eben viel Speicher, aber gar nicht so viel mehr Rohleistung.
Ergänzung ()

noxon schrieb:
DLSS nutzt stattdessen Informationen aus mehreren vorangegangenen Frames um damit das aktuelle Frame in einer höheren Auflösung zu berechnen.
Vor allen Dingen nutzt es dabei nicht nur Pixelinformationen, sondern auch Bewegungsvektoren, Tiefeninformation, Lumineszenzinformationen und diverse andere Parameter, die dabei helfen das Bild hochzuskalieren.
Funktioniert das ganze eigentlich auch mit Videos bzw. Filmen?
Das wäre noch ein Traum, eine 1080p Bluray könnte so einer UHD-Bluray Konkurrenz machen, einfach per Upscaling. nVidia würde da mit den besten Bildprozessoren die der TV-Markt zu bieten hat eiskalt den Fußboden wischen.
Oder auch Streams von Netflix etc., könnte ja grundsätzlich funktionieren.
 
  • Gefällt mir
Reaktionen: Trinoo, freezer255, Lübke82 und 2 andere
Bigeagle schrieb:
128x FP statt fix 64x FP + 64x INT ist an sich ja nett, aber das ist ein bisschen wie bei AMD mit ihren Bulldozerkernen. Nettes Feature, durchaus sinnvoll, aber das als doppelte FP Leistung bewerben ist nur die halbe Wahrheit.

Das kommt auf den Anwendungsfall an, man braucht sich dazu ja nur die bisherigen Informationen dazu anschauen.
1599260187027.png


Das Problem bei Turing war, dass die Anzahl der Integer Berechnungen erheblich kleiner als die Anzahl der Gleitkommaberechnungen gewesen ist. Zwar konnte man nun beides gleichzeitig berechnen, jedoch war die Auslastung der Kerne suboptimal.

Doppelte FP Leistung hat man nun durchaus, auch wenn es auf Kosten der Parallelisierung geht, was aber in Spielen irrelevant sein dürfte. Im Endergebnis bekommt man mehr FP Leistung und kann eine solche Karte trotzdem noch in anderen Bereichen sinnvoll für Int Berechnungen nutzen.

In Zahlen ausgedrückt konntest du auf einer 2080Ti 4.352 Int32 und 4.352 FP32 gleichzeitige Berechnungen durchführen, was aber in der Realität so nie genutzt wurde. Mit der 3080 kannst du nun auch 4.352 Int32 und 4.352 FP32 Berechnungen durchführen, aber auch 0 Int32 und 8.704 FP32 oder jede beliebige Zahl dazwischen.

Da die RT und Tensor Kerne nun komplett unabhängig davon arbeiten können, erreicht man mit dieser Lösung zu jeder Zeit die bestmögliche Auslastung, statt einen Teil der ALUs ständig brach liegen zu haben und die Entwickler müssen weniger optimieren um die Ressourcen auszunutzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cruentatus, Colindo, stevefrogs und 7 andere
Raytracing mit Motion Blur...
Motion Blur...

War das nicht dieses böse Ding, was sogar mit Techniken wie Backlight Strobbing versucht wurde zu minimieren und jeder Shooter-Spieler als erstes ausstellt? :D
 
  • Gefällt mir
Reaktionen: Ernie75, Unnu, Rambo5018 und 10 andere
mastakilla91 schrieb:
Da stecken extrem viele technische Neuerungen drin und das alles nur in einem Jahr.
Die werden nicht erst vor einem Jahr angefangen haben, Ampere zu entwickeln. :D
 
  • Gefällt mir
Reaktionen: C3LLoX, CableGuy82, Lübke82 und 2 andere
Marcel55 schrieb:
24GB sind nicht genug?
Man hat nie genug Speicher.
24GB ist ja ok, aber die 8GB der 3070 sind halt ein Witz, die 10GB der 3080 auch zu wenig.

Wirds eigentlich auch nen "Volks-Ampere" a la GTX 1880/2660 oder irgendwas ähnlich blöd klingendes geben?
Bei mehr als 200 Euro sinkt mein Investitionswille irgendwie rasant, mal davon ab, dass 220W auch was heftig fürs Einstiegsmodell sind.
 
  • Gefällt mir
Reaktionen: Zubz3ro, DerKonfigurator und bugmum
Also der Kühlervergleich ist mal etwas daneben, zeigt aber auch, dass die 3000er Serie dank der hohen TDP extrem heiß wird. Auch wenn der Kühler besser ist, hat er hart zu kämpfen. Ich bin weiterhin sehr gespannt und kann den Test kaum erwarten!
 
  • Gefällt mir
Reaktionen: Tobapas und bugmum
@zig*zag Korrekt. Daher hoffe ich auf ordentlich ausgelegte Modelle der 3070 (mein Sweetspot). 220 Watt Gesamtleistung kriege ich vermutlich deutlich leiser luftgekühlt als die 300+ Watt. Zusätzlich sollte die Leistung für 1440p noch eine ziemlich lange Zeit ausreichen.

Aber wie immer gilt für mich: Unabhängige Tests abwarten und schauen was AMD anbieten wird. Um den launchzeitpunkt von Nvidia wird es eh knapp werden mit den Grakas denke ich, die Preise werden über UVP liegen, und ultra eilen tut es ja auch nicht.
 
Marcel55 schrieb:
Funktioniert das ganze eigentlich auch mit Videos bzw. Filmen?
Das wäre noch ein Traum, eine 1080p Bluray könnte so einer UHD-Bluray Konkurrenz machen, einfach per Upscaling. nVidia würde da mit den besten Bildprozessoren die der TV-Markt zu bieten hat eiskalt den Fußboden wischen.
Oder auch Streams von Netflix etc., könnte ja grundsätzlich funktionieren.
Nö. Für DLSS musst du genau wie für TAA einen Jitter in deinen Viewport implementieren.
Sprich, dein Bild muss die Pixel immer aus einer leicht anderen Perspektive sampeln um unterschiedliche Werte zu erhalten. Diese Werte, die teilweise auch über mehrere Frames hinweg an unterschiedlichen Subpixel-Positionen ermittelt werden, werden dann aufaddiert und gemittelt und ergeben dann einen genaueren Wert für den tatsächlichen Pixel.
Dies muss jede Engine implementieren, die DLSS nutzen will.
Dann benötigt das Neuronale Netz nicht nur das gerenderter Bild, sondern auch Bewegungsvektoren, die oben verwendeten Jitteroffsets, den Depthbuffer und Helligkeitswerte. All diese Dinge werden benötigt um die entsprechenden Heuristiken zu erstellen und das liegt dir in Videos leider nicht vor. Das Einzige was dir heutige Codecs da liefern könnte sind die Bewegungsvektoren.
 
  • Gefällt mir
Reaktionen: Unnu, Grundgütiger, stevefrogs und 4 andere
Zurück
Oben