Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

Nvidia bewirbt die GeForce RTX 3090 als „8K DLSS Grafikkarte“. Anspruchslose Titel kann die Grafikkarte nativ in dieser Auflösung berechnen
 
.Sentinel. schrieb:
Theoretisch ist dem Prinzip überhaupt keine Grenze gesetzt.
Es kommt nur darauf an, wie schnell das Sampling des Bildes stattfinden kann.

Du kannst Die Auflösung auch auf 1x1 Pixel runterbringen und dann Quasi wie beim alten Röhrenmonitor das Bild im Scanline- Verfahren wieder auf die gewünschte Zielauflösung bringen.

Irgendwann wirds halt einfach ineffektiv, weil die darin involvierten Einheiten die Rechenkraft nicht mehr zur Verfügung stellen können, um eine entsprechend schnelle und vor allem auch konsistente bzw. bewegungsstabile temporale Akkumulation der Daten gewährleisten zu können zudem steigt bei alledem natürlich auch die Fehleranfälligkeit.

Und das ist auch nur der Schritt, bevor das ganze dann in den convonutional autoencoder kommt.

Schon klar das es am Ende in einem Rahmen sein sollte wo man mit nutzbaren Eegebnissen rechnen kann.

Hier Scheint ja Faktor8 genutzt zu werden. Ich frag mich das auch eher wegen vr... wenn man da dann sagen wir 2x 1080p rechnet und über dlss auf bis zu 8k Hochskalieren kann, mit sinnvollen Ergebnissen wäre das ja schon ein krasser Sprung.

Danke für die Antwort.
 
  • Gefällt mir
Reaktionen: .Sentinel.
KlaraElfer schrieb:
Wie kann Nvidia ein WQHD Bild mittels Deep Learning SS auf 8K hochskalieren?
Rekonstruktion schön und gut, aber fehlen da nicht schlicht und ergreifend einfach die Pixel um das 16K Grundmaterial demenstprechend abzubilden und zu rekonstruieren?

Du samplest das Bild einfach noch mehr. Kann durchaus sein, dass da dann die Latenzen minimal weiter ansteigen werden (2-3 Frames)... und der Fehlerfaktor wird wahrscheinlich ansteigen.
Wenn man sich dann wiederum die Pixeldichte von 8k und die Sehfähigkeit des Auges von Pixel Pro Grad ansieht, werden diese Fehler nicht wahrnehmbar sein, zumal ja auch noch die KI im Nachgang über das Bild wischt und Artefakte beseitigt.

Wie ich schon öfter erklärt habe, ist ja die Input- Auflösung bei dem Verfahren letztenendes Egal.

Du kannst ein Poster entweder mit einer Hochauflösenden Kamera 1x Fotografieren, erhältst aber genau das gleiche Ergebnis, wie wenn Du alle Bereiche des Posters dann in kleineren Abschnitten mit einer niedrig aufgelösten Kamera fotografierst und dann die Einzelteile zu einem großen zusammensetzt.

Wenn Du nur kleinteilig genug mit einer niedrigauflösenden Kamera fotografierst, das damit aber sehr oft tust, kann eben sogar eine höhere Auflösung im Zielbild entstehen, als es bei der hochauflösenden Kamera mit einer Aufnahme möglich gewesen wäre.
 
Zuletzt bearbeitet:
Marflowah schrieb:
EDIT: Meine persönliche Grenze liegt ja unterhalb der 300 Watt TDP. Deshalb ärgert mich diese Entwicklung besonders.

Gut, dass ich mit der Einstellung nich alleine bin. Ich werde ab Dezember (Weihnachtsgeld :D ) auf die Suche nach einer Grafikkarte im Bereich 600-700€ und einem 4k@144Hz Monitor gehen. Allerdings ist mein persönliches Maximum an Leistungshunger 250 Watt und ich möchte auch auf keinen Fall weniger als 10GB (GPU-)Arbeitsspeicher, eigentlich mind. 12 GB. Ich bin sehr gespannt, bei welchem Hersteller ich da überhaupt fündig werde und wer mir dann (mit Ray Tracing ON) mehr FPS/€ bietet. Bei Nvidia sieht das im Moment mau aus, aber eine 3070 Ti mit 250W und 16 GB RAM könnte genau meine Nische treffen, falls sie denn wirklich einzeln erhältlich sein wird. Die geleakte Big Navi Karte mit 16 GB RAM für 550-600€ könnte da auch mitspielen, falls die RT-Leistung konkurrenzfähig ist und auch dort die 250W nicht überschritten werden (ich muss zugeben, daran glaube ich leider erst, wenn ich es sehe - vermutlich wird die Karte auch auf 320W gesetzt).
 
  • Gefällt mir
Reaktionen: Marflowah
Toni_himbeere schrieb:
Hier Scheint ja Faktor8 genutzt zu werden. Ich frag mich das auch eher wegen vr... wenn man da dann sagen wir 2x 1080p rechnet und über dlss auf bis zu 8k Hochskalieren kann, mit sinnvollen Ergebnissen wäre das ja schon ein krasser Sprung.
Gerade dort ist das ein absoluter Gamechanger. In VR arbeitet man mit aberwitzigen Auflösungen und Supersampling- Faktoren, um eine saubere Quantisierung in dem stark verzerrten Eingangsbild zu erhalten.

Dadurch, dass Du mit DLSS2.1 jetzt eben auch dynamisch wechselnde Auflösungen zufüttern kannst, wird das ganze für VR, bei der in vielen Titeln dynamisch angepasst wird, erst ordentlich nutzbar.
 
  • Gefällt mir
Reaktionen: Toni_himbeere
Teralios schrieb:
Die Bildqualität bei DLSS2.0 ist auch schwankend.

Aber ist die Bildqualität in der nativen Auflösung mit den jeweiligen Glättungsverfahren wie beispielsweise TAA nicht auch schwankend? Du vergisst für mich an der Stelle den riesigen Performancevorteil.

Teralios schrieb:
Das grundsätzliche Ergebnis ist besser als von DLSS1.0, es ist aber eben weiterhin eine Spanne, nun von: Leicht schlechter bis leicht besser.

Zu DLSS 1.0 sind das Welten, vielleicht mit Ausnahme von FinalFantasy.

Teralios schrieb:
Ich muss aber wieder sagen: DLSS ist in meinen Augen, wenn auch nicht unbedingt ab 4K, spätestens jedoch ab 8K eine Notwendigkeit um die auch AMD nicht herumkommen wird.

Sehe ich auch anders, da man durch Auflösung an sich kaum mehr an BQ hinzugewinnen kann.
Deshalb habe ich mich seitdem, wo Deep Learning Super Sampling aufkam, sofort für einen WQHD Bildschirm mit entsprechend hohen Hertzzahlen entschieden und sehe keinen Grund mehr höhere Auflösungen zu fahren.

Auflösung ist für mich momentan ein wenig der Fortschrittkiller was Fotorealistische Grafik anbelangt.

Teralios schrieb:
Entschuldige bitte, ich bin heute latent gereizt, weil eigentlich alles an Informationen vorhanden ist, damit man eben nicht ständig hier rum Rätseln muss und ebenso muss man nicht ständig Aussagen auf die Goldwaage legen. Das nervt ein wenig.

Aber dafür ist doch das Forum auch da, ansonsten könnten wir die Kommentarfunktion doch auch deaktivieren, wenn jeder über alles informiert wäre.
 
Zuletzt bearbeitet von einem Moderator:
DarkerThanBlack schrieb:
Oha... Die Töpfe werden schon einmal heiß gemacht. Leider wegen Speichermangel absolut nicht mein Fall. Sorry...

langsam kann man das kaum noch lesen - geschweige den ertragen; "mimimi, zuwenig speicher!!"
wenn die fps hoch sind und frametimes dabei angenehm konstant bleiben, sollte niemand ein problem damit haben, wenn die gpu mal etwas in den speicher nachladen muss!
das ist etwas cpu's und gpu's in ihrer normalen operation sowieso tun.
natürlich ist "mehr" irgendwie immer besser - aber wenn das energebnis stimmt; wenn juckt's?

ich würde sagen, mal die tests abwarten; ich bin mir sicher, dass auch dies von den testern betrachtet wird - falls es zuwenig ist, kann man dies immernoch als negativpunkt zur kenntnis nehmen.
die wahrscheinlichkeit dass es im kommenden jahr varianten mit mehr speicher gibt, stehen garnicht so schlecht.
also abwarten und tee trinken.
 
tochan01 schrieb:
weis ich aber es ist meiner meinung nach "gewollt" tot.

Nein, ich hatte ich meinen persönlichen Dialog mit Lars Weinand von Nvidia dazu schon ein paar Male wiedergegeben: Die devs entscheiden, ob und wie sie nvlink unterstützen. Manche Gameeingines sprechen das an, die meisten leider nicht.

Wäre es tot, hätte die 3090 gar nicht mehr die Option.

2 verkaufte GPUs > 1 ;)
 
KlaraElfer schrieb:
Wie kann Nvidia ein WQHD Bild mittels Deep Learning SS auf 8K hochskalieren?
Weil man der "KI" bei gebracht hat Daten zu interpolieren aus verschiedenen Quellen. So gibt es ja ein teil der Daten, die unabhängig von der Auflösung, vorliegen mit der die KI gefüttert wird.

Aus solchen Daten kann man dann im "fertigen" Bild z.B. für Strukturen Vektoren aufspannen und an hand dieser Vektoren schon mal die Strukturen groß ziehen. Wenn man dann noch mit weiteren Daten wie Bewegeunsvektoren usw. agiert, kann man entsprechend Bilder vergrößern.

Es gibt eine Menge an solche Alogrithemen, die ohne KI sehr gute Ergebnisse liefern, die sind aber sehr langsam. DLSS setzt auf ein Teil dieser Algorithmen, jedoch in einer "einfacheren" Form und die KI hat gelernt die restlichen Teile dieser Algorithmen zu interpolieren.

@xexex
Jaha ... da ist es etwas ungenau was ich geschrieben habe. Aber wie immer ... wieder alles nur zu Hälfte gelesen, kein Grundlagen wissen, aber andere meinen zu belehren.

DirectStorage wird auch nicht mit FL12_3 oder später eingeführt, da DirectX 12.2 und ebenso das FL12_2 sich auf Direct3D sowie ggf. auf Direct2D beziehen. Wenn man von DirectX12 spricht, meint man aber in der Regel Direct3D 12. FL12_2 beinhaltet natürlich nur Features die für das Rendering relevant sind, so wie DXR1.1 eben eine "Erweiterung" der Direct3D 12 API ist.

DirectStorage wiederum ist eine NEUE API in der Welt von DirectX als ganzes, da DirectStorage aber nicht direkt den Rendering-Pfad der ganzen API-Sammlung betrifft, ist es auch keine Funktion von DX12.2 aka DX12 Ultimate. Gleichzeitig ist es aber denoch ein Feature der neuen DX-Version, weil es als API Einzug hält.
 
.Sentinel. schrieb:
Du samplest das Bild einfach noch mehr. Kann durchaus sein, dass da dann die Latenzen minimal weiter ansteigen werden (2-3 Frames)... und der Fehlerfaktor wird wahrscheinlich ansteigen.

Aber das würde doch dem Performancenutzen zuwiderlaufen, weil auch der Inputlag ansteigt.
Allerdings wäre die Glättung des Bildes wohl über jeden Zweifel erhaben.

.Sentinel. schrieb:
Wie ich schon öfter erklärt habe, ist ja die Input- Auflösung bei dem Verfahren letztenendes Egal.

Wenn das egal wäre, sähe DLSS Performance nicht deutlich schlechter aus als Quality.
Also ich bleibe dabei, mit dem 8K DLSS und 9x hochrechnen betreibt Nvidia üble Propaganda, das funktioniert nicht und ist wohl alleine dem geschuldet, dass man mit RT höchstens in nativer WQHD Auflösung noch genug Performance liefern kann.

Teralios schrieb:
So gibt es ja ein teil der Daten, die unabhängig von der Auflösung, vorliegen mit der die KI gefüttert wird.

Das ist mir ja völlig klar. Aber wenn meine Inputlösung um Faktor 9 geringer ist, habe ich doch zu wenig Pixel zur Verfügung um die Details aus dem Trainingsmaterial und den ja noch vorhanden vollen Texturinformationen abzubilden, auch wenn ich das Sampling hochfahre.

Mal abgesehen von der Bildruhe und Glättung, kann ich in der Entfernung liegende Objekte trotzdem nicht mehr darstellen, weil die Auflösung die nur 1/9 so hoch ist, nicht ausreicht. Wo liegt dann der Sinn?

Vermutlich ist mir das auch zu hoch, denn ab dem Zeitpunkt kann ich das Verfahren nicht mehr nachvollziehen.
 
Zuletzt bearbeitet von einem Moderator:
ShiftyBro schrieb:
Ich bin mir ziemlich sicher, dass das so sein wird. Ich habe nämlich eine Vega 56 Red Dragon hier seit Jahren am werkeln, das ist eine dieser Vega Karten, die eine sehr kurze Platine haben (damals durch den HBM Speicher möglich) und wo auch ca. 1,5 der drei Lüfter Luft durch die Lamellen in den oberen Teil des PCs pustet. Die Rückseite sieht dann so aus:

Anhang anzeigen 962980

Das kühlt die GPU tatsächlich recht effizient, aber bei der CPU-Temperatur lässt sich ein gut sichtbarer Anstieg durch dieses Desgin erkennen. Da muss man dann oben für gute Entlüftung sorgen um das in den Griff zu bekommen (z.B. ordentliche Lüfter am Deckel).

Danke für die Erläuterung. Deswegen wäre es ja auch interessant zu sehen um wie viel die CPU-Temperatur im Vergleich zu einem herkömmlichen Kühlsystem höher liegt. Das sie höher liegen wird steht wohl außer Frage. Nur wie groß der Einfluss ist wäre interessant zu wissen. Sind es 5 °C oder doch 10 °C? Ich hoffe CB kann das testen. Scheint ja eine Menge Leute zu interessieren.

GERmaximus schrieb:
nun, übliche Modelle pusten die gesamte Hitze ins Gehäuse. Hier wird nur grob die Hälfte ins Gehäuse gepustet.

ich erwarte hier im gesamten niedrigere Temperaturen im Gehäuse. Zumindest bei der 3080

Im Gehäuse selbst mag das zutreffen. Nur wird ja ganz gezielt warme Luft des GPU-Kühlers in Richtung der CPU geblasen. Das kann schon deutliche Auswirkungen auf die CPU-Temperatur haben. Ich hoffe CB wird dem im Test kurz nachgehen.
 
Teralios schrieb:
DirectStorage wird auch nicht mit FL12_3 oder später eingeführt, da DirectX 12.2 und ebenso das FL12_2 sich auf Direct3D sowie ggf. auf Direct2D beziehen. Wenn man von DirectX12 spricht, meint man aber in der Regel Direct3D 12. FL12_2 beinhaltet natürlich nur Features die für das Rendering relevant sind, so wie DXR1.1 eben eine "Erweiterung" der Direct3D 12 API ist.

DirectStorage wiederum ist eine NEUE API in der Welt von DirectX als ganzes, da DirectStorage aber nicht direkt den Rendering-Pfad der ganzen API-Sammlung betrifft, ist es auch keine Funktion von DX12.2 aka DX12 Ultimate. Gleichzeitig ist es aber denoch ein Feature der neuen DX-Version, weil es als API Einzug hält.
Es wird interessant zu sehen, ob NV der Geschichte irgendwie mit ner eigenen inoffiziellen Implementierung mittels NV-Api vorgreift oder in der Zwischenzeit sowas ähnliches wie HBCC braucht um z.Bsp. die 8GB-3070
in 4k ruckelfrei zu betreiben. Wird man beim Ram sehen.(ob ähnlich voll wie bei ner 2080s)

Oder die Guten greifen mal wieder beim Texture LOD in die Trickkiste.
Von daher bitte bei den Tests dann auch auf die Bildqualität achten.
Games mit hohem Vram-Bedarf wären natürlich ideal zum Vgl.: z.Bsp siehe Anhang(dort 2080s vs ti)
Die 2080s bricht in 4k regelrecht ein. Mal schauen, ob die 3070 Das besser kann.
 

Anhänge

  • Ram.png
    Ram.png
    27,4 KB · Aufrufe: 313
  • Vram.png
    Vram.png
    28,3 KB · Aufrufe: 314
  • WQHD vs UHD.png
    WQHD vs UHD.png
    22,9 KB · Aufrufe: 323
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ShiftyBro
eXtra schrieb:
Sind es 5 °C oder doch 10 °C? Ich hoffe CB kann das testen.

Wie willst du das testen? Die Lösung ist abhängig davon wie das sonstige Kühlsystem aussieht und ist von Gehäuse zu Gehäuse komplett verschieden.

Wärme entsteht und muss abgeführt werden, ob die Wärme nun von der Grafikkarte irgendwohin geblasen wird oder ob die Grafikkarte sich selbst mit der entstandenen Wärme grillt ändert doch an der entstandenen Wärme nichts. Wenn du den Teil weglässt, den die neuen Grafikkarten direkt aus dem Gehäuse blasen, bleibt dir am Ende genau die gleiche Wärmemenge im Gehäuse übrig die abgeführt werden muss.
 
  • Gefällt mir
Reaktionen: Lübke82
eXtra schrieb:
Nur wird ja ganz gezielt warme Luft des GPU-Kühlers in Richtung der CPU geblasen.

Wenn du es genauer nimmst, wird gezielt nach oben geblasen und nicht in Richtung des CPU Kühlers. Entweder saugt dort nun ein großer CPU Lüfter die Luft an, die Wärme wird über ein Mesh im "Deckel" rausgeführt oder es sitzen oben Lüfter die diese Wärme abführen.
 
xexex schrieb:
Wie willst du das testen? Die Lösung ist abhängig davon wie das sonstige Kühlsystem aussieht und ist von Gehäuse zu Gehäuse komplett verschieden.

Natürlich ist das von Gehäuse zu Gehäuse unterschiedlich. Man kann ja trotzdem ein 08/15-Gehäuse hernehmen mit standardmäßiger Lüfterbestückung und dann einen Test mit einer RTX 3080 Founders Edition und einer z.B. RTX 2080 (Ti) durchführen und miteinander vergleichen. Hier wäre bereits ein interessanter Erkenntnisgewinn möglich. Dass dieser sich nicht auf alle möglichen PC-Konfigurationen übertragen lässt dürfte klar sein.

xexex schrieb:
Wenn du es genauer nimmst, wird gezielt nach oben geblasen und nicht in Richtung des CPU Kühlers. Entweder saugt dort nun ein großer CPU Lüfter die Luft an, die Wärme wird über ein Mesh im "Deckel" rausgeführt oder es sitzen oben Lüfter die diese Wärme abführen.

Natürlich wird die warme Luft erstmal nach oben geblasen. Da sich oben aber i.d.R. die CPU samt Kühler befindet, wird die warme Luft zwangsläufig zumindest teilweise von der CPU angesogen. Das illustriert ja schon die Abbildung die ich in #36 angehängt habe.
 
Zuletzt bearbeitet:
KlaraElfer schrieb:
Aber das würde doch dem Performancenutzen zuwiderlaufen, weil auch der Inputlag ansteigt.
Allerdings wäre die Glättung des Bildes wohl über jeden Zweifel erhaben.
Das ist immer eine Kosten-/Nutzen- Rechnung. Der Lag könnte steigen, wenn mehr Bilder im Backbuffer gelagert werden und eine verzögerte Bildausgabe zu Gunsten der Genauigkeit angepeilt wird.
Ich hab DLSS 2.1 leider noch nicht in den Fingern gehabt.

Deswegen sind das hier Vermutungen.

Wenn das egal wäre, sähe DLSS Performance nicht deutlich schlechter aus als Quality.
Mit DLSS Performance samplest Du das Bild deutlich niedriger. Somit fällst Du unter die native Anzahl an Pixelinformationen- Auch wieder mit zunehmendem Fehlerfaktor. Balanced zielt wiederum auf eine 1:1 Abbildung ab.

Also ich bleibe dabei, mit dem 8K DLSS und 9x hochrechnen betreibt Nvidia üble Propaganda, das funktioniert nicht und ist wohl alleine dem geschuldet, dass man mit RT höchstens in nativer WQHD Auflösung noch genug Performance liefern kann.
Wenn die Vorhersagen und Berechnungsgenauigkeiten angestiegen sind, kann auch ein 9- Faches Hochrechnen /Akkumulieren funktionieren.

Ist halt dann immer die Frage, ob man dabei dann Kompromisse eingehen muss (z.B. weitmaschigeres Jittern), oder ob das alles über Rechenpower und dadurch offenere Zeitfenster wieder kompensiert werden kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82 und KlaraElfer
KlaraElfer schrieb:
Aber dafür ist doch das Forum auch da, ansonsten könnten wir die Kommentarfunktion doch auch deaktivieren, wenn jeder über alles informiert wäre.
Das ist wohl so, "aber" die Grafik in 4k sieht einfach "um Welten" besser aus. Nachdem ich 1x einen 4k Monitor hatte, werde ich nie wieder auf eine niedrigere Auflösung zurückgehen.

Wenn ich die Wahl habe höhere Auflösung mit weniger >Details, oder niedrige Auflösung mit viel Qualität, dann gehts bei mir zu mehr Auflösung.
 
  • Gefällt mir
Reaktionen: Celinna und Lübke82
eXtra schrieb:
Man kann ja trotzdem ein 08/15-Gehäuse hernehmen mit standardmäßiger Lüfterbestückung

Was ist eine standardmäßige Lüfterbestückung? Sowas?
1599300995890.png


Dürfte heutzutage der Praxis entsprechen und dafür ist die Grafikkarte optimal ausgelegt.
 
  • Gefällt mir
Reaktionen: Lübke82
Diese ganze Lüfter-Diskussion ist total dämlich. Immer hat jemand zu meckern.

Blower wollen sie nicht.. Heizt die GPU zu sehr auf.
Axial ist auch doof. Heizt das ganze Gehäuse innere.

Jetzt mit der Mischung sind sie auch nicht zufrieden..

Einfach nicht mehr darauf eingehen 🤷‍♂️
Entweder Kaufen sie sich die FE.. ne Custom oder Hauen sich nen Waterblock drauf. Jeder wie ers brauch und für richtig hält.
 
  • Gefällt mir
Reaktionen: MGFirewater, Celinna, MrNejo und 7 andere
Zurück
Oben