Knuddelbearli
Commodore
- Registriert
- Nov. 2009
- Beiträge
- 4.538
Nvidia bewirbt die GeForce RTX 3090 als „8K DLSS Grafikkarte“. Anspruchslose Titel kann die Grafikkarte nativ in dieser Auflösung berechnen
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
.Sentinel. schrieb:Theoretisch ist dem Prinzip überhaupt keine Grenze gesetzt.
Es kommt nur darauf an, wie schnell das Sampling des Bildes stattfinden kann.
Du kannst Die Auflösung auch auf 1x1 Pixel runterbringen und dann Quasi wie beim alten Röhrenmonitor das Bild im Scanline- Verfahren wieder auf die gewünschte Zielauflösung bringen.
Irgendwann wirds halt einfach ineffektiv, weil die darin involvierten Einheiten die Rechenkraft nicht mehr zur Verfügung stellen können, um eine entsprechend schnelle und vor allem auch konsistente bzw. bewegungsstabile temporale Akkumulation der Daten gewährleisten zu können zudem steigt bei alledem natürlich auch die Fehleranfälligkeit.
Und das ist auch nur der Schritt, bevor das ganze dann in den convonutional autoencoder kommt.
KlaraElfer schrieb:Wie kann Nvidia ein WQHD Bild mittels Deep Learning SS auf 8K hochskalieren?
Rekonstruktion schön und gut, aber fehlen da nicht schlicht und ergreifend einfach die Pixel um das 16K Grundmaterial demenstprechend abzubilden und zu rekonstruieren?
Marflowah schrieb:EDIT: Meine persönliche Grenze liegt ja unterhalb der 300 Watt TDP. Deshalb ärgert mich diese Entwicklung besonders.
Gerade dort ist das ein absoluter Gamechanger. In VR arbeitet man mit aberwitzigen Auflösungen und Supersampling- Faktoren, um eine saubere Quantisierung in dem stark verzerrten Eingangsbild zu erhalten.Toni_himbeere schrieb:Hier Scheint ja Faktor8 genutzt zu werden. Ich frag mich das auch eher wegen vr... wenn man da dann sagen wir 2x 1080p rechnet und über dlss auf bis zu 8k Hochskalieren kann, mit sinnvollen Ergebnissen wäre das ja schon ein krasser Sprung.
Teralios schrieb:Die Bildqualität bei DLSS2.0 ist auch schwankend.
Teralios schrieb:Das grundsätzliche Ergebnis ist besser als von DLSS1.0, es ist aber eben weiterhin eine Spanne, nun von: Leicht schlechter bis leicht besser.
Teralios schrieb:Ich muss aber wieder sagen: DLSS ist in meinen Augen, wenn auch nicht unbedingt ab 4K, spätestens jedoch ab 8K eine Notwendigkeit um die auch AMD nicht herumkommen wird.
Teralios schrieb:Entschuldige bitte, ich bin heute latent gereizt, weil eigentlich alles an Informationen vorhanden ist, damit man eben nicht ständig hier rum Rätseln muss und ebenso muss man nicht ständig Aussagen auf die Goldwaage legen. Das nervt ein wenig.
DarkerThanBlack schrieb:Oha... Die Töpfe werden schon einmal heiß gemacht. Leider wegen Speichermangel absolut nicht mein Fall. Sorry...
tochan01 schrieb:weis ich aber es ist meiner meinung nach "gewollt" tot.
Weil man der "KI" bei gebracht hat Daten zu interpolieren aus verschiedenen Quellen. So gibt es ja ein teil der Daten, die unabhängig von der Auflösung, vorliegen mit der die KI gefüttert wird.KlaraElfer schrieb:Wie kann Nvidia ein WQHD Bild mittels Deep Learning SS auf 8K hochskalieren?
.Sentinel. schrieb:Du samplest das Bild einfach noch mehr. Kann durchaus sein, dass da dann die Latenzen minimal weiter ansteigen werden (2-3 Frames)... und der Fehlerfaktor wird wahrscheinlich ansteigen.
.Sentinel. schrieb:Wie ich schon öfter erklärt habe, ist ja die Input- Auflösung bei dem Verfahren letztenendes Egal.
Teralios schrieb:So gibt es ja ein teil der Daten, die unabhängig von der Auflösung, vorliegen mit der die KI gefüttert wird.
ShiftyBro schrieb:Ich bin mir ziemlich sicher, dass das so sein wird. Ich habe nämlich eine Vega 56 Red Dragon hier seit Jahren am werkeln, das ist eine dieser Vega Karten, die eine sehr kurze Platine haben (damals durch den HBM Speicher möglich) und wo auch ca. 1,5 der drei Lüfter Luft durch die Lamellen in den oberen Teil des PCs pustet. Die Rückseite sieht dann so aus:
Anhang anzeigen 962980
Das kühlt die GPU tatsächlich recht effizient, aber bei der CPU-Temperatur lässt sich ein gut sichtbarer Anstieg durch dieses Desgin erkennen. Da muss man dann oben für gute Entlüftung sorgen um das in den Griff zu bekommen (z.B. ordentliche Lüfter am Deckel).
GERmaximus schrieb:nun, übliche Modelle pusten die gesamte Hitze ins Gehäuse. Hier wird nur grob die Hälfte ins Gehäuse gepustet.
ich erwarte hier im gesamten niedrigere Temperaturen im Gehäuse. Zumindest bei der 3080
Es wird interessant zu sehen, ob NV der Geschichte irgendwie mit ner eigenen inoffiziellen Implementierung mittels NV-Api vorgreift oder in der Zwischenzeit sowas ähnliches wie HBCC braucht um z.Bsp. die 8GB-3070Teralios schrieb:DirectStorage wird auch nicht mit FL12_3 oder später eingeführt, da DirectX 12.2 und ebenso das FL12_2 sich auf Direct3D sowie ggf. auf Direct2D beziehen. Wenn man von DirectX12 spricht, meint man aber in der Regel Direct3D 12. FL12_2 beinhaltet natürlich nur Features die für das Rendering relevant sind, so wie DXR1.1 eben eine "Erweiterung" der Direct3D 12 API ist.
DirectStorage wiederum ist eine NEUE API in der Welt von DirectX als ganzes, da DirectStorage aber nicht direkt den Rendering-Pfad der ganzen API-Sammlung betrifft, ist es auch keine Funktion von DX12.2 aka DX12 Ultimate. Gleichzeitig ist es aber denoch ein Feature der neuen DX-Version, weil es als API Einzug hält.
eXtra schrieb:Sind es 5 °C oder doch 10 °C? Ich hoffe CB kann das testen.
Mcr-King schrieb:Hust dafür kommt doch in ca. 4 Monaten was. 30er Ti
eXtra schrieb:Nur wird ja ganz gezielt warme Luft des GPU-Kühlers in Richtung der CPU geblasen.
xexex schrieb:Wie willst du das testen? Die Lösung ist abhängig davon wie das sonstige Kühlsystem aussieht und ist von Gehäuse zu Gehäuse komplett verschieden.
xexex schrieb:Wenn du es genauer nimmst, wird gezielt nach oben geblasen und nicht in Richtung des CPU Kühlers. Entweder saugt dort nun ein großer CPU Lüfter die Luft an, die Wärme wird über ein Mesh im "Deckel" rausgeführt oder es sitzen oben Lüfter die diese Wärme abführen.
Das ist immer eine Kosten-/Nutzen- Rechnung. Der Lag könnte steigen, wenn mehr Bilder im Backbuffer gelagert werden und eine verzögerte Bildausgabe zu Gunsten der Genauigkeit angepeilt wird.KlaraElfer schrieb:Aber das würde doch dem Performancenutzen zuwiderlaufen, weil auch der Inputlag ansteigt.
Allerdings wäre die Glättung des Bildes wohl über jeden Zweifel erhaben.
Mit DLSS Performance samplest Du das Bild deutlich niedriger. Somit fällst Du unter die native Anzahl an Pixelinformationen- Auch wieder mit zunehmendem Fehlerfaktor. Balanced zielt wiederum auf eine 1:1 Abbildung ab.Wenn das egal wäre, sähe DLSS Performance nicht deutlich schlechter aus als Quality.
Wenn die Vorhersagen und Berechnungsgenauigkeiten angestiegen sind, kann auch ein 9- Faches Hochrechnen /Akkumulieren funktionieren.Also ich bleibe dabei, mit dem 8K DLSS und 9x hochrechnen betreibt Nvidia üble Propaganda, das funktioniert nicht und ist wohl alleine dem geschuldet, dass man mit RT höchstens in nativer WQHD Auflösung noch genug Performance liefern kann.
Das ist wohl so, "aber" die Grafik in 4k sieht einfach "um Welten" besser aus. Nachdem ich 1x einen 4k Monitor hatte, werde ich nie wieder auf eine niedrigere Auflösung zurückgehen.KlaraElfer schrieb:Aber dafür ist doch das Forum auch da, ansonsten könnten wir die Kommentarfunktion doch auch deaktivieren, wenn jeder über alles informiert wäre.
eXtra schrieb:Man kann ja trotzdem ein 08/15-Gehäuse hernehmen mit standardmäßiger Lüfterbestückung