News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

Wadenbeisser schrieb:
Willst du das bestreiten?
Lies nochmal meinen Beitrag?!
Wadenbeisser schrieb:
Wie es dann hübsch gemacht wird ist dafür ziemlich unerheblich
Eben nicht! Das ist doch genau der Punkt.
Klar kannst du auch auf nem UHD-Monitor in 1080p zocken. Da wird auch hochskaliert. Würde das irgendjemand ernsthaft mit DLSS vergleichen? Es ist doch klar, dass die Komplexität von DLSS einfach auf einem anderen Niveau liegt und trotzdem ist es noch echtzeitfähig. Mit welchem anderen Upscaling-Filter oder sogar -Algorithmus geht das?

Wie gesagt, ich kann nicht beurteilen, ob DLSS in der Form insgesamt eine gute und sinnvolle Technologie ist, aber zu behaupten, es sei "auch nur Upscaling" ist wie gesagt polemisch verkürzend. Weil es eben deutlich komplexer und entsprechend qualitativ hochwertiger als bisherige Echtzeitalgorithmen ist.
 
  • Gefällt mir
Reaktionen: Strubbel99
@Jesterfox

Das ändert aber nunmal nichts daran das es ein Verbrennungsmotor ist weil die grundlegene Arbeitsweise gleich ist aber genau das wird bei der Upscaling vs. DLSS Diskussion so verbissen bestritten weil dieses grundlegene Funktionsprinzip ja etwas anders erreicht wird als sonst. :rolleyes:
Um nichts anderes dreht sich die nutzlose "Diskussion".
 
foo_1337 schrieb:
@.Sentinel. könnte hier aber sicher was beitragen

Ich verlinke mich dazu selbst:
https://www.computerbase.de/forum/t...ndlich-was-moeglich-ist.1943343/post-24079900

DLSS2.0 lässt die Texturen unberührt in nativer Auflösung. Sehen Texturen anders aus, wird absichtlich nachgeschärft oder es ist schlichtweg nicht nach Norm integriert.

TigerNationDE schrieb:
Was ich verstehe is, das wir durch künstliche Intelligenz etwas erschaffen was in der realität nicht mehr von der Karte verarbeitet wird.
Die KI in DLSS2.0 arbeitet anders. Da wird nichts künstlich erschaffen, sondern temporale Positionskorrekturen durchgeführt und die KI dann anschließend für Mustererkennung in Sachen Antialias verwendet.

Ergo kann ich einen Benchmark mit DLSS machen und verkaufe dann die Karte natürlich als mega tolle Karte mir XY% Leistungszuwachs, dabei generiert die Karte als solches diese Rohleistung gar nicht.
Das ist nicht richtig. Das wird alles durch Rohleistung generiert, oder glaubst Du , dass diese unfassbaren Rechenkapazitäten zum Spaß auf den Karten sind:

1603300562878.png


Jeder Bildpunkt des DLSS Bildes ist "sauber errechnet" und im Gegensatz zum nativen Bild mit steigender Qualitätsstufe sogar gesupersamplet. DLSS behält nur Pixel bei, die nicht verworfen werden müssen und spart sich somit viele Berechnungen, die dann wieder zur Generierung zusätzlicher Samples genutzt werden kann.

Sorry, aber selbst als in 90% der Fälle nVidia Supporter finde ich diese Entwicklung nicht gut.
Setz Dich mit dem Funktionsprinzip auseinander und dann schüttelst Du den Kopf, wie ineffektiv man Ohne DLSS versucht hat die Rasterpixel auf die Zielauflösung zu quantisieren.

Man wäre blöd eine völlig unterlegene und ineffektive Technik weiterzubetreiben, wenn es das ganze in schneller, besser und energiesparender gibt.

Ich bin auch für technischen Fortschritt, aber dann sollte man diesen Transparent gestalten. Und nicht sagen "Oh hier, wir haben die geilste Karte, die schafft in Spiel XY mit DLSS XY% mehr FPS.
Naja- Was sollen sie denn sonst sagen, wenn das die Realitäten abbildet?

Etwa: Wir haben tflops weise Zusatzrechenleistung geschaffen und setzen sie jetzt nicht ein, um die FPS nach oben zu treiben? Das ist doch völlig abwegig.

Summerbreeze schrieb:
Wer braucht schon ein "natürliches Bild", wenn er ein verändertes mit >144 FPS haben kann.
Kann man genauso fragen.
Dann müsste dafür gesorgt werden, das nicht irgendwelche Details hinzu gezaubert werden.
Es wird nichts hinzugezaubert. Man errechnet nur die Pixel, die weiter nutzbar sind nicht noch ein weiteres mal sondern nutzt die Rechenleistung, um die Auflösung für die interne Berechnung zu erhöhen.

Wadenbeisser schrieb:
Hau in entsprechenden Spielen die Render Skalierung z.B. auf 200% und ziehe in der heutigen Zeit z.B. nochmal einen entsprechenden Schärfefilter drüber. Schon kommst du auf den gleichen Leistungsgewinn, welcher zwar nicht auf die gleiche Qualität kommt aber dafür unabhängig vom GPU Hersteller funktioniert.
Die Technik und die zu erwartende Qualität liegt aber prinzipbedingt immer mal mehr und mal etwas weniger deutlich unter dem Original.

Wege um auf die gleichen Leistungsgewinne zu kommen gibt es also genug, Nvidia geht mit DLSS nur einen etwas anderen Weg der wie so oft auf die eigene Hardware beschränkt ist und wird schon deshalb eine ähnliche Marktdurchdringung erreichen wie all die anderen Ansätze davor.
Sie gehen einen komplett neuen Weg und es ist eigentlich erstaunlich, wie einfach die Idee dahinter doch ist.
Einfach die Pixel, die schon berechnet sind weiterverwenden und neue Pixel zur Qualitätssteigerung hinzufügen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, Strubbel99 und foo_1337
foo_1337 schrieb:
Die Frage war ja, ob DLSS die Texturen des jeweiligen Spiels trainiert bekommt oder nicht. Die Antwort ist nein, es werden "generische" Bilder genommen, die dem neuronalen Netz in niedriger und sehr hoher Auflösung vorgelegt werden. Daraus trainiert das Netz. Ubisoft z.B. muss nicht vorab die Texturen von Watchdogs Legion liefern, das ist nicht notwendig.

Nene, meinte das anders. Mir ist klar, dass DLSS 2.0 nicht mehr fuer jedes Spiel trainiert werden muss. Was ich meinte wie es aussieht wenn man in seinem Testset gegen 16k validiert. Also nicht 16k Training vs 4k nativ, sondern 16k Training vs 16k nativ.

foo_1337 schrieb:
Naja, die Analysen sind meist mit einer guten Portion subjektiver Meinung. Leider teilweise auch mit Bias, wie man z.B. an dem Death Stranding Luxx Artikel gesehen hat. Dieser wurde dann ja korrigiert, nachdem sich einige beschwert hatten.

Naja, "korrigiert". Es war halt erst die subjektive Meinung vom Autor, dann kam die subjektive Meinung von den Lesern hinzu. Es wurde dann auf die subjektive Meinung der Leser abgeaendert. Da es nicht technisch ist, ist da wenig zu korrigieren, sondern einfach nur Meinungsaenderung.

foo_1337 schrieb:
Der Artikel hier ist so schlecht nicht, geht aber leider auch nicht gerade in die (technische) Tiefe:
https://www.techspot.com/article/1992-nvidia-dlss-2020/

Naja, es ist auch "wir schauen drauf und geben unseren Senf ab". Also wirklich Bild zu Bild Analyse mit vordefinierten Metriken, bzw. das ganze auch im Video, etc. ist nicht da. Klar, es kostet Zeit und Expertise. Beides duerfte schlicht nicht vorhanden sein und fuer die meisten reicht eine subjektive Einschaetzung.

foo_1337 schrieb:
@.Sentinel. könnte hier aber sicher was beitragen

Ah, er hatte schon seine Meinung dazu. Leider technisch nicht besser als vorher.

foo_1337 schrieb:
Das Ding ist halt, dass ja noch nichtmal erwartet wird, dass die Texturen besser als nativ aussehen. Pari würde ja schon reichen, dafür aber der FPS Boost. Und so wird halt RTRT bei guten, bzw. besseren Frameraten als nativ ohne RT möglich, und auch 8k rückt plötzlich in greifbare Nähe.

Wenn man boese ist koennte man auch einfach sagen Nvidia soll effizientere RT Hardware abliefern, bzw. allgemein effizientere Hardware. ;) Als es angekuendigt wurde war klar, dass es die Kruecke fuer RT ist, da RT ohne DLSS eben zum scheitern verurteilt waere. Und RT als Argument war wohl noetig um die Preise zu rechtfertigen. Was mich an DLSS eher stoert ist, dass es als heiliger Gral angepriesen wird und man meint es kostet nichts. Klar kostet es was, Chipflaeche. Derzeit noch weniger als normale Skalierung, aber gut, die hat Nvidia auch verkackt. Im Endeffekt wird meist nur das Marketing wiederholt. Ja, es ist interessant es so zu machen, aber es ist garantiert nicht der heilige Grahl. Mal davon abgesehen, dass man natuerlich erstmal wieder sein eigenes Sueppchen kocht anstatt direkt mit, zum Beispiel, Microsoft zusammenzuarbeiten.
 
Kacha schrieb:
Wenn man boese ist koennte man auch einfach sagen Nvidia soll effizientere RT Hardware abliefern, bzw. allgemein effizientere Hardware. ;) Als es angekuendigt wurde war klar, dass es die Kruecke fuer RT ist, da RT ohne DLSS eben zum scheitern verurteilt waere. Und RT als Argument war wohl noetig um die Preise zu rechtfertigen. Was mich an DLSS eher stoert ist, dass es als heiliger Gral angepriesen wird und man meint es kostet nichts. Klar kostet es was, Chipflaeche.
Was ist denn die Alternative? Du kannst die Physik nicht einfach so aushebeln, zumindest nicht heute und der Stromzähler freut sich auch, wenn er weniger Umdrehungen machen muss. Und die Tensor Fläche kann ja eben auch für andere ML Dinge genutzt werden. Die Karten sind ja eben nicht nur für Gamer interessant.
Ich komme aus einer anderen Welt, das Desktop Zeug interessiert mich einfach nicht wirklich. Das hier jetzt finde ich jedoch durchaus Spannend. In meiner Welt hat man bis vor wenigen Jahren noch Unsummen an Geld für Storage Systeme, Switches mit Custom ASICs etc. ausgegeben. Das sind mittlerweile alles Dinosaurier, die es natürlich immer noch gibt, aber die Tage sind gezählt. In meiner Welt ist mittlerweile alles commodity x86, selbst bei Switches und die Software macht den Rest. Nix mehr mit irgendwelchem ASIC RAID Mist. Distributed und via Erasure Coding sowie intelligenten Dedupe Algorithmen. Alles in Software. Die Konservativen haben das vor ein paar Jahren auch nicht wahr haben wollen und Zweifler gibt es auch noch heute. Das sind dann halt die IT Leiter/CIOs, die Mitte/Ende der 50er sind und noch nen haufen Geld dafür auslegen. Ich setze auf Software defined everything.
Damals konnte man ja von Glück reden, wenn es FPGA Patches gegen Bugs gibt, oft war das nicht möglich. Siehe das Desaster mit Apples T2 aktuell (@Chismon siehste, der Apple Fanboy kann auch kritisch sein ;) )
Das ist auch nVidia klar (siehe auch Tesla) und daher investieren sie genau da massiv. AMD hat hier schlicht zu wenig Research Kapazitäten und auch zu wenig Erfahrung. Daher bin ich da skeptisch, aber wir werden sehen.

Kacha schrieb:
Mal davon abgesehen, dass man natuerlich erstmal wieder sein eigenes Sueppchen kocht anstatt direkt mit, zum Beispiel, Microsoft zusammenzuarbeiten.
Klar machen sie das. Ist ja zunächst ein USP und dazu kommt, dass eine Zusammenarbeit mit einem Dritten bedeutet erstmal Verlangsamung im Sinne von Entwicklungszeit. Ich kritisiere an nVidia jedoch, dass sie vorschnell DLSS 1.0 rausgehauen haben und erst mit 2.0 abgeliefert haben
 
.Sentinel. schrieb:
Sie gehen einen komplett neuen Weg und es ist eigentlich erstaunlich, wie einfach die Idee dahinter doch ist.
Einfach die Pixel, die schon berechnet sind weiterverwenden und neue Pixel zur Qualitätssteigerung hinzufügen.
Was soll daran ein komplett neuer Weg sein?
Sie machen aus klein groß um Rechenleistung zu sparen und hübschen das Ergebnis auf bevor es ausgegeben wird.
Der Weg ist weitestgehend der gleiche, lediglich dessen Pflasterung hat sich verändert.
 
Wadenbeisser schrieb:
Sie machen aus klein groß um Rechenleistung zu sparen und hübschen das Ergebnis auf bevor es ausgegeben wird.
Der Weg ist weitestgehend der gleiche, lediglich dessen Pflasterung hat sich verändert.
So kann man Innovation auch klein reden. Und genau das kritisiere ich an deiner Argumentation. Klar ist das Prinzip "nur" Upscaling. Aber das WIE ist das Entscheidende.
Aber wenn's so easy ist, können wir uns gerne zu einem Hackathon über 2 Wochen treffen. Mit bestehenden Libraries, die frei verfügbar sind, kriegen wir da schon was hin. Die Frage ist halt, wie es am Ende aussieht. Aber ist ja egal, hauptsache Upscaling :) waifu2x als Basis... wird schon nicht so schwer sein, was für Videos funktioniert, muss ja auch irgendwie für Spiele funktionieren. Konzentrieren wir uns halt erstmal auf Anime Spiele ;) Blöd halt, dass dann AMD wieder wegen CUDA außen vor ist.
 
Wadenbeisser schrieb:
Was soll daran ein komplett neuer Weg sein?
Der komplett neue Weg liegt im Rastern bzw. Sampling der Pixel selbst inkl. geometrisch und AI gestützter Motion compensation.

Sie machen aus klein groß um Rechenleistung zu sparen
Sie machen aus vielmal klein und unter Beibehaltung der schon gewonnenen Informationen ein Bild mit mehr Informationsgehalt als ein normal gerastertes "großes" Bild.

und hübschen das Ergebnis auf bevor es ausgegeben wird.
Und lassen es durch eine AI gestützte Mustererkennung laufen, die quasi ein perfektes Antialias hinlegt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337
@foo_1337

Was soll das mit klein reden zu tuen haben?
Es ist nur eine nüchterne Betrachtung der Arbeitsweise ohne das hoch gehypte Marketing Zeug.

An der Stelle frage ich mich dann immer was so wahnsinnig schrecklich daran sein soll das es sich um einen Upscaler mit der derzeit besten Ergebnis in der Spiele Welt handelt das man es so künstlich hoch reden muss das es auf einmal was komplett anderes sein soll. :rolleyes:
 
Wadenbeisser schrieb:
Es ist nur eine nüchterne Betrachtung der Arbeitsweise ohne das hoch gehypte Marketing Zeug.
Naja, das Marketing interessiert mich nicht, das ist nicht meine Welt, im Gegenteil ;) Ich bin Techie und finde daher den technischen Part äußerst interessant. Und im Gegensatz zu vielen anderen Dingen, die in den letzten Jahren gekommen und gegangen sind, finde ich das wirklich mal ne Innovation.
 
@foo_1337

Ähnlich innovativ wie die beschleunigte Physik per GPU oder Zusatzkarte eben aus der man ebenfalls viel hätte machen können daber dafür benötigt es nunmal die Verbreitung das es von der ganzen Kundschaft genutzt werden kann.
Da nvidia aber den gleichen Weg wie damals geht um ihre Karten zu pushen ist absehbar das auch dieses Feature dafür an die Wand gefahren wird.
 
Wadenbeisser schrieb:
An der Stelle frage ich mich dann immer was so wahnsinnig schrecklich daran sein soll das es sich um einen Upscaler mit der derzeit besten Ergebnis in der Spiele Welt handelt das man es so künstlich hoch reden muss das es auf einmal was komplett anderes sein soll. :rolleyes:
Weil in den Köpfen der Leute eben die Vorstellung eines klassischen Upscalings verwurzelt ist.
Diese kann aber bei Weitem nicht mit den Möglichkeiten von DLSS, welches nicht nur Upsampled sondern Supersampled, mithalten.
Ergänzung ()

Kacha schrieb:
Ah, er hatte schon seine Meinung dazu. Leider technisch nicht besser als vorher.
Na dann Kacha, lass mal hören, wie DLSS genau funktioniert. Ich höre zu und lerne....
Ich habs schon implementiert (UE4)
 
  • Gefällt mir
Reaktionen: foo_1337
Chismon schrieb:
Undervolting wollte ich eigentlich nicht aufwaendig betreiben ... hm?
Sieh's Positiv, wenn das so ählich simpel klappt wie mit Vega, is da kein großer Aufwand dahinter. :)
 
  • Gefällt mir
Reaktionen: Chismon
@.Sentinel.

Nichts für ungut aber kaum jemand hat Ahnung von der dahinter liegenden Technik der verschiedenen upscaling Technologieen oder interessiert sich ernsthaft dafür.
Am Ende geht es dann nur darum was es macht und nicht wie und genau hier wird diese sinnlose Diskussion so richtig kontraproduktiv.
 
Ich dachte wir sind hier ein einem Tech Forum. Aber klar, ist leichter mit Specs aus Datenblättern Autoquartett zu spielen, als über neuronale Netze zu diskutieren.
 
  • Gefällt mir
Reaktionen: Unnu
Wadenbeisser schrieb:
An der Stelle frage ich mich dann immer was so wahnsinnig schrecklich daran sein soll das es sich um einen Upscaler mit der derzeit besten Ergebnis in der Spiele Welt handelt das man es so künstlich hoch reden muss das es auf einmal was komplett anderes sein soll. :rolleyes:
Ich glaube, weil es sich bei manchen so liest wie es sei "halt ein weiterer schnöder Upscaler".
Natürlich ist es ein Upscaler, aber halt kein "schnöder".

Für mich liegt der Mehrwert dieser Verfahren in der Tatsache, dass es für die Übergangsphase, bis "alles RT" ist, den Nutzungszeitraum meiner Hardware deutlich verlängern kann.

Ich glaube - und hoffe - aber auch, dass das proprietäre DLSS nicht dauerhaft Erfolg haben wird, sondern von einem allgemeinen, "offenen" Standard abgelöst wird (analog GSync/VRR).

Aus Sicht von NVidia aber trotzdem ok. Sie haben durch die Grundlagenforschung und Implementierung wertvolle Erfahrung aufgebaut und mindestens zwei Grafikkartengenerationen "gepushed".
 
ComputerJunge schrieb:
Ich glaube - und hoffe - aber auch, dass das proprietäre DLSS nicht dauerhaft Erfolg haben wird, sondern von einem allgemeinen, "offenen" Standard abgelöst wird (analog GSync/VRR).
Du kannst DLSS nicht einfach ablösen, da der Training Teil ein maßgeblicher Anteil ist. Was ich mir eben vorstellen kann ist, dass es eine DX Implementierung gibt, an die nVidia andockt, ähnlich wie mit RT / DXR. Dann würde zwar auch die Konkurrenz enabled werden, die besten Ergebnisse würden aber ne ganze Zeit lang trotzdem von nVidia kommen. Denn die Arbeit hinten dran muss ja nach wie vor gemacht werden.
 
foo_1337 schrieb:
Was ist denn die Alternative? Du kannst die Physik nicht einfach so aushebeln, zumindest nicht heute und der Stromzähler freut sich auch, wenn er weniger Umdrehungen machen muss.

Klar, es hilft, aber man soll nicht so tun als wuerde es keinen Strom kosten.

foo_1337 schrieb:
Und die Tensor Fläche kann ja eben auch für andere ML Dinge genutzt werden. Die Karten sind ja eben nicht nur für Gamer interessant.

Ist mir durchaus bewusst. Ich habe mir auch die 3090 aufgrund ML angeschaut. Sehr gehyped bin ich allerdings nicht. Ja, sie bietet mehr Leistung, aber genauso braucht sie dafuer auch mehr Energie. Ja, die Tensor Cores wurden verbessert, aber die Anzahl wurde auch verringert. Da waere mehr gegangen und das stoert mich. Gerade Performance/Verbrauch ist enttaeuschend. Mal abgesehen vom Preis, der ist auch Irrsinn. Die 24GB sind toll, aber der Fokus auf GDDR6X auf Teufel komm raus scheint nicht ganz so prickelnd zu sein. Das einzige was ich mir vorstellen kann waere eine 3090 mit niedrigerem Powertarget um nicht zu kochen, aber laut CB hat sie dann Frametime Drops in Spielen...

foo_1337 schrieb:
In meiner Welt ist mittlerweile alles commodity x86, selbst bei Switches und die Software macht den Rest.

Selbst Switches sind virtualisiert? NFV? Wieviel Leistung verliert ihr da? Bzw. in welchen Bandbreiten bewegt ihr euch? Mein letzter Stand war, dass gerade Switches und richtig hoher Throughput noch Probleme bereiten und man nicht komplett um spezialisierte Hardware rumkommt.

Klar, mit SDN natuerlich und Routen werden zentral vergeben. Aber das switching selber war noch spezialisierte Hardware. Gerade 100 GB/s und 400 GB/s duerften keinen Spass virtualisiert machen.

foo_1337 schrieb:
Das ist auch nVidia klar (siehe auch Tesla) und daher investieren sie genau da massiv. AMD hat hier schlicht zu wenig Research Kapazitäten und auch zu wenig Erfahrung. Daher bin ich da skeptisch, aber wir werden sehen.

Ganz ehrlich, bei AMD bin ich auf die naechste professionelle Loesung gespannt. Das Patent/Paper das ich vorhin meinte zeigt da einen heftigen Performancesprung in Compute und gerade Deep Learning. Klar hat Nvidia in Datenzentren noch den Vorsprung, sie haben auch ein gutes Softwareoekosystem mit CUDA und cuDNN. AMD hat mittlerweile ROCm auf einem guten Stand. Da wuerde ich lieber einigen Frameworks in den Arsch treten die null Interesse zeigen. PlaidML mit Backend Tensorflow und Pytorch bekommt es mit AMD hin, aber Tensorflow und Pytorch direkt? Ne, das ist zuviel, bitte in Haeppchen fuettern. Fuer Tensorflow gibt es aber immerhin ein tensorflow-rocm Python package.

foo_1337 schrieb:
Klar machen sie das. Ist ja zunächst ein USP und dazu kommt, dass eine Zusammenarbeit mit einem Dritten bedeutet erstmal Verlangsamung im Sinne von Entwicklungszeit. Ich kritisiere an nVidia jedoch, dass sie vorschnell DLSS 1.0 rausgehauen haben und erst mit 2.0 abgeliefert haben

Klar ist es das, aus Nvidias Firmensicht macht das Sinn. Aber Huang kann noch soviel meinen, dass man ja bloed ist wenn man jetzt keine RTX Karte kauft. Die Mehrheit hat es eben gemacht und sich nicht um ihn geschert. Allerdings fuehren sie mit ihrem Weg eben nicht dazu, dass es einer grossen Gruppe zugefuehrt wird. Das macht, ironischerweise, erst AMD mit Microsoft und Sony in Form der Konsolen. Vorzeigespiele sind schoen und gut, aber reduziert die Gruppe nochmal. Und ja, DLSS 1.0 haetten sie so einfach nicht releasen sollen. DLSS 2.0 war noetig und erst wenn es im Treiber ist und nicht extra ins Spiel/Engine integriert werden muss macht es dann wirklich Sinn. Und ab dem Zeitpunkt wird es eh hinter einer standardisierten API sein. Man haette den Quark davor wirklich nicht gebraucht.
 
foo_1337 schrieb:
Du kannst DLSS nicht einfach ablösen, da der Training Teil ein maßgeblicher Anteil ist. Was ich mir eben vorstellen kann ist, dass es eine DX Implementierung gibt, an die nVidia andockt, ähnlich wie mit RT / DXR.
Ich schrub ja bewusst nichts von einfach. ;-)

In irgendeiner Form "migriert" werden müsste natürlich. Ob das jetzt über ein "API-Adapter" erfolgt oder anders, kann ich aber nicht einmal ahnen, denn ich bin in den Details ja ahnungslos.

Aber ich bin sicher, dass man diese Option bei Nvidia mit eingeplant und vorgesehen hat.
 
Zurück
Oben