News Next-Gen-GPU: AMD Navi 21 „Big Navi“ offenbar mit 5.120 ALUs

tom1111 schrieb:
Ich habe ausschlieslich AMD-Grafikkarten....
Das ist meiner begrenzten Erfahrung mit Geforce Karten nach der Knackpunkt.
Der Wechsel von Radeon auf Geforce lief meist recht problemlos aber die umgekehrte Richtung führte gern zu Instabilitäten wenn man vorher nicht den Geforce Treiber sauber von der Platte putzt.
 
  • Gefällt mir
Reaktionen: Shoryuken94
Wadenbeisser schrieb:
Das ist meiner begrenzten Erfahrung mit Geforce Karten nach der Knackpunkt.
Der Wechsel von Radeon auf Geforce lief meist recht problemlos aber die umgekehrte Richtung führte gern zu Instabilitäten wenn man vorher nicht den Geforce Treiber sauber von der Platte putzt.

Aber das weiß man doch, dass der alte Treiber vorher sauber deinstalliert werden sollte, egal wie rum. Kann DDU empfehlen, dass Programm macht wirklich einen soliden Job.
 
@ragnaroek666

Jein denn wenn Karten mit GPUs beider Hersteller im System sind ist das ganz einfach nicht möglich.
Der Geforce Treiber scheint sich irgendwo ins System zu graben wodurch dier Treiber der Radeon zum Teil destabilisiert wird. Der Mist hatte mich damals 2 Tage gekostet bis ich einen brauchbaren Mittelweg gefunden hatte.
 
Wadenbeisser schrieb:
Das ist meiner begrenzten Erfahrung mit Geforce Karten nach der Knackpunkt.
Der Wechsel von Radeon auf Geforce lief meist recht problemlos aber die umgekehrte Richtung führte gern zu Instabilitäten wenn man vorher nicht den Geforce Treiber sauber von der Platte putzt.

Also dann doch NV "Schuld" - mein reden :D:daumen::evillol:
 
....ich kann mich noch gut erinnern, wie es vor dem "navi" Launch mehrere Leaks gab, nach denen eine 5700, 5700XT, 5800 und 5800XT geben sollte.
Demnach war die 5800XT so stark wie ne 2080S und sollte unter 600€ kosten. Da hiess es auch die 5700XT solle 299€ kosten.
Daraus wurde halt gaar nix.
Und die Preise der Nvidias sind ja auch so unverschämt, weil im Endeffekt eine 2060S/2070S/2080S so nahe beeinander liegen, dass man von keinem erheblichen Mehrwert sprechen kann. Es isz zu wenig Leistung um eine Auflösung höher zu gehen o.ä. und trotzdem lagen die Karten zum teil knapp 300€ auseinander.
Man hatte vorher deutlichere Abstände von 2060/2070/ und dann halt der 2080ti.
Also die nächste Generation braucht einen Leistungssprung das ist klar. Und 2080ti level sollte dann auch mal in der Mittel-Oberklasse a la 2070/S ankommen.
 
  • Gefällt mir
Reaktionen: Cpt.Willard, Shoryuken94 und CrustiCroc
.Sentinel. schrieb:

Ich hoffe mal, dass du keinen Schlaganfall zu dem Zeitpunkt hattest sondern nur etwas vergessen hast. ;)

.Sentinel. schrieb:
Wenn Du das aus Richtung der Stage betrachtest, wo die KI das Bild aufschlüsselt, dann ja- Die Farbwerte, die da analysiert und geändert werden sind, wie Du es schon sagst, eher ein educated guess.

Ging mir rein darum, denn das kam sehr kurz in deinem Post. Das eine Bild, das angibt was reingeht und was rauskommt zeigt halt recht deutlich, dass es eine Magic Black Box ist fuer die meisten. Was man davor und danach macht ist mir relativ egal, das ist ueberhaupt nicht mein Gebiet.

.Sentinel. schrieb:
Genau- Aber darauf beziehe ich mich mit meinen Aussagen garnicht. Der Ursprung der Diskussion ist ja, dass bei vielen die Meinung vorherrscht, dass man ein 520p Bild nimmt, dann die große unbekannte KI kommt und anfängt Zaunlatten, Wegdetails und was weiss ich noch alles dazu zu denken.

Das wuerde komplett keinen Sinn machen da die KI auf Pixelebene arbeitet. Hat schon seinen Grund warum Nvidia Pixel- mit zuzaetzlichen Informationen nimmt. Das ist mitunter eines der groessten und besten erforschten Deep Learning Gebiete. Wobei selbst Objektgenerierung recht gut funktionieren sollte.

.Sentinel. schrieb:
So läuft der Hase aber nicht. Denn das 520p Bild ist nach 3- Facher Iteration eben kein 520p Bild mehr, sondern besitzt durch die Abtastung, die wiederum gejittert ist bereits einen erheblich höheren "echten" Informationsgehalt, auf dem dann prinzipbedingt eher ein DSR auf die native Auflösung denn ein Upscaling stattfindet. Ein Upscaling versucht ja, fehlende Zwischeninformationen über einen Mittelwert, der durch das Sampling umgebender Punkte errechnet wird zu füllen.

Ist der Jitter als Wert oder Matrix Input oder sind mehrere gejitterte Bilder Input zu DLSS? So wie es in der Graphic aussieht ist es eine Matrix. Grosse Unterschiede wird es aber wahrscheinlich nicht machen.

.Sentinel. schrieb:
DLSS2.0 als Derivat von nennen wir es 3- Fach Checkerboarding mit Motion- Vector- Korrektur, denkt sich den Wert nicht aus, sondern übernimmt den tatsächlichen Wert z.B des Vorgängerbildes und setzt ihn durch die Bewegungsvektoren positionskompensiert an dem Platz, der ihm bei der höheren Auflösung zugedacht ist.

Dafuer brauchst du aber kein Neuronales Netz, sondern kannst es mit simplen Formeln ausfuehren. Deswegen bezweifle ich, dass das alles ist. Auch fuer das Jittern brauchst du kein Neuronales Netz. Das hoert sich eher so an als wuerde durch den Jitter Wert eine hochaufloesendes Bild erzeugt, dass durch das Netz dann "scharf" gestellt wird. Die zusaetzlichen Informationen helfen dabei natuerlich.

.Sentinel. schrieb:
Ist wie in meinen Beispielen wie bei modernen 4K Beamern im Niedrig/Mittelklassesegment.
Da wird ein 1080P Bild projeziert und dann werden die Spiegel in affenartiger Geschwindigkeit 4x um einen Pixel im Kreis verschoben. Da das Auge träge ist (deshalb ist das Beispiel so schön, weil eben auch dort dir Temporale Komponente eine Rolle spielt), sieht es dann nur das hochauflösende Bild.

Damit erhoeht man zwar die Aufloesung, aber nicht unbedingt die Schaerfe. Wie wird das korrigiert? Oder nutzen die mehrere 1080p Bilder?

.Sentinel. schrieb:
OK- Ich glaube ich habe Dich da etwas missverstanden. Es ist jedoch so, dass eben das Ausgangsmaterial bevor es an den KI Part weitergereicht wird, in vielen Teilen bereits mehr "echten" Informationsgehalt hat, als das native Bild. Dadurch kann man der KI natürlich schon ordentlich auf die Sprünge helfen, da sie eben nicht mehr so viel "dazuraten" muss.

Klar, Jitter, Positionsvektor, und sonst noch was, das ich vergessen habe. Je mehr Input desto besser, so lange die Feature nicht korrelieren. Ansonsten hat man eher Noise. Bringt in der Regel immer was, ausser die Komplexitaet wird zu gross.

.Sentinel. schrieb:
Ich denke, dass die Version 1 tatsächlich erheblich mehr auf das KI und Trainingsmodell gebaut hat, wohingegen ich inzwischen den Verdacht hege, dass die KI in DLSS2.0 tatsächlich eher zur Mustererkennung nach Charakteristika von Artefakten bzw. Aliasing sucht und die dann glättet.

Uhm, die Terminologie passt nicht so ganz. Trainieren musst du so oder so, egal was die KI macht. Du hast also immer ein Modell, dass auf einem Trainingsset trainiert wurde. Was die KI macht ist was anderes. Bilder sind hervorragend dazu geeignet Mustererkennung durchzufuehren. Wuerde mich wundern wenn das nicht schon in der ersten Version dabei war. Sie haben es halt nur verbessert und moeglicherweise mehr Features hinzugefuegt. Schau dir GPT-1, GPT-2, GPT-3 an. Das sind alles Modelle zur Textgenerierung inklusive Syntax und Semantik. Die haben alle das gleiche Ziel, sind aber eben Weiterentwicklungen.

.Sentinel. schrieb:
Es ist ja eine Frage der Wahrnehmung. Auch mit 16K Auflösung gäbe es noch Aliasing. Nur würde man es physisch nicht mehr wahrnehmen.
Die gesamte künstliche Bilderzeugung ist so gesehen eine Aneinanderreihung von Schummeleien, die die starke Kompensationsfähigkeit des Gehirns und im Gegenzug die Schwächen des Sehapparates ausnutzt.

Ja, klar, weil Pixel halt Vierecke sind. ;)

Gibt aber durchaus auch andere Erzeugunsmoeglichkeiten. Die fressen allerdings laecherlich viel an Ressourcen und eignen sich deshalb noch nicht wirklich. Deswegen: Rastering mit allen seinen Spaessen.

.Sentinel. schrieb:
Die Frage ist halt immer, welche Fehler das Auge eher verzeihen kann. Der ein oder andere durch die KI falsch geratene Farbwert im Bild wird wohl erheblich weniger auffallen als fortwährendes Kantenflimmern oder Monte Carlo Rauschen.
Insofern ist der Tradeoff gerade in Hinblick der doch erheblichen Leistungssteigerung durch dieses Verfahren ein No- Brainer.

Der Pixel muss halt nah genug an der Farbe der Umgebung sein. Rauschen und Flimmern wird man aber auch mit DLSS nicht komplett weg bekommen. Verringern, ja, aber Wunder kann es dann doch nicht verbringen.

.Sentinel. schrieb:
So ist es, weswegen nvidia mit DLSS2.0 der KI durch eine deutlich erweiterte Datenbasis erheblich weniger Rateaufwand zumutet

Joah, das ist so die einfachste Vorgehensweise in Machine Learning. Einfach mehr Daten und Ressourcen auf das Problem schmeissen. ;)

.Sentinel. schrieb:
Das prinzip funktioniert verblüffend gut. Während es mit DLSS 1 tatsächlich nur nette Worthülsen waren, haben sie sich mit DLSS 2.0 meines Erachtens ein wenig rausgeschummelt. Dennoch- und das muss man neidlos zugestehen- mit beeindruckendem Endergebnis.
Und das ist ja letztenendes das was zählt.

Joah, sieht schon ganz nett aus. Aber die Methode eignet sich halt nur fuer einen gewissen maximalen Faktor zwischen den Aufloesungen. Je groesser der wird, desto eher treten Fehler auf.

.Sentinel. schrieb:
Die DLSS- Bibliotheken sind propretär. In gewisser Art und Weise eine Blackbox. Ich bin am experimentieren, ob ich innerhalb der Bibliothek Hooks oder Breaks setzen kann, so dass man denjenigen, die das Prinzip verstehen wollen, die Einzelschritte in Bildform aufschlüsseln kann.
Dann lägen die Fakten mal transparent und bildlich nachvollziehbar auf dem Tisch.

Naja, aus Nvidias Sicht verstaendlich, aber mal schauen wie das dann in Zukunft wird. Wenn AMD, Nvidia, und Intel seine eigenen Sueppchen kochen wird das recht wenig Spass. Wobei, hat Microsoft nicht sogar irgendeine Machine Learning API fuer DirectX? Dachte da gibt es was.

pietcux schrieb:
Bloß weil ich mich an die Foreregel halte, die besagt, dass man komplett Zitate vermeiden soll habe ich sehr wohl deinen gesamten Beitrag gelesen. Meine Aussage bezieht sich auf dein Gesamtwerk.

Ah, kritisiere ich also technisches soll ich das doch gefaelligst unterlassen, weil es ja voll gut ist. Ganz direkt: nein.

KlaraElfer schrieb:
Du siehst DLSS ziemlich eindimensional und beschränkst dich eigentlich nur auf die Nachteile/Probleme der Technologie ohne das Gesamtbild zu sehen, welches einfach mittlerweile - kleinere Artefakte mal ausgeklammert - besser glättet als bisherige Methoden und das inkl. herbem Performanceboost.

Und deswegen darf ich die Probleme nicht ansprechen?! Was ist denn das fuer eine Argumentation?

KlaraElfer schrieb:
Abgesehen der seltenen Schlieren, die mittlerweile besser in Death Stranding geworden sind, ist das im Vergleich zu anderen verfügbaren Glättungsmethoden + dem Performancezuwachs über jeden Zweifel erhaben. Deal with it.

Du scheinst DLSS zu feiern, ok, schoen fuer dich. Ich kenne mich in dem technischen Bereich aus und eroertere die Probleme. Deal with it.
 
Viper2000 schrieb:
....ich kann mich noch gut erinnern, wie es vor dem "navi" Launch mehrere Leaks gab, nach denen eine 5700, 5700XT, 5800 und 5800XT geben sollte.
Demnach war die 5800XT so stark wie ne 2080S und sollte unter 600€ kosten. Da hiess es auch die 5700XT solle 299€ kosten.
Daraus wurde halt gaar nix.


Gibt einige Gerüchte, dass AMD den Chip aus thermischen gründen nie gebracht hat. Das kann ich mir schon gut vorstellen, die 5700XT liegt ja schon relativ hoch teils im verbrauch. Wenn dann noch ein breiteres Speicherinterface dazu kommt, dann war ein größerer Schritt wohl nicht möglich, ohne dass man Erinnerungen an Vega weckt. Es war auch mehrfach von einer 5950XT die Rede. Durchaus möglich, dass zumindest in der Planung ein größerer Navi Chip mit RDNA1 existierte

Ich meine gelesen zu haben, dass der Chip um die 56 CUs und 384Bit haben sollte. Ob das stimmt keine Ahnung, aber die konfiguration gibt es so ja zumindest in der Xbox. Also nicht abwegig.

Auch bei Vega gibt es wohl Chips, die mal in Planung waren, aber nie realisiert wurden. Zumindest von einem kleinen Grafikchip mit einem HBM2 Stack ist mittlerweile auch ein Engineeringsample aufgetaucht..

Viper2000 schrieb:
Also die nächste Generation braucht einen Leistungssprung das ist klar. Und 2080ti level sollte dann auch mal in der Mittel-Oberklasse a la 2070/S ankommen.


Das hoffe ich doch sehr. In etwa auf dem level dürften die neuen Konsolen performen und so super schnell ist die 2080Ti im vergleich auch nicht. Oftmals ist sie nur ca. 35% schneller als eine 5700XT, die einen Bruchteil kostet. Wäre zu hoffen, dass die neue Generation hier wieder einiges gerade rückt. Und hoffentlich gibts nicht wieder für alle 10% mehr Leistung eine extra Karte... Das ist eine beliebte Methode, um teurere Produkte zu verkaufen, aber als Kunde nervt es.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Viper2000
pietcux schrieb:
@larz ich frag mich ja nur warum es bei dir kribbelt oder so, wenn du ein reines AMD System bauen kannst. Mal angenommen AMD liefert eine deutlich geringere Performance als angenommen, was passiert bei dir denn dann? Du hast halt das "reine" AMD System so herausgestellt. Ansonsten, mach was du willst, mir grad egal.
Wenn ich ein neues System baue sind mir die Hersteller völlig egal, ich freue mich immer wenn es das erste mal erfolgreich hochfährt und bunte Bilder macht.
Kam vielleicht falsch rüber aber ich meinte damit allgemein die Lust auf einen Desktop, nachdem 6 Jahre lang ein Notebook das einzig Sinnvolle war ;) Wenn die AMD Karten so schlecht werden sollten, dass sie nicht empfehlenswert sind dann wird ich mich natürlich auch bei Nvidia umkucken, keine Frage. Da ich aber sehe dass die 5700XT doch schon ziemlich gut geworden sind, habe ich da keine Bedenken, dass sie es jetzt auf einmal wieder versemmeln.
Coeckchen schrieb:
Nein, AMD hat seit der R9 290/390 eig keinen Hammer mehr rausgehauen, und dann die Konter gegen NV kamen meist auch viel zu spät....in den letzten 6 Jahren war NVidia immer der Platzhirsch und war Effizienztechnisch abgeschlagen. Dazu noch relativ miese DX11 Performance weswegen ja Mantle entwickelt wurde dass in Vulkan und DX12 aufgegangen ist. Simmer mal ehrlich - Bei Amd hat sich an der Gesamtsituation im Grafikkartensektor bisher kaum was getan. Ich hoffe nur das ändert sich bald. Ich würde meine 2080ti gerne durch ne AMD ersetzen, genau wie die 1070 davor und die 970 davor...und wenn noch DLSS dazu kommt sieht AMD gar kein Land mehr. Da kann selbst meine RTX2060 im Notebook gegen die Aktuellen Desktop Ableger von AMD anstinken die nichts vergleichbares haben.
Sicher, nen Hammer haben se nicht rausgehauen. Aber untätig waren se auch nicht. Sagst ja selber, dass die Konter gegen Nvidia kamen. Spät aber sie kamen. Im CPU Bereich waren se auch lange abgeschlagen, haben sich aber wieder nach vorne gekämpft. Das gleiche erwarte ich im GPU Bereich und ich denke sie sind da auf nem guten Weg. Man darf auch nicht vergessen, Nvidia hat ein wesentlich größeres Budget für die Entwicklung. Sie haben ja bisher kaum den HighEnd Bereich abgedeckt, da das Midrange Segment einfach erstmal die meisten Leute anspricht. Vielleicht ändern sie das endlich mit Navi. Wünschenswert wäre es. Selbst wenn die Preise in ähnliche Bereiche gehen wie Nvidia. Aber dann ist da auch endlich wieder Konkurrenz da. Die Tüte Popcorn steht auf jeden Fall schon bereit ;)
 
Kacha schrieb:
Du scheinst DLSS zu feiern, ok, schoen fuer dich. Ich kenne mich in dem technischen Bereich aus und eroertere die Probleme. Deal with it.

Kannst du doch ruhig machen, wenn du auch die Vorteile siehst, aber anscheinend ist das für dich schwierig, da du dich ausschließlich auf die Nachteile fixierst, ich vermute weil AMD kein vergleichbares Verfahren anbietet, dabei schneidet Navi in den letzten Benchmarks sehr gut ab.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Ikone und adAstra
Willi-Fi schrieb:
Herstellung wird teurer. AMD orientiert sich bei den Preisen an Nvidia. 1000 Euro für eine Grafikkarte sind nun normal. Die Karten verkaufen sich sehr gut. AMD bleibt 100 Euro unter Nvidia und alle reden vom 900 Euro Schnapper :)

Denke bzw. hoffe es wird sich ehr wie bei den CPUs verhalten. Die Leistung wird etwas unter NVidia(Intel) liegen, dafür wird das P/L- Verhältnis aber entsprechend gut ausfallen. Eine GPU wie der 3600 Ryzen muss her, damit wäre dann auch NVidia (zurecht) gefoppt, wie Intel jetzt schon :)

Am besten noch eine High-High End Karte mit 24GB Ram rausbringen für die die es brauchen und somit wäre alles gut.

Wenns mir halt zu teuer und das P/L Verhältnis nicht passt gibt's halt ne PS5. Man muss einfach nicht jeden Preiswucher mitmachen. Bei den CPU`s hat es ja auch gepasst was AMD rausgehauen hat.
 
Zuletzt bearbeitet:
Ich habe (bisher) den Eindruck, AMD kalkuliert seine Preise recht Sauber. TSMC ist keine Billigklitsche. Die wissen genau was sie können. Daher kann es keine Preise wie vor >5-6 Jahren geben.
Nvidia nimmt, was sie bekommen können. Liegt aber wohl auch in den Genen der Firma.
 
denke auch dass man sich mal lieber wqhd angucken sollte, denn ich finde das sieht super aus und lässt Raum für FPS. Wer gleich von FHD auf UHD wechselt ist zurecht ernüchtert von der Grafikleistung. Ähnlich dem nächsten Sprung....da kennen tvler oder konsoleris dann nur 8K. Aber wieviel Leistung das im Vergleich kostet bedenkenlos dann nur wenige....man sollte auch nicht zuviel erwarten was die GPU Hersteller betrifft. Meine Meinung...
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Coeckchen
Viper2000 schrieb:
denke auch dass man sich mal lieber wqhd angucken sollte, denn ich finde das sieht super aus und lässt Raum für FPS. Wer gleich von FHD auf UHD wechselt ist zurecht ernüchtert von der Grafikleistung. Ähnlich dem nächsten Sprung....da kennen tvler oder konsoleris dann nur 8K. Aber wieviel Leistung das im Vergleich kostet bedenkenlos dann nur wenige....man sollte auch nicht zuviel erwarten was die GPU Hersteller betrifft. Meine Meinung...


Stimme dir zu. Aber im VR bereich brauchen wir eig so viel Power wie nur möglich.
 
Kacha schrieb:
Ging mir rein darum, denn das kam sehr kurz in deinem Post. Das eine Bild, das angibt was reingeht und was rauskommt zeigt halt recht deutlich, dass es eine Magic Black Box ist fuer die meisten. Was man davor und danach macht ist mir relativ egal, das ist ueberhaupt nicht mein Gebiet.
Danke für Deine ausführlichen Darstellungen.

Dann sind wir letztendlich auf einem Nenner.
Wenn man unsere bisherigen Beobachtungen/Ausführungen zusammenwirft ergibt sich für mich folgendes Bild.

Macht man es ohne DLSS bzw. KI kämpft man oft gegen Quantisierungfehler/Artefakte, wohingegen man in Sachen KI eher gegen Fehleinschätzungen eben dieser arbeitet.
Nehmen wir mal an beide Fehlerbilder wögen sich qualitativ gegenseitig auf, dann bleibt bei Nutzung von DLSS immernoch der Vorteil eines enormen Leistungssprungs.
Mir persönlich ist zudem das beruhigte Bild mit DLSS wichtiger als die par Fehlinterpretationen der KI, die sofern man einen sauberen Input liefert in der Bedeutungslosigkeit verschwinden.
Hinter all den Artefakten, Fehlern und Schlieren konnte ich anhand der analyse der Framebuffer sehen, dass immer das Material minderwertig oder fehlerhaft war, was man dann in den convolutional autoencoder geschickt hat.

Da müsste man mal eine Heatmap mit Farbwertabweichungen zwischen dem Original inkl. Supersampling, erstellen und das Bild von DLSS dagegensetzen. Dann könnte man ziemlich genau analysieren, inwieweit die KI richtig oder daneben liegt. Auch Szenenbasiert.

Naja, aus Nvidias Sicht verstaendlich, aber mal schauen wie das dann in Zukunft wird. Wenn AMD, Nvidia, und Intel seine eigenen Sueppchen kochen wird das recht wenig Spass. Wobei, hat Microsoft nicht sogar irgendeine Machine Learning API fuer DirectX? Dachte da gibt es was.
So sieht es aus, wobei ja Microsoft oftmals mit dem Standardisierungshammer draufschlägt.
Die Machine Learning API von Microsoft nennt sich Direct ML. Auf die API kann jeder der gewillt ist sein eigenes DLSS anflanschen.

Das wird schon. Letztenendes werden alle Hersteller früher oder Später "eingeschliffen".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Viper2000
@Viper2000 - genau aus dem Grund hab ich mir WQHD geholt. Tatsächlich läuft (mit Abstrichen sogar noch einiges mit der 580er in Schön) - dennoch war das die Investition für den Herbst/Winter.
 
  • Gefällt mir
Reaktionen: pietcux und Viper2000
KlaraElfer schrieb:
Kannst du doch ruhig machen, wenn du auch die Vorteile siehst, aber anscheinend ist das für dich schwierig, da du dich ausschließlich auf die Nachteile fixierst, ich vermute weil AMD kein vergleichbares Verfahren anbietet, dabei schneidet Navi in den letzten Benchmarks sehr gut ab.

Mein Ausgangspost hat die technischen Fehler von @.Sentinel. 's Post angesprochen. Mir ist es recht egal ob AMD da ein vergleichbares Verfahren hat, wobei es da eh rumgeht ob AMD das direkt ueber DirectML implementiert. Was auch weitaus mehr Sinn machen wuerde.

Warum ich allerdings das DLSS feiern einiger hier wiederholen soll werde ich wohl nicht verstehen. Davon gibt es schon genug, von den technischen (korrekten) Problemen gibt es eher wenig.

.Sentinel. schrieb:
Dann sind wir letztendlich auf einem Nenner.

Ja, halt aus unterschiedlichen Sichtweisen und ergaenzend, was wichtig ist.

.Sentinel. schrieb:
Macht man es ohne DLSS bzw. KI kämpft man oft gegen Quantisierungfehler/Artefakte, wohingegen man in Sachen KI eher gegen Fehleinschätzungen eben dieser arbeitet.
Nehmen wir mal an beide Fehlerbilder wögen sich qualitativ gegenseitig auf, dann bleibt bei Nutzung von DLSS immernoch der Vorteil eines enormen Leistungssprungs.

Rein von der Rechenpower die benoetigt wird sollte ein Supersapler sogar weniger brauchen. Er erreicht halt nicht die Qualitaet von DLSS.

.Sentinel. schrieb:
Mir persönlich ist zudem das beruhigte Bild mit DLSS wichtiger als die par Fehlinterpretationen der KI, die sofern man einen sauberen Input liefert in der Bedeutungslosigkeit verschwinden.

Gut, das sind persoenliche Praeferenzen. Dem einen ist es wichtiger, dass das Bild ruhiger ist, dem anderen, dass es weniger Fehler hat.

.Sentinel. schrieb:
Hinter all den Artefakten, Fehlern und Schlieren konnte ich anhand der analyse der Framebuffer sehen, dass immer das Material minderwertig oder fehlerhaft war, was man dann in den convolutional autoencoder geschickt hat.

Joah, das ist so eine Sache und auch das Problem bei vielen Anwendungsfaellen. Viele gehen einfach davon aus, dass KI viel mit Magie zu tun hat.

Der Input muss halt vom Format, der Qualitaet, den Informationen, und allem anderen immer auf dem Niveau des Trainingsets sein. Hat man da keine Disziplin geht das schnell schief. Ist halt weitaus limitierter als es die meisten sehen.

.Sentinel. schrieb:
Da müsste man mal eine Heatmap mit Farbwertabweichungen zwischen dem Original inkl. Supersampling, erstellen und das Bild von DLSS dagegensetzen. Dann könnte man ziemlich genau analysieren, inwieweit die KI richtig oder daneben liegt. Auch Szenenbasiert.

Waere interessant, wobei ich darauf tippe, dass Nvidia das eh macht und es auch zur Evaluation des Modells nutzt.

.Sentinel. schrieb:
So sieht es aus, wobei ja Microsoft oftmals mit dem Standardisierungshammer draufschlägt.
Die Machine Learning API von Microsoft nennt sich Direct ML. Auf die API kann jeder der gewillt ist sein eigenes DLSS anflanschen.

Das wird schon. Letztenendes werden alle Hersteller früher oder Später "eingeschliffen".

Wollte AMD nicht DirectML direkt nutzen? Dachte da war was. Bei sowas bin ich aber echt froh, dass Microsoft einfach mal draufschlaegt. Das sollte auch fuer Entwickler angenehmer sein.
 
Kacha schrieb:
Das was du postest ist hauptsaechlich Nvidia Marketing und laesst halt die Probleme weg.

Das was du postest ist halt hauptsächlich AMD Marketing und lässt die unübersehbaren Vorteile weg. Dein O-Ton.
Und Sentinel (Zero_Zerp) diskutiert und analysiert bisher immer die Nachteile, also ich kann das von dir gesagte, einfach nicht zuordnen.

Ich spiele mit DLSS seit Final Fantasy, wo ich es für DLSS 1.0 noch für die beste Implementierung halte, die anderen waren Fehltritte. Die Qualität konnte man auch mit Sharpening Tools (RIS) und Upsampling erzielen.
Seit DLSS 2.0 hat sich das geändert, das ist offenbar nicht bei dir angekommen.

Kacha schrieb:
Was auch weitaus mehr Sinn machen wuerde.

Es wäre wirklich wünschenswert, wenn es gemeinsame Standards geben würde, aber ich denke nicht, dass dafür (heute) bereits die Hardwarebasis steht.

Kacha schrieb:
Warum ich allerdings das DLSS feiern einiger hier wiederholen soll werde ich wohl nicht verstehen.

Du wendest ja hier einen einfachen Trick an und definierst "Vorteile sehen" in "DLSS 2.0 feiern", so kann man sich natürlich auch aus das Affäre ziehen, wirft aber ein ziemlich schlechtes Licht auf einen selbst, denn insgesamt war das Presseecho sehr positiv zu DLSS 2.0, da kann man sich noch so sehr auf die negativen Punkte versteifen, die positiven sind deutlich in der Überzahl, aber dazu müsste man eben auch mal selbst mit DLSS 2.0 spielen und es nicht als "Beschiss" einordnen, das disqualifiziert dich für jede weitere Diskussion.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: adAstra und pietcux
KlaraElfer schrieb:
aber dazu müsste man eben auch mal selbst mit DLSS 2.0 spielen und es nicht als "Beschiss" einordnen.
Genau deshalb ja meine Erklärungen, die immer weiter in die Tiefe gehen, damit man endlich begreift, dass das kein "Beschiss" ist bzw. nicht mehr Beschiss als digitale Musik, MPEG und co. Man holt sich durch Rechenleistung und Bildanalyse- und Rekonstruktionsverfahren einen deutlichen Qualitäts- und Leistungsschub.

Es geht doch final um den Impact den die Nachteile und die Vorteile auf das "Gesamtgeschehen" haben.
Und das kann man drehen und wenden, wie man will. Die Vorteile bei DLSS überwiegen mit deutlichem Gewicht und das schon in den frühen Jahren der Existenz dieser Technik. Schlechter wird die nicht mehr. Besser schon...

Man kann nicht einerseits mit der Lupe auf Artefaktsuche des DLSS Bildes gehen, gleichzeitig aber ein Aliasing und Quantisierungsfehler aus der Hölle beim klassischen Rendering, welches durchweg dann auch als "Beschiss" zu werten wäre, plötzlich übersehen wollen, zumal die Performance ja noch auf einem ganz anderen Blatt steht.

Das widerspricht sich dann doch erheblich. Man sieht halt wohl immer irgendwie das, was man sehen will :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra und KlaraElfer
um mal ein wenig auf #348 einzugehen:

Man sollte aber auch immer an das Ursache -> Wirkung Prinzip denken.
Die Entwicklung und Produktion so komplexer Chips ist teuer und gerade bei der 290x hat sich offenbar gezeigt das es egal ist was man rausbringt. Die Karten waren mit einer GTX780(Ti) mehr als konkurrenzfähig, erheblich billiger als eine Titan (die kaum schneller oder gar langsamer als eine 780(Ti) war) und verkaufte sich dennoch deutlich schlechter. Natürlich fängt an der Stelle gleich wieder das Gejammer um die Lautstärke an aber es wäre mir neu wenn es nur die Referenz Modelle mit aufgehobenen Limits gegeben hätte. Warum sollte man also diesen Bereich der Grafikkarten bei der Entwicklung priorisieren wenn der Großteil der Kundschaft offenschtlich nicht an entsprechenden Produkten interessiert ist?

Dazu gibt es natürlich auch weitere Faktoren die eine alles andere als unwichtige Rolle gespielt haben dürften.
Die GCN Architektur war offen bar vom Ausbau der Recheneinheiten her bereits ab Fiji am Ende und eine neue GPU Architektur zu entwickeln benötigt Zeit, Manpower und Geld. produktpflege ist da deutlich günstiger weil es schneller neue Produkte gibt und bei den geringeren Leistungsklassen kann man sich innerhalb der Grenzen der alten Architektur bewegen.

Die weitaus größere Baustelle mit dem deutlich größeren Potential stand aber auch noch offen, der CPU Bereich der ebenfalls eine neue Architektur benötigte und auch hierfür benötigt man Manpower, Zeit und Geld. Ganz offensichtlich wurde dieser Bereich priorisiert und ganz offensichtlich war jene Priorisierung höchst erfolgreich.

Nachdem die Zen Architektur den CPU Bereich vorantrieb und Geld in die Kassen spülte dürften natürlich auch mehr Ressourcen für die GPU Entwicklung verfügbar gewesen sein.


Was einige hier offensichtlich immer wieder vergessen oder ignorieren, AMD ist in diesen Geschäftsbereich der einzige Konkurrent für Intel und nvidia und das fast durchgehend mit einem Bruchteil des Budgets eines der beiden Konkurrenten.

Lange Rede kurzer Sinn, wer nicht an den Kauf der entsprechenden Produkten interessiert ist brauch nicht zu meckern wenn es keine gibt und die Preise beim favorisierten Hersteller durch die Decke gehen denn man hat genau das bekommen was man will, keine Produkte von der Konkurrenz.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: iron-man und Cpt.Willard
Viper2000 schrieb:
.....
Und die Preise der Nvidias sind ja auch so unverschämt, weil im Endeffekt eine 2060S/2070S/2080S so nahe beeinander liegen, dass man von keinem erheblichen Mehrwert sprechen kann.
......
Die nvidia Karten bieten weit mehr zusätzliche Funktionen neben Gaming, was die Preise wieder rechtfertigt. Die Teile rennen in Produktivanwendungen AMD auf und davon, was die RTX Serie dann doch im Laufe ihrer Verfügbarkeit gezeigt hat.
Allein die VEGA 64/56 Encoder Kastration auf nur einen verfügbaren Encoder hat mir die Lust auf AMD verdorben. Für Videoschnitt bin ich bei nvidia selbst mit den Mittelklassekarten besser bedient. Da sieht der Preis einer RTX2060 gleich viel besser aus und es reicht nicht, das nur das DaVinci Resolve mit AMD gut skaliert. Die Videoschnittsoftware kann sich kein Normalverdiener leisten, weil die Softwareoberfläche auf die zusätzlichen Hardwarepulte optimiert wurde, die so richtig in das Geld gehen. Sämtliche Opensource Software wünscht nvidia CUDA Hardware und wer Blender sogar semi-professionell nutzt, der hat mit nvidia Karten richtigen Arbeitsfluss und weitere Funktionen. Solche Software nutzt man auf einem Threadripper und einer nvdia und lässt Team Blau und Radeon Rot links liegen.

Wenn nvidia auf den Zusatz von RT und Tensor auf seinen komplexeren Karten verzichten und rein für Spielekarten nur Shader und Cache über alles an diesen Platz verbauen würde, würde AMD im Gaming überhaupt kein Land mehr sehen. Wobei sich nvidia sicher bewusst ist, das man nicht beliebig Shadermonster mit guter Leistungsskalierung bauen kann.

Daher bietet nvidia mit DLSS über die zusätzlichen Tensorkerne etwas, wo AMD hinterher hinkt. AMD müsste alternativ bei den Shadern klotzen, wenn Auflösung und Qualität vergleichbar sein sollen. nvidia bietet psychovisuelles MP3 auf Grafikebene in Qualität an ohne noch den Stromverbrauch hoch zu drehen. Die RTX3000 Serie wird mit der neuen Fertigung viel spannender. Die letzten Nachrichten von Sony und Microsoft zu den nächsten Konsolen und Titeln nehmen AMD sogar wieder die Luft raus.
 
  • Gefällt mir
Reaktionen: adAstra und PHuV
Zurück
Oben