Ich bin wirklich gespannt was AMD abliefert und auch wie sich die Prozesse von Samsung und TSMC schlagen. So wie sich das liest ist Samsung 8nm ein etwas verbesserter 10nm und damit dem TSMC 7nm doch ein gutes Stueck unterlegen. Je nachdem wie gross die Nvidia Karten sind koennte es aber Sinn machen. Allerdings bin ich da etwas gespannter auf AMD als Nvidia, da letztere wohl hauptsaechlich auf RT und TC setzen und klassische Renderperformance eher durch mehr Einheiten erhoeht wird, als durch Verbesserungen.
Naja, mal schauen was da so kommt.
KuestenNebel schrieb:
Ich kann mit dem Ding wenig anfangen - meine wichtigste Bibliothek (Tensorflow) läuft da leider nicht so toll drauf
Zum einen gibt es da
PlaidML, dass auch auf AMD ziemlich gut laeuft. Phoronix macht da immer wieder Tests und es ist teilweise krass wie AMD Karten da abgehen, je nach Task.
Zum anderen maintained AMD einen Fork
TensorFlow ROCm. Der hinkt aber immer etwas hinterher und braucht etwas mehr Zuwendung. Die Tensorflow Entwickler haben leider absolut null Interesse AMD Hardware zu integrieren. Die sagen schlichtweg, gebt uns einen PR oder geht. Dafuer hat AMD aber nicht die Manpower.
SKu schrieb:
Wäre es ein kluger Schachzug seitens NVIDIA ihre kommenden RTX-GPUs schon diesen oder nächsten Monat releasen zu wollen?
Ja, einfacher Grund: Sie sind zuerst da, fuehren die Balkenlisten an und koennen zu fast beliebigen Preisen verkaufen. Nvidia steht ja nicht nur zu AMD in Konkurrenz, sondern im Endeffekt auch zu den Konsolen. Und falls die Nvidia Karten gar nicht so gut werden wuerden, dann wuerden sie trotzdem erstmal ordentlich Kohle einfahren, weil sie eben zuerst da waren.
.Sentinel. schrieb:
Bingo- Du verstehst es nicht und bist, wenn man Deinen Voreingenommenheit disbezüglich betrachtet, wohl auch nicht Willens es zu verstehen.
So viele Geisterfahrer auf der Autobahn?
https://www.computerbase.de/forum/t...dlss-2-0-und-fidelityfx.1958099/post-24391765
Ich tippe darauf, dass du aus dem Game Design Bereich kommst? Denn deine Aussagen zu wie DLSS funktioniert sind teils fehlerhaft. Du redest von vorhanden Informationen, bzw., dass man sie errechnen kann. Das stimmt aber so nicht. Was vorhanden ist sind im Endeffekt sehr komplexe Formeln, die mit einer gewissen Genauigkeit etwas berechnen koennen. Und nein, die Genauigkeit ist nicht 100% und wird sie auch in Zukunft nicht sein. Dass das Netz ein paar mehr Informationen als das Bild benoetigt ist nicht weiter verwunderlich und dient nur dazu die Genauigkeit zu erhoehen. Erhoeht halt auch die Komplexitaet. Was das Teil macht ist ein besserer "educated guess". Was dann halt zu Texturfehlern, bzw. teilweise auch zu verschwindenden Texturen fuehrt. Je nachdem wie man danach nochmal filtert.
Das wirklich spassige kommt aber erst je weiter man sich mit dem Grafikstil und den Texturen vom Trainigsset entfernt. Denn Generalisierung im KI Bereich ist gar nicht so einfach wie das manche so darstellen. Das fuehrt dann halt zu interessanten Ausgaben. Da helfen auch hoehere Texturaufloesungen zum Training nicht. Im Endeffekt muesste man das Trainingsset immer weiter aufblasen oder einen Weg finden es besser zu generalisieren aber dennoch eine hohe Genauigkeit beizubehalten. Das laesst aber alles die Komplexitaet explodieren und ist nur bis zu einem gewissen Punkt machbar.
Das was du postest ist hauptsaechlich Nvidia Marketing und laesst halt die Probleme weg. Ist kein Problem wenn es nicht dein Themengebiet ist, aber so einfach wie du es darstellst ist es eben nicht und die anderen sind eben keine Geisterfahrer.