yummycandy schrieb:
Das sind echt Komiker. Um den August zu "halten" wird es am 31. August vorgestellt.
Chiaki schrieb:
AMD hat keine dedicated Kerne für Maschinelles Lernen, worauf DLSS 2.0 aber nun mal basiert. Das heißt der Klon von Sony wird das Ganze zwar GPU-beschleunigt können, aber bei ähnlichem Algorithmus auf keinen Fall so gut wie Tensorkerne.
Die Aussage ist gefaehrlich, da sich die AMD Karten generell sehr gut im Machine Learning schlagen. Die Kerne sind nicht zwingend noetig, sondern nur Nvidias Weg das umzusetzen. Ausserdem, wer sagt, dass AMD oder Sony einen aehnlichen Algorithmus/Weg gehen muessen? Von dem her ist die Aussage, dass es ohne Tensorkerne nie so gut werden kann zumindest mal gewagt.
Chiaki schrieb:
Die RT Leistung an sich könnte bei AMD sogar besser sein, sofern die Konsolenports nicht nennenswert optimiert werden, da es auf derselben Architektur basiert.
Koennte ja, weil eh auf die Umsetzung von AMD optimiert werden muss fuer die Konsolen.
Chiaki schrieb:
2. Stalker Clear Sky und Stalker Shadow of Chernobyl sind hoffentlich von der Engine her alt genug für dich, dass du einsiehst, dass deine Aussage Mist ist. RT als absolutes Requirement wird bei modernen Engines wahrscheinlich nie kommen (es sei denn ein Spiel ist nur für Pathtracing gedacht) - aber genausowenig zwingt dich irgendwer 30 FPS zu schaffen. Es ging bei der Diskussion um Wirtschaftlichkeit von Tensorkernen.
Das sieht so aus als waeren es Mods. Das unterstuetzt dein Argument mal null, sondern unterstuetzt die Aussage, dass es sich eben nicht lohnt. RT only wird kommen sobald es genug Karten im Umlauf unterstuetzen. Dafuer muessen aber alte ersetzt werden und das dauert Jahre.
Und warum kommst du schon wieder mit den Tensorkernen?! Die haben mit Raytracing nur im entfernten was zu tun.
Chiaki schrieb:
3. Du versuchst dabei wirklich zu behaupten ein generischer Rechenkern kann genau so gut sein wie ein hochspezialisierter Rechenkern? Ich glaube du solltest dich noch einmal im Bereich der theoretischen Informatik umsehen. Dass generische Rechenkerne für alle nicht-RT/-DLSS/-whatever Games besser sind und dafür keine Leistung brachliegt ist genau der Grund warum AMD diesen Weg gegangen ist. Vielleicht ist das sogar der klügere Weg, aber das ändert nichts an den bisherigen Aussagen und der Entscheidung über Wirtschaftlichkeit von RT-/Tensorkernen.
Vielen Dank fuer den Hinweis, ich habe Informatik studiert. Dein hochspezialisierter Rechenkern bringt dir genau null wenn der Rest nicht passt. Oder glaubst du die RT Kerne sind nicht komplett in die Pipeline eingebunden bei Nvidia? Ausserdem war meine Aussage nicht, dass generische Kerne besser sind, sondern, dass dir deine spezialisierten Kerne nur was nuetzen wenn sie wirklich genutzt werden. Werden sie nicht genutzt sind sie tote Chipflaeche. Der generische Kern kann allerdings so oder so genutzt werden und ist damit eben keine tote Chipflaeche. Das ist gerade bei der Wirtschaftlichkeit eine wichtige Ueberlegung. Nvidia benoetigt vorerst mehr Chipflaeche, was teurer ist und die Ausbeute verringert.
Taxxor schrieb:
Das könnte ja nun tatsächlich das erste mal seit langem sein, dass AMD mal in der gleichen Klasse weniger VRAM als Nvidia bietet.
Waren ja für Big Navi bisher nur 12 oder 16GB im Gespräch, steht man dort nun gegen 20 und 24 GB.
Da bin ich auch mal gespannt. Theoretisch gesehen koennten sie aber einfach das doppelte draufklatschen wenn sie GDDR nutzen. Bei HBM wird es wohl schwieriger.
SavageSkull schrieb:
DLSS 2.0 schon gesehen. Diese Raytracing Kerne bringen momentan verdammt viel GPU-Computing, was einem schon heute einiges bringt. An so einer Karte hätte ich sicherlich kein Problem auf einem 4K Fernseher zu spielen.
RTX-Voice nutze ich momentan auch sehr gerne, wenn auch noch mit deutlichen Einbußen auf der 1080.
Auch fuer dich: RT Kerne != Tensorkerne. RT fuer Raytracing, Tensorkerne fuer KI/Compute. Fuer DLSS werden Tensorkerne genutzt.