Kacha schrieb:
Laut diesem
Reddit Eintrag, 1.25mm² fuer einen Tensor Core und 0.7mm² fuer einen RT Core. Bei der 2080ti also grobe 10% fuer eine relativ kleine Anzahl an Cores.
Ja- Reine Spekulation wie eine Organisation/ Größenverhältnisse bei der 3080TI ausfallen werden.
Mir ist durchaus klar, dass ein erhoehter Grad an Parallelisierung in der Regel mehr Overhead erfordert, aber deine plakative Behauptung, und warum keine 5k Shader, solltest du mit etwas mehr Informationen untermauern.
1.
https://de.wikipedia.org/wiki/Amdahlsches_Gesetz
2.Kannst Du Dir mal in der Evolution der NVIDIA- Karten (bei den hochkernigen) ansehen, wie hoch die relative Ausbeute zur gesteigerten Corezahl ist. Die nimmt naturgemäß stetig und ab einem gewissen schwellwert immer stärker ab.
Ich gebe mal ein ungenuegend in Sachen Textverstaendnis, da ich klar sage, dass DLSS wie es jetzt ist unbrauchtbar ist und es erst brauchbar wird wenn es durch ein generelles Modell und nicht ein Modell fuer jedes Spiel und jede Aufloesung erreicht wird. Mal abgesehen davon, dass DLSS genauso diminishing returns hat und nicht magisch einfach weiter skaliert.
Mein Textverständnis ist ganz hervorragend, nur hast Du offenbar meinen Wink mit dem Zaunpfahl nicht verstanden, dass Du mit dem von Dir verfassten Text sowohl herausgestellt hast, dass Du von einem Thema schreibst, welches Du nicht verfolgst was auch den Schluss zuliesse, dass es Dich nicht sonderlich interessiert.
Dennoch stellst Du falsche Tatsachenbehauptungen auf. Ich habe nicht umsonst geschrieben, dass ich Dir dazu rate, Dich noch einmal ins Thema einzulesen, bevor Du weiter schreibst.
Spoonfeed deluxe:
https://www.nvidia.com/de-de/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/
Somit- Damit Du meine Ausführung verstehst.
Wir sind durch DLSS 2.0 bereits vor einem Viertel Jahr da angekommen, wo Du die Definition als "brauchbar" einstufst.
-Es muss nicht mehr einzeln trainiert werden
-Es ist nicht mehr auflösungsabhängig
-Bei jedem Spiel mit temporalen Antialias ist es ohne großen Aufwand integrierbar
-Die großen Engines (wie z.B. Unreal arbeiten diese Funktion per Default in ihre Branches ein).
Somit werden innerhalb kürzester Zeit sowohl DLSS als auch hoffentlich deren Direct ML Derivate auf Seiten AMD aus dem Boden sprießen.
Wer lässt schon einfach 60-150% und mehr Leistung einfach so auf der Straße liegen?
Wie oben dargelegt kostet das eben doch ganz gut Platz und es skaliert eben auch nicht ewig. Von dem her, klar werden sie es erstmal erhoehen, .... da DLSS so wie es jetzt ist eben doch mit ziemlich viel Aufwand verbunden ist. RT duerfte einfacher sein und sich am ehesten durch die Konsolen durchsetzen.
Aufgrund des Veralteten Informationsstandes, den Du hast, musst Du natürlich so argumentieren.
DLSS 2.0 ueberfliegen verneint deine Aussage ziemlich schnell. Es benoetigt immer noch eine Anpassung pro Spiel, bzw. die richtigen Informationen der Game Engine. Ja, sie sind einen kleinen Schritt weiter, aber noch lange nicht dort wo sie sein muessten.
Das ist eine sehr gewagte Aussage, wenn man bedenkt, dass das DLSS hochgerechnete Bild dem der Ursprungsauflösung auch in manchen Bereichen überlegen ist.
Wo sollte das denn sonst noch hingehen, wenn sie ob dieser Tatsache Deines Erachtens (noch lange nicht dort sind, wo sie sein müssten)?
Es beschleunigt erheblich bei gleichbleibender Qualität und vermindert das Antialias ohne den Nebeneffekt der Unschärfe.
So lange das Modell nicht komplett im Treiber ist und auch keine Informationen mehr direkt von der Engine/dem Spiel benoetigt, so lange ist es nett, aber nicht toll.
Aha- Nachdem Du nun gemerkt hast, dass Deine Anforderungen durch das neue DLSS erfüllt sind, wird schnell eine neue Bedingung erfunden (um noch ein Haar in der Suppe finden zu können).
Und hier nochmal- Sobald ein Temporales Antialias in Spielen integriert ist, kannst Du stattdessen auch die NVIDIA Blackbox laufen lassen.
Dass viele Verfahren im Post- Processing nicht greifen, sollte Dir klar sein.
Es ist toll, dass du das derzeitige Stadium schon so gut findest, aber wir sind noch ein gutes Stueck von "wir schmeissen Tensor Cores drauf und haben magisch mehr Leistung" entfernt.
Nein- Genau so funktioniert das im Augenblick, wobei ich feststellen kann, dass Du Tensor Cores und das ganze Verfahren als Magie bezeichnest.
Da steckt deutlich weniger Magie und KI drin, als Du offensichtlich vermutest.
Ah, ok, ja, klar... Der "irgendwas wird es magisch richten" Ansatz.
-Würdest Du meine Begründung lesen, wüsstest Du, dass das nichts mit Magie sondern mit für jeden in der Praxis zu beobachtenden Gegebenheiten zu tun hat.
Rytracing ist im Gegensatz zur Rasterisierung fast undendlich paralellisierbar (Praxisbeispiel Cinebench), da Du fast bis auf das Pixel runter in Arbeitspakete aufteilen kannst, die unabhängig voneinander abgearbeitet werden können.
Stell Dir eine GPU vor, die ein Steuer Chiplet hat und viele kleine Worker- Chiplets. Gefertigt in einer für die Ausbeute der Fertigungsfabriken optimalen Struktur und Größe (höchte Yield- Raten).
Du kannst nun billigst diese Mini- Chiplets in Masse auf eine Karte integrieren und jedes einzelne davon beschleunigt den Raytracing- Vorgang.
Brauchst Du mehr Leistung- Kein Problem. Zweite Karte dazustecken und schon ists fast doppelt so schnell.
Nochmal- Im Gegensatz zum Rastern skaliert RT unendlich viel besser.
DLSS ist in der Tat nicht hardwarebasiert, aber ich denke das sollte dir klar sein. Man kann neuronale Netze direkt in Hardware implementieren, allerdings hat man dann ein Netz und fertig. Von her, DLSS ist Software. Natuerlich laeuft Software auf irgendeiner Hardware, aber das macht es nicht hardwarebasiert.
Was ist denn das für ein schräger absatz? Du kannst JEDE beliebige Berechnung natürlich auf einem CISC Prozessor immer auch per Software durchführen.
Du kannst allerdings auch Schaltungen und Spezialeinheiten dafür in Hardware gießen und die Funktion beschleunigen. So what?
Stellst Du jetzt hier ernsthaft den Vorteil von fixed function Hardwareschaltungen zur Diskussion?
Du hast ja selber schon MCM angesprochen. Ausserdem gibt es genauso Forschung dazu verschiedene Strukturgroessen im selben Chip zu nutzen fuer unterschiedliche Komponenten. Oder um es mit deinen Worten zu sagen, einfach mal recherchieren.
Siehe oben- Das meine ich nicht. Zudem werden sowieso in allen Chips unterschiedlichste Strukturgrößen belichtet.
Eine Generation ist ok, aber jetzt nichts herausragendes, es sind 2 Jahre. Da muss man jetzt nicht in Jubel ausbrechen, zumal DLSS eben nicht einfach unendlich weiter skaliert.
Muss es auch nicht - Bei 8 K wird in jedem haushaltsüblichen Raum (auch den größeren) auflösungstechnisch erst mal schluss sein.
Gerne. Aber nur um das noch einmal in Kontext zu bringen, da der anscheinend immer schnell verloren geht. Wenn Nvidia die 3080ti mit 8192 Shadern, 1024 Tensor Cores, 256 RT Cores in 7nm bringt und damit ganz schnell bei einem 800mmmm² Chip ist wie die derzeitige 2080ti, dann ja, dann wird das richtig kosten.
Sie werden für die 3080TI keine 2000€+ nehmen. Und genau das hast Du geschrieben.
Nein, nicht wirklich. Zumindest nicht so wie du vermeinst es herzuleiten. Jedes Unternehmen versucht seinen Profit zu maximieren und lotet aus was fuer Preise es verlangen kann.
Genau das macht AMD ganz offensichtlich im CPU Sektor nicht so.
Wieso also gehst Du davon aus, dass sie es im GPU Sektor plötzlich anders handhaben sollten?
Die optimieren ihren Profit und natuerlich macht AMD da froehlich mit und steigert ihre Marge ebenfalls. Denn die Spieler machen ja froehlich mit. Da wuerden einen die Aktionaere ja kreuzigen, wenn man das nicht macht.
Nochmal: Wieso also gehst Du davon aus, dass sie es im GPU Sektor plötzlich anders handhaben sollten, als auf dem CPU Sektor.
Die Ausgangslage und die Konkurrenzsiuation ist doch genau die gleiche.
Und daher ist eben Deine Herleitung falsch. Du versuchst zwei Unterschiedliche Konstrukte und Herangehensweisen auf die Produktbereiche der Firma zu stülpen, die sich aber markttechnisch jeweils in der gleichen Ausgangslage befinden.
Das ergibt keinen Sinn. Demnach würdest Du ja unterstellen, dass Lisa Su die Leute damit anschwärzt, im GPU Sektor alles dafür zu tun um Konkurrenzfähig zu sein.
Allein an Features wie DLSS, welche ja performancetechnisch "nur" 2 Jahre vorausgreift, lassen eine moderne Radeon bei Nutzung wie Altmetall dastehen.
Und nein- Es braucht keine Fantasie um zu erkennen, dass sich die Entwicklung mehr Leistung für weniger Geld immer weiter fortsetzt. Du kriegst ne 2060 für 300,-€. Die kommt knapp an die Leistung der 1080 GTX ran, die man Jahrelang für 400-500,-€ eingekauft hat.
Dazu Raytracing on Top, DLSS und VRS. Somit ist die 2060 in manchen Szenarien doppelt so schnell (DLSS) und mit RT bis zu 7x so schnell als eine 1080 GTX.
Und Du redest davon, dass alles teurer wird und man nicht mehr Leistung bekommt?
Das geht doch arg weit an der Realität vorbei.
Da sind einige Personen so fixiert auf den Preis einer 2080TI, die gegenüber der 1080TI um 2 Klassen aufgewertet wurde, dass sie nicht mehr sehen, dass die Karten außerhalb des Enthusiastensegments genau den gleichen Weg gehen wie immer. Mehr Leistung- Weniger Geld.
Diesbezüglich hat NVIDIA einen groben Marketingschnitzer begangen. Sie hätten die 2080TI zu einer 2100TI machen müssen und die darunter liegenden Karten inkl. dem Super- Portfolio niedriger nach unten staffeln müssen, dann wären die Leuts wieder zufrieden gewesen und sie hätten gezeigt, dass sie eine neue Klasse geschaffen hätten, die zwar unterhalb einer TITAN liegt aber überhalb einer normalen xx80TI.
Dann wäre auch die Preisdiskussion nicht so ausgeartet.
Schliesslich hätten sie ihre vermeintliche 2080 TI dann für 699,-$ haben können.
Aber das sind nur meine 2 cents
LG
Zero