ZeroZerp schrieb:Ja- Reine Spekulation wie eine Organisation/ Größenverhältnisse bei der 3080TI ausfallen werden.
Ich dachte du wolltest Zahlen? Jetzt bringe ich Zahlen und dann tust du sie als Spekulation ab weil es nicht passt? Irgendwas passt da nicht.
ZeroZerp schrieb:1. https://de.wikipedia.org/wiki/Amdahlsches_Gesetz
2.Kannst Du Dir mal in der Evolution der NVIDIA- Karten (bei den hochkernigen) ansehen, wie hoch die relative Ausbeute zur gesteigerten Corezahl ist. Die nimmt naturgemäß stetig und ab einem gewissen schwellwert immer stärker ab.
1. Das belegt in keinster Weise deine aussage, sondern spricht nur allgemein von den Problemen bei Parallelisierung. Ich habe selber gesagt, dass es Overhead gibt, aber du meintest, dass es ab einer gewissen Core Zahl extrem wird. Dazu fehlt der Beleg noch.
2. Falls du den Vergleich zwischen Generationen meinst ist der schwer zu machen da es Architekturaenderungen gibt, und falls du in einer Generation vergleichst dann hoffe ich, dass du den Takt miteinbeziehst der bei hoeherer Kernzahl abnimmt. Und damit meist recht effizient wird.
ZeroZerp schrieb:Mein Textverständnis ist ganz hervorragend, nur hast Du offenbar meinen Wink mit dem Zaunpfahl nicht verstanden, dass Du mit dem von Dir verfassten Text sowohl herausgestellt hast, dass Du von einem Thema schreibst, welches Du nicht verfolgst was auch den Schluss zuliesse, dass es Dich nicht sonderlich interessiert.
Dennoch stellst Du falsche Tatsachenbehauptungen auf. Ich habe nicht umsonst geschrieben, dass ich Dir dazu rate, Dich noch einmal ins Thema einzulesen, bevor Du weiter schreibst.
Spoonfeed deluxe:
https://www.nvidia.com/de-de/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/
Somit- Damit Du meine Ausführung verstehst.
Wir sind durch DLSS 2.0 bereits vor einem Viertel Jahr da angekommen, wo Du die Definition als "brauchbar" einstufst.
-Es muss nicht mehr einzeln trainiert werden
-Es ist nicht mehr auflösungsabhängig
-Bei jedem Spiel mit temporalen Antialias ist es ohne großen Aufwand integrierbar
-Die großen Engines (wie z.B. Unreal arbeiten diese Funktion per Default in ihre Branches ein).
Somit werden innerhalb kürzester Zeit sowohl DLSS als auch hoffentlich deren Direct ML Derivate auf Seiten AMD aus dem Boden sprießen.
Wer lässt schon einfach 60-150% und mehr Leistung einfach so auf der Straße liegen?
Toll fuer die ersten beiden Punkte. Punkt drei zeigt aber eben das Problem. Es muss explizit integriert werden. Der Aufwand muss betrieben werden, wird er es nicht, Pech gehabt, Feature nutzlos. Es ist auch toll, dass die Engines das integrieren, bis das aber in Spielen ankommt dauert Jahre weil die Engines eben erst mit einer gewissen Versetzung eingesetzt werden. Deine 60-150% mehr Leistung (es wird immer mehr...) hast du dann in ein paar Spielen und fertig. Hast du das ganze im Treiber integriert ohne spezielle Integration im Spiel, dann ist es Mainstream kompatibel da man eben nicht mehr hoffen muss, dass das Spiel es implementiert. Derzeit schmeisst Nvidia einfach nur eine Menge Geld drauf und hofft, dass genug mitmachen.
ZeroZerp schrieb:Aufgrund des Veralteten Informationsstandes, den Du hast, musst Du natürlich so argumentieren.
Das heisst, du gehst davon aus, dass es einfach ewig weiter skaliert? Du denkst nicht, dass es einen Punkt gibt an dem man diminishing returns hat? Und ja, derzeit hat man immer noch Aufwand. Es ist toll, dass Nvidia den versucht zu reduzieren, aber selbst die Integrierung in Engines ist erstmal nur Aufwand.
ZeroZerp schrieb:Das ist eine sehr gewagte Aussage, wenn man bedenkt, dass das DLSS hochgerechnete Bild dem der Ursprungsauflösung auch in manchen Bereichen überlegen ist.
Wo sollte das denn sonst noch hingehen, wenn sie ob dieser Tatsache Deines Erachtens (noch lange nicht dort sind, wo sie sein müssten)?
Es beschleunigt erheblich bei gleichbleibender Qualität und vermindert das Antialias ohne den Nebeneffekt der Unschärfe.
Also ich hoffe doch, dass das hochgerechnete Bild dem der Ursprungsaufloesung ueberlegen ist, also der Aufloesung die als Ausgang fuer die Hochrechung dient. Oder meinst du die Zielaufloesung? Das waere dann eine gewagte These, da man im Endeffekt Informationen hinzufuegt von denen man ausgeht, dass es die richtigen sind. Das ist alles andere als 100% perfekt und wird es auch nie sein, nur gut genug.
Eigentlich aber ich das jetzt schon mehrmals gesagt, ein Modell (wird sind ja anscheinend schon dort) und keine zusaetzliche Aenderung am Spiel, bzw. Informationen vom Spiel. Rein die Daten die man im Treiber hat und dort auch das Modell nutzt. Dann hast du wirklich "magisch" mehr Leistung.
ZeroZerp schrieb:Aha- Nachdem Du nun gemerkt hast, dass Deine Anforderungen durch das neue DLSS erfüllt sind, wird schnell eine neue Bedingung erfunden (um noch ein Haar in der Suppe finden zu können).
Und hier nochmal- Sobald ein Temporales Antialias in Spielen integriert ist, kannst Du stattdessen auch die NVIDIA Blackbox laufen lassen.
Dass viele Verfahren im Post- Processing nicht greifen, sollte Dir klar sein.
Also benoetigt es immer noch Anpassungen. Du meinst das ist ein neues Haar in der Suppe, ich meine, dass es das eben noch nicht Mainstream tauglich macht. Was bringt mir das ganze wenn ich ein Spiel nutze welches es nicht integriert? Ich erwarte mehr Leistung, bekomme sie aber nicht. Was bringen die theoretischen 60-150% dann? Sie sind einfach nicht da.
ZeroZerp schrieb:Nein- Genau so funktioniert das im Augenblick, wobei ich feststellen kann, dass Du Tensor Cores und das ganze Verfahren als Magie bezeichnest.
Da steckt deutlich weniger Magie und KI drin, als Du offensichtlich vermutest.
Weniger eigene Meinung/Erwartung reininterpretieren und Anfuehrungszeichen beachten. Dass das fuer dich so funktioniert sagt aber einiges aus. Auch wenn du dir das weniger vorstellen kannst, mir ist durchaus klar wie wenig Magie da drinsteckt. Dass das ganze recht schnell eine Grenze erreicht sollte aber klar sein. Man kann nicht einfach immer mehr Information in ein Bild reinstopfen ohne Artefakte zu erzeugen.
ZeroZerp schrieb:-Würdest Du meine Begründung lesen, wüsstest Du, dass das nichts mit Magie sondern mit für jeden in der Praxis zu beobachtenden Gegebenheiten zu tun hat.
Rytracing ist im Gegensatz zur Rasterisierung fast undendlich paralellisierbar (Praxisbeispiel Cinebench), da Du fast bis auf das Pixel runter in Arbeitspakete aufteilen kannst, die unabhängig voneinander abgearbeitet werden können.
Stell Dir eine GPU vor, die ein Steuer Chiplet hat und viele kleine Worker- Chiplets. Gefertigt in einer für die Ausbeute der Fertigungsfabriken optimalen Struktur und Größe (höchte Yield- Raten).
Du kannst nun billigst diese Mini- Chiplets in Masse auf eine Karte integrieren und jedes einzelne davon beschleunigt den Raytracing- Vorgang.
Brauchst Du mehr Leistung- Kein Problem. Zweite Karte dazustecken und schon ists fast doppelt so schnell.
Nochmal- Im Gegensatz zum Rastern skaliert RT unendlich viel besser.
Deine Begruendung war RTRT loest das alles einfach indem es parallel ist. Und dann einfach Chiplets draufschmeissen. Das ist eine typische "magische" Loesung. Auch die Begruendung jetzt widerspricht direkt dem was du mir oben vorgeworfen hast. Mal abgesehen davon, dass deine vorgeschlagene Architektur schon ein direkt eingebautes Bottleneck hat gehst du davon aus, dass wirklich jedes Pixel unabhaengig voneinander berechnet werden kann und sie sich nicht gegenseitig beeinflussen koennen. Damit ist man dann aber ziemlich beschraenkt. Mal abgesehen davon, dass man sowas wie Synchronisierung, Bandbreite, durch Hardware bedingte Latenzen, und weiteres hat die das ganze eben nicht unendlich parallelisierbar machen. Man will am Ende halt doch ein zusammenhaengendes Bild haben.
ZeroZerp schrieb:Was ist denn das für ein schräger absatz? Du kannst JEDE beliebige Berechnung natürlich auf einem CISC Prozessor immer auch per Software durchführen.
Du kannst allerdings auch Schaltungen und Spezialeinheiten dafür in Hardware gießen und die Funktion beschleunigen. So what?
Stellst Du jetzt hier ernsthaft den Vorteil von fixed function Hardwareschaltungen zur Diskussion?
Du hast DLSS als Hardwarefeature bezeichnet, was es eben nicht ist. Ein neuronales Netz ist aber Software und keine Hardware. Oder meinst du weil es auf der Grafikkarte laeuft ist es ein Hardwarefeature mit dem CISC Prozessorvergleich? Tensor Cores, minimale Einheiten, die eine bestimmte Operation sehr schnell koennen, sind Hardwarefeatures. Und auf denen laeuft DLSS, was es aber immer noch zur Software macht.
ZeroZerp schrieb:Siehe oben- Das meine ich nicht. Zudem werden sowieso in allen Chips unterschiedlichste Strukturgrößen belichtet.
Das ist eigentlich eher noch nicht so der Usus, aber wird in Zukunft verstaerkt kommen.
ZeroZerp schrieb:Muss es auch nicht - Bei 8 K wird in jedem haushaltsüblichen Raum (auch den größeren) auflösungstechnisch erst mal schluss sein.
Also hat man eine Generation gewonnen, die die Entwickler natuerlich sofort nutzen um bessere Grafik und mehr Effekte zu erzeugen. Und weg ist die Leistung. Zumal ich mit solchen Aussagen vorsichtig sein wuerde. Es wurden schon andere Aufloesungen als der Schluss bezeichnet. Spaetestens wenn man nicht mehr genug 8k Bildschirme absetzt kommt 16k.
ZeroZerp schrieb:Sie werden für die 3080TI keine 2000€+ nehmen. Und genau das hast Du geschrieben.
Das einzige was ich klargestellt habe ist die Bedingung unter welcher die Karte 2000 Euro kosten wird. Die hast du naemlich im vorigen Post ignoriert. Und ja, wenn das Teil wieder in Richtung 800mm² geht dann wird das alles aber bloss nicht billig. Und die kolportierte Karte wird gross.
ZeroZerp schrieb:Genau das macht AMD ganz offensichtlich im CPU Sektor nicht so.
Wieso also gehst Du davon aus, dass sie es im GPU Sektor plötzlich anders handhaben sollten?
Nochmal: Wieso also gehst Du davon aus, dass sie es im GPU Sektor plötzlich anders handhaben sollten, als auf dem CPU Sektor.
Die Ausgangslage und die Konkurrenzsiuation ist doch genau die gleiche.
Und daher ist eben Deine Herleitung falsch. Du versuchst zwei Unterschiedliche Konstrukte und Herangehensweisen auf die Produktbereiche der Firma zu stülpen, die sich aber markttechnisch jeweils in der gleichen Ausgangslage befinden.
Das ergibt keinen Sinn. Demnach würdest Du ja unterstellen, dass Lisa Su die Leute damit anschwärzt, im GPU Sektor alles dafür zu tun um Konkurrenzfähig zu sein.
Allein an Features wie DLSS, welche ja performancetechnisch "nur" 2 Jahre vorausgreift, lassen eine moderne Radeon bei Nutzung wie Altmetall dastehen.
Von was redest du bitte? Natuerlich nimmt AMD soviel wie sie verlangen koennen und ihre Produkte noch verkaufen, in beiden Sektoren. Oder meinst du bei den CPUs sind sie niedriger als sie koennten? Glaubst du wirklich wenn sie mehr verlangen haben sie immer noch die gleichen Verkaeufe? Es gibt einen Punkt an dem Menschen dann einfach wieder Intel kaufen und unter dem muessen sie bleiben damit sie ihre Produkte verkaufen. Liegen sie in der Leistung noch hinten, muss der Preis besser sein. Sobald die Leistung gleich oder hoeher ist sind die Preise auch oben. Die folgen schon Intel so weit es geht. Oder an was machst du das fest? Im Grafikmarkt machen sie das gleiche, ausser das Nvidia da eben die Preise ganz schoen nach oben gedrueck hat. Von da irgendwie auf Produktionskosten zu schliessen macht aber keinen Sinn.
Dein Vergleich mit DLSS scheint auch nicht ganz zu passen, da es eben fast 2 Jahre gedauert hat bis es mal einigermassen sinnvoll war. Da war einfach nur minimaler Mehrwert da, auch wenn du das gerne anders sehen darfst.
ZeroZerp schrieb:Und nein- Es braucht keine Fantasie um zu erkennen, dass sich die Entwicklung mehr Leistung für weniger Geld immer weiter fortsetzt. Du kriegst ne 2060 für 300,-€. Die kommt knapp an die Leistung der 1080 GTX ran, die man Jahrelang für 400-500,-€ eingekauft hat.
Dazu Raytracing on Top, DLSS und VRS. Somit ist die 2060 in manchen Szenarien doppelt so schnell (DLSS) und mit RT bis zu 7x so schnell als eine 1080 GTX.
Und Du redest davon, dass alles teurer wird und man nicht mehr Leistung bekommt?
Das geht doch arg weit an der Realität vorbei.
Da sind einige Personen so fixiert auf den Preis einer 2080TI, die gegenüber der 1080TI um 2 Klassen aufgewertet wurde, dass sie nicht mehr sehen, dass die Karten außerhalb des Enthusiastensegments genau den gleichen Weg gehen wie immer. Mehr Leistung- Weniger Geld.
Diesbezüglich hat NVIDIA einen groben Marketingschnitzer begangen. Sie hätten die 2080TI zu einer 2100TI machen müssen und die darunter liegenden Karten inkl. dem Super- Portfolio niedriger nach unten staffeln müssen, dann wären die Leuts wieder zufrieden gewesen und sie hätten gezeigt, dass sie eine neue Klasse geschaffen hätten, die zwar unterhalb einer TITAN liegt aber überhalb einer normalen xx80TI.
Dann wäre auch die Preisdiskussion nicht so ausgeartet.
Schliesslich hätten sie ihre vermeintliche 2080 TI dann für 699,-$ haben können.
Aber das sind nur meine 2 cents
LG
Zero
OK, erstmal, die 300 Euro fuer die 2060 duerfte die absolut billigste sein die du finden kannst. Deine Vergleiche mit der 1080 GTX (in den Videos) sind aber mit Karten die darueber sind. Die vom ersten Video kostet derzeit (!) 360 Euro, die vom zweiten, falls es die Zotac 2060 AMP ist (Zotac OC finde ich keine) genauso 360 und fuer die dritte finde ich auf die schnelle keine Preise. Die Preise sind aber Stand heute und nicht Stand Launch. Und Stand Launch war das Preisleistungsverhaeltnis von Turing grauenvoll und blieb bis zur 2080 sehr aehnlich. Erst die 2080ti konnte sich von der Leistung absetzen, und tat es genauso mit dem Preis. Das hat sich mit der Zeit etwas gebessert, da die Preise runter gingen und die Leistung etwas hoch, aber das haette immer noch nicht gut ausgesehen wenn die Pascals weiter verkauft und im Preis genauso gesunken waeren. Also nein, Preisleistungstechnisch hat sich da recht wenig getan.
Natuerlich kommst du jetzt mit Raytracing, DLSS, und VRS, ganz nach dem Marketing von Nvidia denn ohne das ganze sieht es ziemlich schlecht aus. Natuerlich musste irgendwas gebracht werden, dass einen gewissen Mehrwert suggeriert, aber das ist aehnlich als wuerde man Tesselation bringen, mit eigenen Einheiten, dafuer aber sonst wenig bis keine Performanceverbesserungen. Zumal man von diesen anscheinend unverzichtbaren Features bis jetzt recht wenig hatte und sie ziemlich verzichtbar erschienen da eben sehr wenige Spiele darauf gesetzt haben.
Colindo schrieb:Übrigens, @ZeroZerp und @Kacha, versucht doch bitte etwas besonnener mit der Diskussion umzugehen. Ihr dreht beide auf, sobald der andere etwas unklar formuliert und werft direkt völlige Ahnungslosigkeit vor. Das muss man doch nicht machen, selbst wenn der andere eine andere Meinung von der Technik hat als man selbst
Ergänzung ()
Ja, mir geht teilweise recht schnell der Hut hoch, aber in der Regel meine ich es nicht boese.
Colindo schrieb:Das kann man ja jetzt auch. Fern der Shader sind sie nicht, nur eben wie vorher geschrieben eine Hierarchie mehr als (mutmaßlich) bei AMD.
Naja, dafuer sind sie aber recht primitiv und derzeit werden sie zu nicht viel mehr als DLSS eingesetzt wenn nichtmal Raytracing fuer das Denoising darauf zurueckgreift. RTX Voice scheint ja genauso wenig darauf zu laufen.