syfsyn schrieb:
Zuerst mehr gpu Leistung lässt sich leicht erreichen indem man mehr shader und kleinere Strukturen verwendet
Die stagnation kam in den letzten Jahren durch die Fertigung
Einspruch Euer Ehren.
Die Stagnation rührt vom immer niedrigeren Ertrag bei erhöhter Anzahl an Cores.
https://upload.wikimedia.org/wikipedia/commons/thumb/e/ea/AmdahlsLaw.svg/1024px-AmdahlsLaw.svg.png
Man bewegt sich an der Grenze bezüglich des Corecounts (um die 5000), der bei Rasterisierung sinnvoll noch ein Geschwindigkeitsplus auf die Waage stemmen kann. Die Kurve ist insofern in der Realität in Sachen Grafik zu konservativ angezeigt, als dass der parallelisierbare Anteil bei Grafikberechnungen höher als die 95% liegen dürfte.
Somit bleibt den Chipdesignern, sofern man die Kosten bei sinkendem Nutzen nicht noch weiter explodieren lassen will, nur über andere Technik, neue Tricks, Fixed- Function- Einheiten ein Geschwindigkeits- Plus zu erreichen.
Eine andere Rendertechnik wäre zum Beispiel Raytracing, was entgegen der Rasterisierung fast dem Ideal an Parallelisierbarkeit gleichkommt. Damit könnte man extrem ausgedrückt auch auf jedes zu berechnende Pixel einen Core werfen und man würde noch eine Geschwindigkeitssteigerung ernten (wäre da nicht der Verwaltungsoverhead).
Somit stünden zumindest in Zukunft die Türen wieder offen für große Qualitäts- und Geschwindigkeitssteigerungen (was Unter anderem der Grund ist, warum jeder Hersteller die Technik (Raytracing) adaptiert).
Der herkömmliche Weg- Immer mehr Shader auf immer kleinerem Raum mit immer schnellerer Speicheranbindung wird allmählich nämlich in der Fertigung/im Design zu teuer/ineffektiv für rasterbasierte Anwendungen.
2018 bis heute nvidia 12nm ist da was besonderes anstatt die gpu preise zu belassen und mehr leistung für weniger geld hat man schlicht die preise erhöht und die Mittelklassen chips auf high end preise angehoben
Man hat nicht nur die gesamte Architektur umgekrempelt und das für die Zukunft so wichtige Async und Synced Int/FP eingebaut, sondern auch die oben angesprochenen Techniken integriert, die zukünftig wieder für Qualitäts-/und Geschwindigkeitssprünge sorgen können. Zudem noch Dinge wie Mesh Shader, Adaptiv Shading, DLSS etc.
Schon in der ersten Implementierung sind Auflösungen und Bildwiederholraten unter Nutzung der von Raytracing möglich, wie es vorher bei keiner derart schwerwiegenden Technologieeinführung war (T&L, Tesselation etc.).
Hat man am Anfang noch über die FullHd- Demos bei 30FPS mit
einem Raytracing- Effekt gelacht, so kann man inzwischen z.B. in Control so gut wie alle Raytracing- Effekte auf einmal bei 60FPS+ spielen (2080TI vorausgesetzt).
Oder Battlefield WQHD auf 120FPS (ein Effekt).
Die Entwicklung geht in Sachen Raytracing geradezu RASEND schnell voran. Nach eine Jahr X- Fache Geschwindigkeitssteigerungen, über 30 zum Teil erschienene und auf bis Ende nächsten Jahres angekündigte Titel.
amd 7nm 2019 ist da schon was neues endlich kann amd konkurrieren
7nm ist ein Fertigungsprozess und hat mit dem Chipdesign oder was Neuem des Grafikkartenherstellers wenig bis nichts zu tun.
Anstatt die preise zu Korrigieren haben die sich an nvidia angepasst.
Wer sagt Dir, dass nicht die neuen Chipdesigns/Fertigungsnodes etc. so teuer sind, dass sie gezwungen waren, solche Preise zu nehmen?
Im Bereich CPU kümmern sie sich doch auch nicht darum, was der Konkurrent verlangt.
Rdna2 mit rt wird erst 2021 kommen für den normalen Geldbeutel
Das sehe ich anders - ich würde mich lieber anschnallen und mich daran gewöhnen, dass die Grafikkartenfertigung immer teurer werden wird und dahingehend auch die Preise gleich bleiben bzw. vielleicht sogar leicht ansteigen.
Nun zur Technik
Wir haben derzeit ein massives cpu bottleneck ab 1080p
Die Lösung ist aktuell RT (dxr) um mehr die gpu zu fordern aber rein von den shadern her und arch kann man derzeitige high end gpu nicht auslasten.
Das stimmt so nicht. Für das CPU Bottleneck gibt es DX12 als Medizin.
Und die Shader auszulasten ist das allergeringste Problem für die Entwickler. Nur gibt es die Klientel, die ihre Shader lieber mit 4K und 144FPS belasten will, denn mit qualitativ hochwertigerer Grafik.
Wie oben bereits geschrieben, befindet man sich in Sachen Rasterisierung und Fake- Effekten am Ende der Fahnenstange, so dass es inzwischen für einige Effekte rentabler ist, diese zu Raytracen, als diese schlecht zu faken. Zudem öffnet man mit Raytracing oben beschriebenen Korridore zu mehr Geschwindigkeit und Qualitätssteigerungen.
Für Texturen benötigt man schlicht mehr vram das kostet kaum Leistung aber aktuell ist bei 8gb Schluss ausgenommen prestige gpu's wie titan und co, beim raster allerdings mehr drawcalls von der CPu und hier haperst.
VRAM kostet es nur, weil für allerlei Fakes Daten im Speicher gehalten werden und zudem, weil man auch veraltete Texturverarbeitung setzt.
Virtual Texturing ist der heisse Scheiss, der künftig eingesetzt wird, wodurch der Bedarf an VRAM und Bandbreite ans I/O System der Grafikkarte signifikant sinkt (das Mipmap Berechnungen bzw. Speicherhaltung wegfällt und immer nur das active working set im Speicher zu halten ist.
Um eine titan rtx auszulasten in 1080p benötigt man schon 5,2ghz cpu
Das ist so auch nicht richtig. Du kannst eine Titaln RTX auch mit einer 4GHz CPU und einem Shitload an Post- Processing oder Kantenglättung auslasten. Zudem hat Deinen bloße Angabe "5,2GHz CPU" keinen Wert, da die Taktung nur einen Teil der Leistungsfähigkeit eines Prozessors preisgibt.
Klar dann geht man auf 1440p was dann den takt auf nur 5ghz senkt.
Unzulässige Verallgemeinerung, das Du keine der Stellgrößen die auf die FPS Einfluss bis auf eine ominöse Taktzahl in den Raum wirfst.
4k nun da reiche auch die Üblichen 4ghz aus nur blöd das man auf dieser nativen Auflösung derzeit kein game entworfen wird.
Siehe oben- Das ist schlichtweg aus der Luft gegriffen.
Nahezu alle games richte sich an den Konsolen
aktuell max design bei den games 1080p
Ich kenne kein PC Spiel (auch Ports von Konsolen) bei welchen verhindert wird eine höhere Auflösung zu fahren.
Kann man mehr Leistung in neuen gpu noch steigern......... klares ja
Der weg führt zu Raytraying akä dxr
Das bedeutet das die shader anzahl nicht steigen wird sondern die arch verbessert wird.
Genau umgekehrt. Die Shaderanzahl kann wieder sinnvoll steigen und 1:1 in höhere Geschwindigkeit umgesetzt werden.
amd rdna hat nvidia turing eingestellt. unerwartet von nvidia
rdna und turing sind was die Auslegung auf zukünftige Spieleentwicklung anbelangt MEILENWEIT voneinander entfernt. Mit RDNA2 versucht man die große technologische-/featuretechnische Lücke zu verkleinern.
LG
Zero