.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.631
Der ganze Eiertanz, den Du hier aufführst kann nicht davon ablenken, dass Du offenbar aus dem Blick verloren hast, in welcher Sache Du eingestiegen bist:vander schrieb:Und wieder ist der Sentinel ziemlich ungelenk ausgewichen. Ich zitiere mal deinen Link.
.Sentinel. schrieb:Seid doch eher froh, dass mit RTRT eine Technik einzug hält, die eine fast unbegrenzte Skalierung sowohl in der Qualität als auch Rendergeschwindigkeit liefert.
Irgendwas ist zu langsam? -> Kein Problem. Zusätzliche Karte zur alten rein und schon wird es schneller.
Immernoch zu langsam? -> Kein Problem. Zwei oder drei Karten rein.
Immernoch zu langsam? -> Kein Problem. Einfach mehrere günstige GPUs auf eine Karte quetschen und sie skalieren super.
und Du kamst mit einem:
vander schrieb:Steile These, angesichts der aktuellen Hardwarepreise/Verfügbarkeit. Ganz davon ab, das es auch praktisch nicht funktioniert. Kurz gesagt, ein Theoretiker.
Allein das einleitende Schein- Argument tut bezüglich des Themas überhaupt nichts zur Sache, womit Du Dich quasi mit Satz eins schon Disqualifizierst, indem Du auf das allgemeine Rumgeheule und den Circle- Jerk ob der miesen Verfügbarkeiten einsteigst. Völlig Off- Topic. Was sollte das denn belegen, was meiner Ausführung widerspricht?
Und zweitens drehst und wendest Du das Thema im Anschluss mit einem Rückzugsgefecht in immer neue Richtungen, die letztendlich zum Schluss heissen (weil Du bis jetzt auf Deine zweite Behauptung hin "da es auch praktisch nicht funktioniert" bis jetzt nichts lieferst):
Du definierst hier das Thema für Dich nun um, da Du merkst, dass das Eis auf dem Du stehst immer dünner wird. Noch dazu wirfst Du hier Begrifflichkeiten durcheinander.vander schrieb:das war aber nicht das Thema, du hast was von Karten geschrieben und es geht hier um RTX bzw. DXR.
vander schrieb:Wie man einfach in deinem Link lesen kann, wird mitnichten per RT-API (RTX/DXR) berechnet, der OctaneRenderer nutzt lediglich GPGPU/CUDA um seine Berechnungen zu beschleunigen.
Dann erklär mir mal GENAU, was an einer Engine, die Du zum Zwecke eines Multi- GPU- Realtime Path- Tracens erstellst, nicht möglich sein soll.
Was genau an den Chiplet- oder MCM Designs nicht möglich ist, die in der Praxis für die Zukunft von so ziemlich allen Firmen angeboten werden und warum diese gerade RTRT nicht beschleunigen können werden. Du behauptest ja, dass das praktisch überhaupt nicht funktioniert.
Und jetzt weich nicht länger aus und werde konkret. Es wird langsam langweilig und schweift immer weiter vom Thema ab.
Übrigens (hättest ja mal wenigstens 2 Sekunden googeln können):
...und sollte nur als Beispiel dienen, dass Du Raytraced Szenen eben mit Kernen, Karten oder was auch immer bewerfen kannst und es wird immer schneller dadurch.OctaneRender 2019 first look - optimized support for NVIDIA RTX Ray Tracing, Vulkan, DXR, CUDA and Metal iOS/Mac OS backends built on OTOY’s cross-platform RNDR framework.
Die Scanline- Verfahren durch SLI waren alleine schon durch Methodiken wie render to texture zum Tode verurteilt. Das hast Du beim Tile- based Ansatz in RT nicht, in welchen Du Einheiten an fast bliebig kleinen Chunks knabbern lässt.
Der Vorteil ist, dass Du im Master- Thread sogar Chunks, die nicht innerhalb des vorgegebenen Zeitfensters fertigberechnet sind, trotzdem in das Target schieben kannst. Dann sieht halt ein winziger bereich nicht 100% rauschfrei aus, wenn der Denoiser das nicht packt.
Aber im gegensatz zur Rasterisierung hast Du durch RTRT eben auch deutlich bessere und vielfältigere Möglichkeiten eine Zielframezahl anzusteuern bei weniger Gesamt- Qualitätsdegradierung als es z.B. eine variable Auflösungsanpassung auslösen kann.
Zuletzt bearbeitet: