Sun_set_1
Captain
- Registriert
- Sep. 2008
- Beiträge
- 4.057
ZeroZerp schrieb:Die Quelle ist z.B. die Elevator- Demo, die ohne RTX auf ca. 1/10tel an FPS der RTX Karte kommt.
Je nach Szenario ist dem nicht so. Du vergisst bei Deiner Betrachtung, dass wir bei Battlefield 5 ja nur zum geringsten Teil die RT Leistung bewerten, sondern dadurch, dass es so ein shaderlastiges Spiel ist, eher wieviel Zeit die Shader haben, um das Ergebnis eines Rays auszuwerten.
Bei Battlefield streiten sich also sowohl RT als auch die Rasterisierung um "Ressourcen". Da gilt es ein gutes Balancing zu finden.
Derzeit haben die RT Cores eine zu hohe Leistung, als dass sie die Shader im Nachgang alles sauber bearbeiten können. Wie gesagt bei einer 2080 TI könntest Du in 4K mit 90Hz pro Pixel und Sekunde 16 Strahlen abfeuern.
Nur hilft das nichts, wenn der Shaderanteil mit deren Auswertung nicht durchkommt, weil dieser von anderen Dingen belegt ist.
Klar, ist richtig. Wobei Du aber außer acht lässt, dass die hohe Shader-Auslastung prinzipiell bei allen Spielen stattfindet, welche sich an der Rasterizing-Grenze befinden. AC: Origins / Odyseee, BFV, Anno, ggf Metro usw usf. Was im Umkehrschluss eigentlich doch wieder bedeutet: Hardware ist doch noch etwas zu schwachbrüstig.
Alle weiteren Spiele, könnten theoretisch erstmal optisch an die Raster-Grenze gebracht werden, bevor man mit RT anfängt. Meine Meinung..
Fraggball schrieb:@Sun_set_1
ohje...da bin ich aber jemandem auf die füsse getreten!
zuerst, du hast recht es sind rund 700 einheiten mehr, so besser?
Du, alles gut.
Mir kann persönlich niemand auf die Füße treten, weil er ein Produkt X oder Y besser findet.
Weiterhin krebse ich noch mit einer Tri-X 290 OC herum, welche aktuell unter FHD mit guten Settings weiterhin 40-50 fps liefert. Für die zwei Stunden die ich nach der Arbeit aus vier Metern Entfernung vor dem TV spiele, reicht das für mich mehr als aus.
Was mich in der Tat ärgert ist, dass der OC-Speicher der Karte langsam den Geist aufgibt. Ich habe damals 300€ investiert. Setze ich das gleiche Geld vier Jahre später ein, erhalte ich +30% Leistung.
Nach vier Jahren.
Möchte ich das Leistungsplus, dass ich früher (was bedeutet: eine Generation vor Mining und 2000er Reihe) nach vier Jahren für das gleiche Geld bekommen hätte, müsste ich theoretisch zur 2080 / 2080ti greifen.
desweiteren, ja es ist schon beeindruckend das 68 rt cores 768 shadereinheiten übertreffen. du hast das so schön gerechnet, ich rechne das dann mal so um es anders darzustellen:
bei 68 RT cores liegt das verhältins bei ca 11 zu 1 gegenüber den zusätzlichen shadern der Titan V.
bedeutet also das 1 RT core 11 shader der titan bei DXR übertrifft.
somit leistet 1 RT core min. 110% dessen was ein shader der titan V bei DXR leisten kann, und das ist relativ ungenau und zugunsten der titan V gerechnet.
Genau das ist ja mein Punkt
Niemand weiß genau, was sich hinter Nvidias RTX Core-Begriff verbirgt. Und es steht der Vorwurf im Raum, dass es sich hierbei bloß um erweiterte Compute-Einheiten aus dem Profi-Bereich handelt. Es ist durchaus möglich, dass NVIDIA schlicht einen Cluster aus diesen (Shader/Compute-)Einheiten als RTX Core sieht.
Genauso wie NVIDIA damals definierte, dass ein sogenannter Unified Shader (woah neu! Super!) schlicht aus 5 bestehenden Streamingprozessoren bestand. Diese wurden z.B. auf Geometrie hin optimiert, fünf zusammengefasst und dann Unified Shader (Geometry) genannt.
@ZeroZerp
Korrigiere mich hier, ich google das jetzt nicht nach. Aber war die Definition eines Unified Shader bei Nvidia nicht schlicht, die Zusammenfassung eines Clusters aus (bekannten) Streamingprozessoren die auf eine Aufgabe XY hin optimiert worden sind bzw diese dediziert übernehmen können? Beispiel Geometrie-Berechnungen. Dann wird auf einem dedizierten Streaming Cluster (US) die Geometrie-Berechnung durchgeführt welcher diese schneller erledigen kann. Gleichzeitig wurde die restliche GPU eben um diese Aufgabe entlastet. Die Streaming-Prozessoren selbst waren aber keine Neuheit, sondern eine schlichte Weiterentwicklung. Inklusive Optimierung auf eine bestimmte Aufgabe hin.
Somit gilt dort natürlich auch, ein Unified Shader verfügt über die fünffache Rechenleistung eines Streaming-Prozessors.
Was man nun annimmt ist, dass NVIDIA das Gleiche mit ihren RTX Cores getan hat. Zusammenfassung bestehender Einheiten zu einem Cluster. Dieser Cluster (RTX Core, bestehend aus elf "Spezial-Shadern"?) ist dediziert für die Berechnung der Rays zuständig. So in etwa wurde es ja sogar von Nvidia beschrieben. (Das RTX Cores dedizierte Einheiten sind)
Nur sind die Einheiten dahinter eben doch nicht unbedingt so neu und revolutionär wie es der Begriff "First real hardware based Raytracing Core" suggerieren möchte.
Fraggball schrieb:kannste selbst suchen.
Wer behauptet sollte beweisen, ansonsten lasse ich das Argument komplett außen vor. Wie ich sagte, wird so ziemlich jedes Spiel auf einer Titan entwickelt und fordernde Effekte auch auf diesen getestet.
abgesehen davon ist die titan V volta architektur, auf der die turing architektur basiert. somit kaum verwunderlich das volta in den grundzügen in der lage ist DXR ansatzweise brauchbar zu liefern.
Da NVIDIA sagte dass für DXR eben die RTX Core notwendig sind und diese eben nicht auf der Titan sind.. egal lassen wir das, wir drehen uns im Kreis.
Zuletzt bearbeitet: