Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

snickii schrieb:
Bin mal gespannt auf die Tests, vielleicht nimmt mir das ein wenig das Gefühl "nur 10GB". Spiele letztendlich eh nur in WQHD mit 27" und ist jetzt auch nicht so das alles bei Ultra sein muss
Bei 10 GB solltest dir keine Sorgen machen in wqhd und dem schnellen Speicher und wahrscheinlich wird man mit pcie 4 noch weniger sich Sorgen machen müssen, so wie ich es verstanden habe, weil noch besser und schneller ausgelagert wird und es dann perfekt ist wenn der vram limitiert!

Hab mir jetzt ein b550 Mainboard mit pcie 4 geholt und einem ryzen 3600 und später rüste ich auf Zen 3 um. Die Tage vom 7700k sind gezählt :)
 
FreedomOfSpeech schrieb:
@.Sentinel.

Hier die Grafik von CB:


Schaut für mich aus wie 64+64 und nicht wie 128+64.
Es ist ja alternierend.... Da kannst die Funktionsweise wählen. Enweder das klassiche FP32 + INT. Oder 2x FP32 und kein Int.
Und da durch einen normalen Spieleworkload eben nunmal nur ein Bruchteil der Einheiten im FP32+INT32 Modus laufen müssen, kann der Rest die doppelte FP32 Leistung aufs Parkett legen.
Und das war die Praxisrechnung, die ich aufgemacht habe. Mich orientierend nach der Statistik im Turing Whitepaper.
https://www.hardwareluxx.de/images/...tion-011_4795153C1BC0413F83A447BA7C1DC77A.jpg

Dazu aus Igors Seite noch:
Ein einzelner SM bei Turing bestand noch aus 64 FP32-ALUs für die Gleitkomma-Berechnungen sowie 64 INT32-ALUs für Ganzzahl-Berechnungen, aufgeteilt in vier Blöcke zu je 16 FP32- und 16 INT32-ALUs. Der Trick dabei: die FP- und die INT-ALUs können gleichzeitig angesprochen werden. Und Ampere? Die 64 reinen FP32-ALUs pro SM bleiben weiterhin erhalten, aber die 64 INT32-ALUs stockt man um 64 weitere auf, die nach wie vor auch wahlweise Floating-Point- und zusätzlich Integer-Berechnungen durchführen können, mit einer Einschränkung: das geht nun nicht mehr parallel.

Ergänzung ()

romeeee schrieb:
Ne, das verwirrt mich auch immer, Schallleistung verdoppelt sich mit 3 dB
Meinst Du damit nicht eher die Schallenergie? Oder haben wir hier ein Definitionsdilemma? :)

Schallpegel (dbA) verdoppelt sich mit 6 db und Lautheit mit 10 dB
Effektiver Schalldruck?

Lautheit ist klar.... Aber ich glaube- Wir wissen schon, was hier im Allgemeinen gemeint ist.
Wobei ich da praxigeschädigt bin, weil ich das automatisch immer gleich im Kopf mit Anzahl Chassis, Membranfläche und Seriell/Parallelschaltung durchrechne. ;)
Somit hat der erste Wert für mich immer nur die Bedeutung des Basiswirkungsgrades bei Berechnung eines Bassclusters...
Bzw. neuer Ausdruck- Schallintensität.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
legenddiaz schrieb:
Bei 10 GB solltest dir keine Sorgen machen in wqhd und dem schnellen Speicher und wahrscheinlich wird man mit pcie 4 noch weniger sich Sorgen machen müssen, so wie ich es verstanden habe, weil noch besser und schneller ausgelagert wird und es dann perfekt ist wenn der vram limitiert!

Hab mir jetzt ein b550 Mainboard mit pcie 4 geholt und einem ryzen 3600 und später rüste ich auf Zen 3 um. Die Tage vom 7700k sind gezählt :)
Hier spekuliert Jay, dass sich AMD CPUs als Bottleneck erweisen könnten.
 
monitorhero schrieb:
Hier spekuliert Jay, dass sich AMD CPUs als Bottleneck erweisen könnten.
Wenn die nicht immer in 1080p testen würden, müssten sie nichts spekulieren^^
 
  • Gefällt mir
Reaktionen: Benji18, Oneplusfan, Rock Lee und eine weitere Person
Taxxor schrieb:
Die 5700 ist in der aktuellen Rangliste 61% vor der 5500XT.

Im 5500XT Releasetest waren es nur 46%.
Wogegen die 5700 aber in diesem Test 60% vorne lag, war gegen die 4GB Version der 5500XT, deine "gute Skalierung" kommt also hier einfach nur daher, dass die 5500XT durch den VRAM limitiert wurde.
Nochmal, wo ist dein Problem?
Beim Starttest wurden beide Varanten getestet, die 4 GB wurden als unzureichend bewertet und im aktuellen Graka Vergleich ist die Speicherbestückung nicht vermerkt. Ich habe allerdings starke Zweifel daran das die unzureichende 4 GB Variante genommen wurde.
https://www.computerbase.de/artikel...08/seite-2#abschnitt_benchmarks_in_1920__1080
https://www.computerbase.de/artikel...te.2487/#diagramm-performancerating-1920-1080

Warum stürzt du dich jetzt wieder auf die normale 5700er mit einem anderen Takt Bereich um dem unbekannten, variablen Faktor Vorzug zu geben? Auch sehe ich absolut kein Problem darin wenn bei großen Unterschieden die Speicherbandbreite mit wächst, das ist sogar elementar wichtig um keinen Bandbreitenkrüppel zu bekommen.
Aber selbst wenn man von deinem 5500XT vs. 5700 Vergleich ausgeht dann ist die 5700 bei 64% mehr Shadern 61% schneller, was einer Skalierung von ca. 95% entspricht und damit im krassen Gegensatz zu deiner Aussage steht.

Es gibt auch einen sehr simplen Grund warum sich die Testergebnisse erheblich unterscheiden können, ein anderes Testsetting mit einer anderen Spiele Auswahl und/oder Grafikeinstellungen bei denen die schnelleren Karte nicht so schnell ins CPU Limit der Spiele rennen.
 
monitorhero schrieb:
Aber 1080p ist die meistgenutzte Auflösung und daher auch relevant.
Hat aber in dem Fall nichts im CPU Test zu suchen.
Wenn er wissen will, ob eine 3080 durch AMD CPUs limitiert werden würde, braucht er mit einer 2080Ti einfach nur in 720p zu testen und die 2080Ti somit 30% mehr FPS rendern zu lassen.

Wenn die AMD CPU da nicht limitiert, dann tut sie es mit einer 3080 in 1080p auch nicht, da muss man nichts spekulieren.
 
  • Gefällt mir
Reaktionen: Benji18, Cyberbernd, OZZHI und 2 andere
monitorhero schrieb:
Hier spekuliert Jay, dass sich AMD CPUs als Bottleneck erweisen könnten.
Ein Gutes hat das Erscheinen einer deutlich leistungsfähigeren Grafikkartengeneration.
Es wird einige geben, die plötzlich kapieren, warum man CPU Benchmarks nicht im GPU Limit durchführt. :)
Und warum deren "praxisrelevanten" Tests für die Bewertung der Leistung überhaupt nichts aussagen.

Edit:Taxxor war schneller
 
  • Gefällt mir
Reaktionen: Taxxor
Wadenbeisser schrieb:
Warum stürzt du dich jetzt wieder auf die normale 5700er mit einem anderen Takt Bereich um dem unbekannten, variablen Faktor Vorzug zu geben?
Weil die 5700XT nicht im 5500XT Test dabei war und der dortige Unterschied von 5700 zur 4GB 5500XT exakt dem Unterschied im aktuellen Ranking entspricht.
 
Teralios schrieb:
In dem Fall denkt ihr beide aber etwas zu kurz. Eure Vergleiche, Berechnungen und Co sind wunderschön und toll und so wieso, sie scheitern nur an einem wichtigen Punkt: Ihr zieht eure Schlüsse aus RDNA und baut darauf eine fiktive BigNavi auf, die aber auch hier nur RDNA entspricht.

Nee nicht wirklich denn ich schrieb ja bereits das die Einheitenskarierung, vor allem oben raus, bei RDNA2 noch ne riesen große Wundertüte ist weil dazu nichts bekannt ist und man die Skalierung von GCN nicht übertragen kann. :D
Das war nur ein Beispiel das wir eben nicht von 60-80% sprechen sondern sie erheblich stärker ausfallen kann.
 
monitorhero schrieb:
Hier spekuliert Jay, dass sich AMD CPUs als Bottleneck erweisen könnten.
Ich zocke ja auf WQHD und der 3600 ist erstmal Platzhalter, da ich mir Zen 3 zulegen werde.
Ich glaube nicht das ich mir mit Zen 3 und pcie 4 Anbindung sorgen machen muss um die Zukunft, wenn ich mit einer rtx 3080 auf WQHD zocken will...
 
  • Gefällt mir
Reaktionen: monitorhero
Taxxor schrieb:
Weil die 5700XT nicht im 5500XT Test dabei war......

Aber im monatliche Graka Ranking mit einem erheblich größeren Testfeld bis rauf zur 2080Ti (die ebenfalls im release Test nicht dabei war) und damit mit Sicherheit auch mit passenden Spielen und Grafikeinstellungen die gerade entsprechend kleinere Modelle ordentlich fordern können, was ich übrigend bereit als Bild in eingefügt und auch direkt verlinkt hatte....
 
.Sentinel. schrieb:
Wird zeit, dass das Ding auf DX12 gehievt wird. Eigentlich eine peinliche Vorstellung, wenn man bedenkt, dass Microsoft die Mutter von DX12 ist.
Dass genau die das dann nicht nutzen ist "merkwürdig", um das mal vorsichtig auszudrücken :)
Naja, es gibt vielleicht Gründe, die wir nicht kennen. Der Flight Simulator hat recht spezielle Ansprüche, die viele Spiele nicht haben.
Besonders, was Multimonitor Support angeht. Leute bauen sich damit ganze Cockpits aus 8 Monitoren zusammen.
Da ist es sicherlich deutlich einfacher auf die in DX11 implementierte Windows Implementation des Multimonitor Supports zurückzugreifen anstatt eine eigene in DX12 zu implementieren. Auch der VR Support in DX12 ist vielleicht noch nicht so ausgereift wie der in DX11.
Die hatten sicherlich ihre Gründe DX11 zu nutzen, denn ich kann mir nicht vorstellen, dass MS den FlightSim nicht auch gerne als Marketingwerkzeug für DX12 genutzt hätte.
 
  • Gefällt mir
Reaktionen: .Sentinel.
.Sentinel. schrieb:
Ein Gutes hat das Erscheinen einer deutlich leistungsfähigeren Grafikkartengeneration.
Es wird einige geben, die plötzlich kapieren, warum man CPU Benchmarks nicht im GPU Limit durchführt. :)
Und warum deren "praxisrelevanten" Tests für die Bewertung der Leistung überhaupt nichts aussagen.

Edit:Taxxor war schneller
Könntest du mir das etwas ausführlicher erklären? Deren Tests waren im GPU Limit? Hängt das nicht von der Auflösung ab?
Wenn ich mir als Ottonormal User eine 3080 kaufe mit einem 3600XT beispielsweise hätte ich dann nicht ein CPU Limit? Bin da leider nicht so firm, daher die Fragen :)
Ergänzung ()

legenddiaz schrieb:
Ich zocke ja auf WQHD und der 3600 ist erstmal Platzhalter, da ich mir Zen 3 zulegen werde.
Ich glaube nicht das ich mir mit Zen 3 und pcie 4 Anbindung sorgen machen muss um die Zukunft, wenn ich mit einer rtx 3080 auf WQHD zocken will...
Nach ersten Leaks von Igor hat Zen 3 kaum Clockspeed Zuwachs. Scheint viel mehr das gleiche zu sein wie die XT Serie + 15% IPC Gewinn.
 
Taxxor schrieb:
Wenn die AMD CPU da nicht limitiert, dann tut sie es mit einer 3080 in 1080p auch nicht, da muss man nichts spekulieren.
Das wäre ja zu einfach und da könnte man dann auch nicht rund 20min um den heißen Brei reden und Klicks kassieren ;) Ich werde nie verstehen, wieso man sich solche Videos anschaut.
 
  • Gefällt mir
Reaktionen: Taxxor
@monitorhero

In Full HD auf hohen fps hättest du ein wohl ein CPU Limit, in wqhd wird er schon verschwindend geringer und in 4k spielt es keine Rolle mehr. Aber um ehrlich zu sein wer holt sich bitte eine 3080 und zockt noch auf Full HD :/ bitte sag nicht ja :)
 
  • Gefällt mir
Reaktionen: hurcos und monitorhero
Mist mit UWQHD ist das so eine Sache. Meine 1080TI ist voll im Limit bei fast jedem Game.. die 3090 ist zu teuer bzw. Perlen vor die Säue da ich die 24GB nie nutzen werde.. die 3080 ist ggf. Im Limit was vram angeht.. und warten kann ich nicht da bei manchen Games zu wenig FPS kommen. :confused_alt:
 
legenddiaz schrieb:
Hab mir jetzt ein b550 Mainboard mit pcie 4 geholt und einem ryzen 3600 und später rüste ich auf Zen 3 um. Die Tage vom 7700k sind gezählt :)
Würde auch gern auf pcie 4 gehen aber ich würde wegen Streaming dann vom 2600 auf 3900x gehen... und das lohnt nicht so richtig wegen Zen 3
 
  • Gefällt mir
Reaktionen: Mcr-King
noxon schrieb:
Die hatten sicherlich ihre Gründe DX11 zu nutzen, denn ich kann mir nicht vorstellen, dass MS den FlightSim nicht auch gerne als Marketingwerkzeug für DX12 genutzt hätte.
Einen DX12 Renderer hätte es sicherlich für den Release auf den alten Konsolen mit der schwachen CPU gebraucht. Vermutlich ist die Performance auf PC und Series X eh meistens durch die Shader limitiert, weshalb der Nutzen von DX12 dann gering wäre.
 
monitorhero schrieb:
Könntest du mir das etwas ausführlicher erklären? Deren Tests waren im GPU Limit? Hängt das nicht von der Auflösung ab?
Genau das ist ja der Punkt^^
Je höher deine Auflösung, desto weniger FPS kann deine GPU stemmen, je niedriger, desto mehr kann sie stemmen.

Der CPU ist deine Auflösung dabei egal, also je weiter du mit der Auflösung runtergehst, desto näher kommst du dem Punkt, an dem die GPU zwar immer mehr FPS bieten kann, deine CPU aber nicht mehr, ab dann bist du im CPU Limit, in dem man CPUs üblicherweise testen sollte.

Wenn du eine CPU jetzt in 1080p mit einer 2080Ti testest, kann es in einigen Spielen passieren, dass du auch in 1080 mit der 2080Ti im GPU Limit liegst und daher nicht weißt, wie viel mehr FPS die CPU noch hätte bringen können.
Genau das fragt sich Jay aber in seinem Video.
Die einfache Lösung ist: Auflösung reduzieren, die GPU mehr FPS liefern lassen und schauen ob die CPU noch genau so weit mitgeht.
Denn die Reduzierung der Auflösung und damit einen ~33% FPS Schub für die GPU hat den gleichen Effekt, wie die GPU bei gleichbleibender Auflösung durch eine 33% stärkere GPU auszutauschen.

Unter 720p gehen viele Spiele nicht, In Spielen die über eine einstellbare Renderskalierung verfügen kannst du das ganze aber trotzdem noch weiter treiben indem du hier nochmal die Renderauflösung reduzierst und der GPU somit z.B. 50% mehr FPS geben kannst, dann weißt du auch ob deine CPU eine 50% stärkere GPU versorgen kann.
 
  • Gefällt mir
Reaktionen: KlaraElfer, tidus1979, sifusanders und 2 andere
Zurück
Oben