Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

Bigeagle schrieb:
128x FP statt fix 64x FP + 64x INT ist an sich ja nett, aber das ist ein bisschen wie bei AMD mit ihren Bulldozerkernen. Nettes Feature, durchaus sinnvoll, aber das als doppelte FP Leistung bewerben ist nur die halbe Wahrheit.
Das habe ich mir auch gedacht :D
 
Also bei Borderlands 3 sehe ich da überhaupt keinen Zusammenhang.
Gut, nutzt die Unreal Engine 4, aber ich hab mal bisschen geschaut ob da in letzter Zeit ein größeres Software Update gekommen wäre und hab nichts gefunden.
Ich vermute daher, dass die Zahlen die Nvidia nennt in etwa hinkommen. -5% vielleicht.

Teralios schrieb:
Dann wähle beim nächsten mal ein etwas sanfteren Tonfall, statt sofort damit zu kommen, dass ich was vergessen hätte.

Also ich finde das sehr sanft, ich weiß ja nicht wie sonst eine Diskussion geführt wird.^^

" Du vergisst für mich an der Stelle den riesigen Performancevorteil. "

Das ist ein Angriff? 😆

Ok, bei der Attitüde diskutiere ich auch nicht mehr, versprochen.:rolleyes:
Die Ignorelist wird wieder gefüllt, leider.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Lübke82
@KlaraElfer

Nettes Fake Zitat, nur hatte ich das nie geschrieben.

Edit: Das entsprechendes Posting wurde geändert, damit hat sich das wohl erledigt. :D
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: KlaraElfer und Mcr-King
xexex schrieb:
Es ist keine Einschränkung wenn ich die vorher brachliegenden Int32 Einheiten nun als FP32 Einheiten nutzen kann.
versteh mich doch nicht absichtlich falsch O.o
ja, man kann nun ggf vorherige fixed int einheiten auch für fp nutzen.
die einschränkung besteht dabei relativ zur angegebenen peak leistung die nun mal nur in fp angegeben wird bei gpus.
vorher: 10 TFLOPS peak -> ich habe immer theoretische 10 TFLOPS peak
jetzt: 20 TFLOPS peak -> ich habe im idealfall 20 TFLOPS peak und immer noch 10 TFLOPS bei voller auslastung der INT Einheiten

auf dem papier sieht man aber erstmal nur 20 statt 10 tflops peak - ui, doppelt so schnell! - und nur in den tech. details dann die einschränkung dass das nur gilt falls die int einheiten brachliegen.
das ist ein unterschied zu vorher mit fixer zuteilung. nicht negativ, aber erfordert meiner meinung nach eine zusätzliche information.
erfahrungsgemäß lesen, bzw verstehen aber viele die details nicht.
Krudes, hypothetisches Beispiel für einen anderen Blickwinkel:
Stell dir ein Netzteil vor das bei 450 W gesamtleistung nur dann 35 A auf 12 V liefert wenn keine Last auf der 5 V Schiene liegt. Andernfalls reduziert sich die Leistung anteilig bis auf 17,5 A 12 V und einige wundern sich dass ihnen das NT stirbt, bzw der PC crashed da die Graka auch mal über 200 W zieht und sie aus irgendeinem Grund last auf den 5 V haben.

Ja, das NT hat 450 W, theoretisch reicht die 12 V Leistung auch aus, aber im Kleingedruckten steht eben eine Einschränkung. Ist immer noch besser als fix maximal 17,5 A für 12 V, aber erfordert einen entsprechenden Hinweis und das Wissen um die Nutzung der 5 V Schiene im eigenen System das die wenigsten haben dürften.

Ich störe mich nur an der schwierigen Kommunikation/Information und den dadurch ggf unrealistischen Erwartungen.
 
  • Gefällt mir
Reaktionen: GERmaximus
10.496 shader sind einfach Der Wahnsinn!

Also eins steht fest. Sollte big Navi um die 5.000 shader haben, wird nur Navi sicherlich nicht der Gegner gegen die rtx 3090. Eher 3070/3080 wobei ich bei der 3080 auch meine Zweifel habe. Da muss AMD schon enorm an der Architektur geschraubt haben.
 
KlaraElfer schrieb:
Das sehe ich persönlich nicht so. Ich nehme den größten Sprung von Full HD auf WQHD war und ab dann ist es mMn nicht mehr signifikant. Gut, natürlich auch abhängig von der Monitorgröße und Pixeldichte.

Ich sitze jetzt auf 27 Zoll und WQHD und der Sprung zu meinem 4K Monitor der hier noch rumsteht (28Zoll) ist für mich irrelevant.
Ich habe leider keinen 4K Monitor zum Vergleich, aber wenn ich z.B. WoW in 4K rendern lasse, statt meinen nativen 1440p, sieht das für mich merklich besser aus, als 1440p mit AA. Übrigens 27". Daher möchte ich auch wahnsinnig gerne auf native 4K wechseln.
 
  • Gefällt mir
Reaktionen: Lübke82 und KlaraElfer
.Sentinel. schrieb:
Du hast ein fehlerhaftes Verständnis davon, was "Bild" im Falle vom Rastern bedeutet.

Das Bild wird erst generiert, wenn die Szenendaten arrangiert sind. Und das ist tatsächlich so, als ob Du zum Zeitpunkt XY einfach ein Foto schießt.
DLSS schießt mit weniger Auflösung viele Fotos (supersampling) an verschobener Stelle (jitter) und kombiniert sie mit den Fotoinformationen von Vorgängerframes.
Ähm ja, netter Versuch.
Beim Supersampling werden eher viele Samples aus den angrenzenden bereichen Bereichen genutzt um dessen Eigenschaften so zu verändern damit es so an die umgebung angepasst wird das fehler durch zu harte Kanten gemindert werden.

Würde deine Theorie zutreffen dann gäbe es seitens der Framerate keine Vorteile weil alle Pixel des ausgegebenen Bildes den Renderablauf durchlaufen hätten, siehe SSAA welches unmengen an Rechenleistung frißt.
 
KlaraElfer schrieb:
Sehe ich auch anders, da man durch Auflösung an sich kaum mehr an BQ hinzugewinnen kann.

Das stimmt so aber nicht. Auf Handydisplays würd ich da noch mitgehen, aber ab ca. 27" - Bildschirmen kann ich das stark verneinen. Je größer die Displays nun mal werden, desto mehr bringen auch höhere Auflösungen was. 1440p oder weniger, möchte ich nicht auf meinem 65"er ertragen müssen. Also Bedarf ist da, auch wenn es natürlich nicht die Masse betrifft.
 
GerryB schrieb:
Mit nem 28"- 4k-Moni würde man aber gar kein TAA benutzen sondern meist AA=off lassen.
Insofern kann 4k-DLSS net besser in der Qualität sein.
und
Standbild interessiert eh Keinen, bzw. gabs beim alten RT das Problem, das die volle Bildquali auch erst nach einigen Strahlen mehr da war, sprich man kurz Stehen musste.
Bin mal gespannt, wie die RT-Qualität in der Bewegung wird.

Ob DLSS nun besser oder schlechter ist als 4k, kann ich absolut nicht beurteilen. Ich habe weder das eine noch das andere. Es ging mir nur darum, das "canada" sich genau das passende Zitat aus dem Text rausgesucht hat, um seine Meinung zu vertreten. Alle positiven Sachen aus dem Test hat er mal unter den Tisch fallen lassen. Nicht die feine Art. Dazu paßt es dann auch, das er keine Quelle angegeben hat.
 
KlaraElfer schrieb:
Das ist ein Angriff? 😆
Ich mag nicht ausschließen, dass ich da wegen einer gereizten Grundstimmung durch den einen oder anderen auch überreagiere. Das haben hitzige Diskussionen so an sich.

KlaraElfer schrieb:
Die Ignorelist wird wieder gefüllt, leider.
Mach, was du für richtig hältst und was für dich das Beste ist.
 
  • Gefällt mir
Reaktionen: GERmaximus
Nahrungsmittel schrieb:
10.496 shader sind einfach Der Wahnsinn!

Also eins steht fest. Sollte big Navi um die 5.000 shader haben, wird nur Navi sicherlich nicht der Gegner gegen die rtx 3090. Eher 3070/3080.....
Das hängt extrem davon ab wie sie vom Spiel genutzt werden denn wenn gleichzeitig int. Operationen bearbeitet werden müssen ist nur noch die Hälfte der Shader nutzbar.
Ich bin mir allerdings sicher das nvidia kräftig darin "investieren" wird den Code der PC Versionen der entsprechenden Spiele dahin gehend zu "optimieren".
 
Wadenbeisser schrieb:
Ich bin mir allerdings sicher das nvidia kräftig darin "investieren" wird den Code der PC Versionen der entsprechenden Spiele dahin gehend zu "optimieren".
Müssen sie nicht mal unbedingt, es reicht schon, wenn sie ihren Treiber entsprechend optimieren, dass er die INT-Berechnungen optimiert auf die SM gibt.

Man wird schauen müssen, was da kommt.
 
  • Gefällt mir
Reaktionen: .Sentinel.
KlaraElfer schrieb:
Wenn das egal wäre, sähe DLSS Performance nicht deutlich schlechter aus als Quality.

Das tut es auch gar nicht. Zumindest nicht so deutlich wie angeprangert. In Mechwarrior und Deliver Us the Moon sehe ich im Spielfluss keinerlei Unterschiede außer bei den FPS.
 
Das DLSS ist ein sehr starkes Stück Hardware.

Was man daraus macht, ist schwer zu sagen, da das meiste von dieser Technologie auf "anlernen" basiert.

" Die Grafikkarte rendert bei 8K DLSS mit einer Auflösung von 2.560 × 1.440 und das neuronale Netzwerk rechnet die Auflösung dann um den Faktor 9 hoch. "

Das kann funktionieren, muss aber auch nicht. Man gibt halt Dinge aus, die nie berechnet wurden.

Vor vielen Jahren hatte ATI mal eine ähnliche Technologie für Polys versucht zu etablieren.

https://en.wikipedia.org/wiki/ATI_TruForm

Das war in der Theorie super. Funktioniert hat es nicht so wirklich.

mfg
 
[wege]mini schrieb:
Das war in der Theorie super. Funktioniert hat es nicht so wirklich.
Naja, doch, eigentlich funktioniert es heute recht gut, nennt sich heute Tesselation und ist seit DX11 Bestandteil der Direct3D-Api. ;)
 
  • Gefällt mir
Reaktionen: Lübke82
@Teralios

Ich glaube nicht das es so einfach ist denn man sah ja bereits bei den bisherigen Vergleichstest das es recht deutliche Skalierungsunterschiede zwischen der alten und der neuen Generation gab.
Da der PC Bereich im Vergleich zu den Konsolen bei der Spiele Entwicklung eher eine untergeordnete Rolle spielt ist die grundlegene Optimierung relativ klar aber so erreichen vor allem Prestige trächtige Spiele eher selten die PC Welt.
 
firejohn schrieb:
Bei Kepler war doch die Compute (ich kenn mich mit der Materie noch nocht so aus, interessiert mich aber) Leistung irgendwie künstlich treiberseitig halbiert. Damit die Profikarten einen Vorteil haben.
Du meinst damit die Leistung für Berechnungen mit doppelter Genauigkeit, also FP64. Da hat sich in den letzten Jahren wenig getan, die wird weiterhin nur für wissenschaftliche Berechnungen benötigt und deshalb bei Consumer-GPUs beschnitten.
 
Teralios schrieb:
nennt sich heute Tesselation

Leider frisst es trotzdem mehr Rechenleistung als ursprünglich versprochen :D

Es gab sogar Benchmarks, für Tesselation Leistung. :evillol:

DLSS kann sehr viel. Die Idee ist super und für einfache gerade Linien von A nach B muss man ja nicht zwingend in 8K rendern. Das kann auch die "KI" machen.

Mit steigender Anzahl von Polygonen sinkt natürlich der Vorteil dieser Technologie. Genug Rechenleistung für 8K in Rasterisation für richtig viele Polygone, wird aber auch die nächsten 5 Jahre nicht vorhanden sein.

Entweder Raytraycing mit kleinerer Auflösung und unendlicher Anzahl von Polys mit Fake hoch gerechneter Ausgabe oder der der aktuelle Weg.

Was die Zukunft wird, kann keiner sagen. Man versucht Angebote zu machen. Time will tell.

mfg
 
[wege]mini schrieb:
Was die Zukunft wird, kann keiner sagen. Man versucht Angebote zu machen. Time will tell.
Richtig, die Zeit wird es zeigen.

Ich sag es mal so: Vielleicht gönne ich mir nächstens Jahr zu Weihnachten eine 3090. Mal schauen. XD
 
  • Gefällt mir
Reaktionen: [wege]mini
[wege]mini schrieb:
Das DLSS ist ein sehr starkes Stück Hardware.

Was man daraus macht, ist schwer zu sagen, da das meiste von dieser Technologie auf "anlernen" basiert.
Technologieen wie DLSS sehe ich eher als ein gutes Feature um mit schwachbrüstige Hardware dennoch gute Frameraten auf hochauflösenden Dsiplays zu erhalte.
Das was damals von ATI als TruForm bekannt wurde kennen wir heute in abgewandelter Form eher als Tesselation. ;)
 
Zurück
Oben