Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

SKu schrieb:
Jetzt stellt sich mir die Frage, ob die im Digital Foundry Video genutzten Spiele, vornehmlich FP-Berechnungen durchführen oder nicht.

Das kannst du ganz gut an der Grafik von Nvidia sehen.
1599311964084.png

https://www.gamersnexus.net/guides/3364-nvidia-turing-architecture-technical-deep-dive

Grundsätzlich nutzt jedes Spiel wesentlich mehr FP32 Berechnungen als Int32. Int32 benötigt man in erster Linie in Applikationen und nicht bei der Grafikdarstellung.
 
  • Gefällt mir
Reaktionen: Lübke82
@CrustiCroc

Ich halte es für fatal die kommenen AMD Chips zu unterschätzen denn selbst mit einem doppelten Navi 10 und ohne weitere Optimierungen dürfte man den 3070er und vermutlich auch den 3080er Modellen gefährlich nahe kommen. Vielleicht wurden diese ja deshalb preislich so tief angesetzt.
 
  • Gefällt mir
Reaktionen: Nuon
GerryB schrieb:
Mit nem 28"- 4k-Moni würde man aber gar kein TAA benutzen sondern meist AA=off lassen.
Insofern kann 4k-DLSS net besser in der Qualität sein.

Da ich vorher einen 4k-28"-Bildschirm hatte, kann ich dir versichern, dass deine Aussage absolut falsch ist. Denn auch bei 4k in 28" hast du ein deutliches Flimmern an Polygonkanten und von Vegetation wie Bäumen und Gräsern will ich gar nicht erst anfangen! Die Auflösung ist dafür immer noch deutlich zu niedrig und selbst da sieht es mit DLSS deutlich besser aus!
 
Zuletzt bearbeitet von einem Moderator:
Wwhat schrieb:
Komischerweise sagt jeder 'diese Monitor ist scheiße sie hat motion blur' und danach spendieren sie fuhr berechnete motion blur in spiele :)

Das finde ich auch immer wieder witzig, auf der einen Seite einen Möglichst schnellen Monitor kaufen um keine Bewegungsunschärfe wegen der Pixel Trägheit zu bekommen und dann Rechenleistung verbraten um sie wieder künstlich rein zu rechnen. :freaky:
 
Taxxor schrieb:
Naja was anderes als Brechstange ist so eine 3080 mit 320W auch nicht, das sind schließlich 95W mehr als der Vorgänger

Es sind auch erheblich mehr Schaltungen die mit Energie versorgt werden wollen.
1599312654547.png


1599312957451.png

Die "Brechstange" hätte man rausgeholt, wenn die Chips mit 2Ghz oder gar mehr befeuert werden würden.
 
  • Gefällt mir
Reaktionen: Lübke82
xexex schrieb:
AMD hat ja angekündigt RT Berechnungen über die normalen Shader durchführen zu lassen, was möglicherweise dazu führen wird, dass diese Karten in RT Spielen abstinken, aber in Spielen die nur klassische Shader nutzen mit Nvidia mithalten können.
Falsch, AMD hat angekündigt die Strahlenverfolgung über einen spezialisierten Teil in den Textureneinheiten zu berechnen, die Effekte selbst werden bei beiden über die Shader berechnet.
 
  • Gefällt mir
Reaktionen: Iapetus
Taxxor schrieb:
Das Thema hatten wir doch letztens erst, RT läuft bei AMD genau so über die shader, wie bei Nvidia auch.
Nur die BVH abfragen lagert man bei Nvidia auf die RT Cores aus, bei AMD entsprechend in die TMUs
Und beide Systeme haben auch ihr Vor- und Nachteile.

Die »vollständige« Suche bei NVIDIA kann man gut asynchron laufen lassen und den Shader (das PROGRAMM) wecken, wenn das Ergebnis da ist. Kommt es zu einem Dismiss/fail (nennt wir ihr es wollt), muss aber die ganze Suche noch mal laufen. Zudem muss man zwangsweise bis zum Ende laufen.

Der AMD-Ansatz ist flexibler, was im ganzen dann »langsamer« ist, gleichzeitig kann man aber auf ein Dismiss wesentlich früher reagieren und korrigierend eingreifen. Zudem kann man bei AMDs Lösung bei Bedarf allgemein früher aussteigen aus der Suche, wenn man nur "ungefähr" was will.

Für beide Lösungen gibt es Argumente und beide Lösungen haben in bestimmten Szenarien Stärken und in anderen Schwächen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
xexex schrieb:
Es sind auch erheblich mehr Schaltungen die mit Energie versorgt werden wollen.
Ob man die Leistung nun mit übertrieben hohem Takt oder übertrieben hoher Anzahl an Schaltungen soweit erhöht, es bleibt für mich eine Brechstange wenn man die TDP dabei um 100W anhebt.

Zu was Ampere mit der TDP der 2080 imstande ist, sieht man ja an der 3070, die vielleicht 30% schneller sein dürfte
 
xexex schrieb:
s sind auch erheblich mehr Schaltungen die mit Energie versorgt werden wollen.
Dafür hat man eigentlich den Shrink. Oder man verringert den Takt leicht, damit man quadratisch Verlustleistung einspart.

Uff! So, alle Kommentare bis hierhin durchgelesen. Wie sieht es eigentlich mit Sparsity aus? Bringt das, wie im Artikel geschrieben, nur beim Training des neuronalen Netzwerks etwas oder auch bei der Ausführung von DLSS?
 
Taxxor schrieb:
Ob man die Leistung nun mit übertrieben hohem Takt oder übertrieben höher Anzahl an Schaltungen soweit erhöht, es bleibt für mich eine Brechstange wenn man die TDP um fast 100W anhebt.

Nochmal für dich:
RTX2080 225W - 13,6Mrd Transistoren
RTX3080 320W - 28Mrd Transitoren

Das macht 142% beim Strombedarf und 205% bei der Transistorenanzahl und ist für mich alles andere als eine "Brechstange".

Colindo schrieb:
Dafür hat man eigentlich den Shrink.

Das hat mal vor 10 Jahren vielleicht so funktioniert, ein Shrink von 12nm auf 8nm gibt dir keine 100% Effizienzsteigerung. TSMC sprach bestenfalls von 16FF+ auf 7FF von 60%.
1599313683467.png

https://www.anandtech.com/show/1422...echnology-7-nm-with-higher-transistor-density
 
  • Gefällt mir
Reaktionen: CrustiCroc und McFritte
Taxxor schrieb:
Ob man die Leistung nun mit übertrieben hohem Takt oder übertrieben hoher Anzahl an Schaltungen soweit erhöht, es bleibt für mich eine Brechstange wenn man die TDP um fast 100W anhebt.
Wobei man hier dann aber ein Stück die aktuell kommunizierte Leistung mit dem Anstieg der TDP in Relation setzten muss.

Bis zu 100 % mehr gegenüber der 2080 stehen eben nur knapp 50 % mehr Energie gegenüber, das ist durchaus »beeindruckend«.

Wobei, soll ich mal die negative Spaßverderber-Position zu Ampere einnehmen? XD
35 % mehr Shader, fast 20 % mehr Takt, und dann nur genauso schnell wie die 2080 Ti... WOW! Unterwältigend.

Die 3080 100 % mehr Shader als die 2080 Ti, aber nur bis zu 100 % schneller als die 2080... Unterwältigend.

Bitte jetzt nicht falsch verstehen, das ist nicht ernst gemeint. Aber man kann halt auch eine negative Sichtweise einnehmen, wenn man will.

So, wer will meine Niere für 2000 € kaufen? Wer nimmt meine Kinder und Kindeskinder in Zahlung? XD
 
  • Gefällt mir
Reaktionen: CrustiCroc
xexex schrieb:
Es sind auch erheblich mehr Schaltungen die mit Energie versorgt werden wollen.

Die "Brechstange" hätte man rausgeholt, wenn die Chips mit 2Ghz oder gar mehr befeuert werden würden.
Faule Ausrede, um den Verbrauch zu senken hätte man nur die Taktfrequenz entsprechend senken müssen aber genau das wurde nicht gemacht sondern auf den Verbrauch gepfiffen um die Taktfrequenz hochzuschrauben und Leistung rauszuquetschen. Ob 2 GHz oder nicht ist dafür unerheblich.
 
  • Gefällt mir
Reaktionen: Colindo
xexex schrieb:
Nochmal für dich:
RTX2080 225W - 13,6Mrd Transistoren
RTX3080 320W - 28Mrd Transitoren
Nochmal für dich: Es ist völlig egal wo der erhöhte Strombedarf herkommt, wenn Nvidia es für nötig hält den Verbrauch von der 2080 auf die 3080 von 215W auf 320W zu erhöhen, statt im Bereich der 2080 zu bleiben und die Karte meinetwegen mit 1.4 statt 1.7GHz takten zu lassen, ist das für mich Brechstange, weil man sich genötigt gesehen hat die Karte so dermaßen viel mehr verbrauchen zu lassen, vmtl um gegen Navi 21 gegenhalten zu können.
 
  • Gefällt mir
Reaktionen: Colindo, KlaraElfer und Iapetus
xexex schrieb:
Nochmal für dich:
RTX2080 225W - 13,6Mrd Transistoren
RTX3080 320W - 28Mrd Transitoren

Das macht 142% beim Strombedarf und 205% bei der Transistorenanzahl und ist für mich alles andere als eine "Brechstange".
Und warum ignorierst du dabei den feineren Fertigungsprozess, welcher normalerweise auch mit einer Energieersparnis einher geht? Man ist für große Zahlen über das Ziel hinaus geschossen, so einfach ist das.
 
Taxxor schrieb:
Warum sollte man die 3080 mit der 2080Ti vergleichen?
Wenn man das tun würde, klar, dann wäre der Abstand kleiner aber dann muss man auch über die 700 vs 1200 Dollar sprechen.
Der Vergleich 2080 700 Dollar vs 3080 700 Dollar ist hier passender.

Dabei vergisst du aber, wie inflationär die Preise der Turing Generation waren im Vergleich zu allem was davor kam. So wirkt die Preispolitik auf einmal wie ein Segen, ist aber letztlich nur Durchschnitt.

Allgemein sehr spannende Informationen die aus dem Artikel hervorgehen und vielleicht sollte der ein oder andere 2080 Ti Besitzer einen vorschnellen Verkauf nochmal überdenken. Nvidia zeigt in seiner Präsentation (wie alle Hersteller) Best Case Scenarios, die das eigene Produkt favorisieren. Wer jedoch auf RTX setzt und dieses Feature nicht missen möchte ist mit der Ampere Generation auf alle Fälle besser bedient. Ich bin gespannt, wie AMD kontert. RDNA2 hat eine 50% Performance Per Watt Verbesserung laut AMD. Das wird wohl kaum reichen um mit Nvidia gleichzuziehen außer vielleicht in Rasterization Performance. Aber für den Endkunden könnte das zumindest die Preissituation verbessern.
 
  • Gefällt mir
Reaktionen: Colindo
Taxxor schrieb:
Es ist völlig egal woher der erhöhte Strombedarf herkommt,

Absolut nicht! Denn am Ende zählt nur eines, die Effizienz und die hat man erheblich steigern können.

Verbraucht ein SUV das gleiche wie ein Kleinwagen? Dein Argument hört sich so, als würdest du genau dieses glauben, man braucht ja nur mit 30kmh fahren, dann verbraucht man auch nicht mehr als ein Kleinwagen bei Tempo 100. Nur ist die Argumentation absoluter Blödsinn!

Mehrleistung kommt von "mehr" und "Leistung", die Brechstange setzt man dann ein, wenn am Ende für die restlichen 10% an Leistung die doppelte Energiemenge eingesetzt werden muss, wie einige das gerne bei ihnen OC Systemen machen, nur ist das hier absolut nicht der Fall.
 
[wege]mini schrieb:
Das DLSS ist ein sehr starkes Stück Hardware.
DLSS ist Software (Neuronales Netz). Die Hardware, auf die dafür zugegriffen wird, sind die Tensor Cores (AI Beschleuniger).

[wege]mini schrieb:
Vor vielen Jahren hatte ATI mal eine ähnliche Technologie für Polys versucht zu etablieren.
TruForm war damals eine gute Idee, aber das überhaupt nicht Ähnlich zu DLSS.
 
  • Gefällt mir
Reaktionen: Lübke82
Colindo schrieb:
Dort klang es so, als würde Ampere 2xFP32 + 1xINT32 berechnen können, anstatt dass jetzt 1 FP32 und (de facto) ein AMD-Shader zusammenarbeiten. Der einzige Vorteil für Nvidia ist die kompaktere Auslegung der Rechenwerke, man macht sich damit aber unflexibler, als es bei Turing war.
Je nachdem wie jetzt der Aufbau ist, würde ich es eher so formulieren, dass die INT32 Einheiten, die bei Touring fast brach liegen beim Gamimg jetzt endlich auch ausgelastet werden, da eben die ALUs jetzt auch für FP32 genutzt werden können.

Nvidia selbst gibt ein 30:70-Verhältnis für INT:FP an. Das heißt, das alte Verhältnis von 1:1 in den Shadern war schon Verschwendung, und es wird jetzt besser.
Die Frage ist dann noch, wie groß ist der Performance-Impact. Denn Touring hat bei weitem keine +30% auf Pascal aufgeholt durch die INT32 Einheiten. Das waren im Schnitt imho nicht mehr als 10%. Der Rest kam einfach durch mehr SM und mehr Takt.
Von daher glaube ich nicht wirklich, dass nVidia großartig Probleme mit INT32 bzw. eben den dann nicht vorhandenen 128 FP32 hat.
 
xexex schrieb:
Absolut nicht! Denn am Ende zählt nur eines, die Effizienz und die hat man erheblich steigern können.
Erheblich? Man liegt ca 60-80% über einer 2080, nach den von Nvidia ausgewählten Benchmarks, also sagen wir mal wohlwollend 60-70% am Ende.

Dafür braucht man nun mit 320 zu 215 50% mehr Leistung. So viel effizienter ist das nun nicht für einen node Shrink und verbesserte Architektur, eben weil man oben raus die Brechstande angesetzt hat.
Eine 3080 auf 275W TDP limitiert, wird mit sicherheit nur 5% langsamer sein, das sind aber vielleicht die 5% denen man dann Big Navi zu nahe zu kommen fürchtet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iapetus, KlaraElfer und monitorhero
Zurück
Oben