Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

FleischHals schrieb:
Mich würde noch interessieren, was denn typische Integer-Berechnungen sind... Bei den meisten Berechnungen die ich auf Arbeit durchführe
INT-Berechnungen nutzt du in der Regel bei »Suchen«, da hier oft mit Vektoren und Matrizen hantiert wird.

Genauso in der Kryptografie. Auch da wird überwiegend mit INT gearbeitet.
 
  • Gefällt mir
Reaktionen: KlaraElfer und FleischHals
Was findet ihr eig. so toll an DLSS? Das Ganze ist doch einfach nur ein riesen "Fake"-Feature 🤷‍♂️

"Wir Packens nicht euch Native 4k mit spielbaren FPS zu liefern also faken wir euch die Auflösung nur vor und berechnen in einer viel kleineren Auflösung."

Fast genau so ein Unsinn wie Dynamic Resolution Scaling
Ist die Hardware zu schlecht müssen wir eben Tricksen :freak:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran, FX-Multimedia und Steini1990
Teralios schrieb:
Auch hier hilft es, wenn man mal die News von CB ließt: RTX I/O greift auf eine Funktion in DX12.2 aka DX 12 Ultimate zurück und damit wird AMD mit sehr hoher Wahrscheinlichkeit eine entsprechende Alternative bieten,
„Wahrscheinlich“ also ist es noch nicht Fakt, Fakt ist ja noch nichts.

Ich hatte es von den Konsolentechs abgeleitet.
 
matty2580 schrieb:
Bei Turing hatte ich immer den Eindruck das es eine Zwischengeneration ist.

Turing war, das wussten wir alle, eine early adopter tech als Add On abseits der klassichen Render/Draw Arechitektur. Im Herbst 2018 haben wir das hier genau so diskutiert: Die zweite Iteration von Turing wird das Ganze zum Industriestandrard machen, durch Nvidias marketshare bzw die installed GPU prevalence.

Was wir auch wussten, trotzdem viele hier das für absurd gehalten haben:
Nvidia wird vorlogen und alle ziehen nach.
Beweis: die next gen Konsolen haben Raytracing nun ausdrückjluch gefeatured.

DLSS scheint aber der nächste Blockbuster zu werden.

Bin gepannt auf AMDs RT und AI Lösung, denn sie konkurrieren mit den gesamten Featuresets und nicht mehr mit der klassischen Rendering Leistung, das war Last gen und 1990 bis 2019sage ich mal.

So oder so: Da wird etwas kommen von AMD, und die Praxisvergleiche werden spannend!

Den Technologiesprung, den Nvidia mit Ampere hier fortsetzt, ist schon beeindruckend.
 
  • Gefällt mir
Reaktionen: t3chn0 und Tanzmusikus
firejohn schrieb:
„Wahrscheinlich“ also ist es noch nicht Fakt, Fakt ist ja noch nichts.

Gegen solche Bauernschläue kommt man mit der Zeit echt nicht mehr an, ohne dass man nicht innerlich den Zwag hat, den Kopf gegen irgend was aus Verzweiflung zu schlagen. …

Dann machen wir es mal anders: RTX I/O setzt auf eine Funktion in DX12.2 auf, um mit DX12.2 kompatibel zu sein, muss also diese Funktion erfüllt sein.

Jetzt heißt es über all seit Wochen, dass RDNA2 zu DX12.2 (was DX12 Ultimate ist) vollständig kompatibel ist und sowohl DXR1.1, DX12.2 mit VSR usw. unterstützt.

Nun streng mal dein Kopf an, was das für RDNA2 heißt und damit verbunden die "Alternative" zu RTX I/O.

Und wer immer noch Zweifel hat: https://twitter.com/Radeon/status/1240685251552296960?s=20

AMD sagt selbst, dass sie das DX12.2 Subset vollständig unterstützen!

-- Edit --
Entschuldige bitte, ich bin heute latent gereizt, weil eigentlich alles an Informationen vorhanden ist, damit man eben nicht ständig hier rum Rätseln muss und ebenso muss man nicht ständig Aussagen auf die Goldwaage legen. Das nervt ein wenig.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Unnu, Iscaran, CableGuy82 und 5 andere
eXtra schrieb:
Frage an CB:
Wenn ihr die Founders Edition der RTX 3080 testet, könnt ihr dann mal schauen welchen Einfluss das neue Kühlsystem der Karte auf die Temperatur der CPU hat? Ein Teil des Kühlers pustet ja scheinbar warme Luft nach oben in Richtung der CPU. Wäre interessant zu wissen ob die CPU dadurch wärmer wird als bei einem herkömmlichen Kühlsystem.

Anhang anzeigen 962877

Ich bin mir ziemlich sicher, dass das so sein wird. Ich habe nämlich eine Vega 56 Red Dragon hier seit Jahren am werkeln, das ist eine dieser Vega Karten, die eine sehr kurze Platine haben (damals durch den HBM Speicher möglich) und wo auch ca. 1,5 der drei Lüfter Luft durch die Lamellen in den oberen Teil des PCs pustet. Die Rückseite sieht dann so aus:

1599297673936.png


Das kühlt die GPU tatsächlich recht effizient, aber bei der CPU-Temperatur lässt sich ein gut sichtbarer Anstieg durch dieses Desgin erkennen. Da muss man dann oben für gute Entlüftung sorgen um das in den Griff zu bekommen (z.B. ordentliche Lüfter am Deckel).
 
  • Gefällt mir
Reaktionen: Acedia23, Colindo, madzzzn und eine weitere Person
Payne19 schrieb:
Was findet ihr eig. so toll an DLSS?

Die Version 2.0! Es muss halt nur noch für VIEL mehr Spiele kommen.

Und ja, ich wünsche mir auch von AMD, dass sie was Vergleichbares bringen.
 
  • Gefällt mir
Reaktionen: CableGuy82 und Laphonso
Toni_himbeere schrieb:
Sofern das eine Software unterstützt? Oder gibts da auch eine untere Grenze von vielleicht 720p?
Theoretisch ist dem Prinzip überhaupt keine Grenze gesetzt.
Es kommt nur darauf an, wie schnell das Sampling des Bildes stattfinden kann.

Du kannst Die Auflösung auch auf 1x1 Pixel runterbringen und dann Quasi wie beim alten Röhrenmonitor das Bild im Scanline- Verfahren wieder auf die gewünschte Zielauflösung bringen.

Irgendwann wirds halt einfach ineffektiv, weil die darin involvierten Einheiten die Rechenkraft nicht mehr zur Verfügung stellen können, um eine entsprechend schnelle und vor allem auch konsistente bzw. bewegungsstabile temporale Akkumulation der Daten gewährleisten zu können zudem steigt bei alledem natürlich auch die Fehleranfälligkeit.

Und das ist auch nur der Schritt, bevor das ganze dann in den convonutional autoencoder kommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CableGuy82, Lübke82 und Toni_himbeere
Teralios schrieb:
Ach, so spannend war es echt lange nicht mehr!

Das ist ja das schöne, wir haben nun mit RTRT ganz neue Möglichkeiten was die Skalierung angeht.
Hier zählt dann nicht nur die Rohleistung, die Fertigung und die reine Technikschlacht nach dem Motto wer verbaut mehr Shader, sondern vor allem die Architektur.
Deswegen hat sich Nvidia vermutlich auch für 8nm von Samsung entschieden und da wir bald am Ende von den konventionellen Schritten der Halbleitertechnik stehen, wird es noch mal interessanter.

Das Problem immer mehr Transistoren mittels kleinerer Fertigungen zusammenzupacken, kann mit RTRT und DeepLearning deutlich entzerrt werden. Was reines Pathtracing angeht können nun auch Chipletlösungen wie im CPU Bereich besser forciert werden. Leider wird früher oder später alles nicht mehr stationär vor Ort, sondern im Rechenzentrum berechnet werden, das wird dann der nächste Schritt werden.

.Sentinel. schrieb:
Du kannst Die Auflösung auch auf 1x1 Pixel runterbringen und dann Quasi wie beim alten Röhrenmonitor das Bild im Scanline- Verfahren wieder auf die gewünschte Zielauflösung bringen.

Was ich nicht ganz verstanden habe:

Wie kann Nvidia ein WQHD Bild mittels Deep Learning SS auf 8K hochskalieren?
Rekonstruktion schön und gut, aber fehlen da nicht schlicht und ergreifend einfach die Pixel um das 16K Grundmaterial demenstprechend abzubilden und zu rekonstruieren?

Mit halber Auflösung bei DLSS Performance klappt das meines Erachtens noch sehr gut, bei weniger als der halben Auflösung müsste die Technologie aber an die Grenzen kommen.
Ich erachte daher diese 8K Werbung als kompletten Bullshit.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: t3chn0 und Laphonso
yummycandy schrieb:
Die werden nicht erst vor einem Jahr angefangen haben, Ampere zu entwickeln. :D
Das Abstract der Nvidia Research Architecture Considerations for Tracing Incoherent Rays ist aus dem Jahre 2010, um diese Zeit herum findet man viele Research Dokumente.

Nvidia fing 2009/2010 mit den Multi Milliarden Investitionen für Expertise, Forschung und Know How an.

Das Ergebnis sind Turing und nunmehr Ampere.
 
  • Gefällt mir
Reaktionen: CableGuy82, Lübke82 und .Sentinel.
tochan01 schrieb:
Mit DX12 würden sogar AMD und NV ohne zusammen laufen aber es ist einfach nicht gewünscht.

Dafür braucht man aber weder SLI noch den NVlink Stecker, das muss ein Spieleentwickler allerdings in der Engine implementieren. DX12 macht es möglich, aber DX12 übernimmt diese Aufgabe nicht und der Aufwand dürfte nicht unerheblich sein.

Da gibt es letztlich das Henne/Ei Problem, kaum einer hat zwei Karten in seinem PC, also lohnt es sich nicht dafür zu entwickeln.
 
  • Gefällt mir
Reaktionen: Heschel
KlaraElfer schrieb:
Deswegen hat sich Nvidia vermutlich auch für 8nm von Samsung entschieden und da wir bald am Ende von den konventionellen Schritten der Halbleitertechnik stehen, wird es noch mal interessanter.

Über den ist auch nur so viel bekannt:
NV isn't saying a whole lot about the 8nm process they're using. But I've been told that it offers improvements in power and frequency versus other Samsung processes

Da hat man bis jetzt keinen sonderlich ergiebigen Anhaltspunkt, was dieser Prozess tatsächlich im Vergleich zum üblichen 8nm Samsung Prozess oder einem 7nm TSMC liefert.
 
  • Gefällt mir
Reaktionen: Colindo
FleischHals schrieb:
Mich würde noch interessieren, was denn typische Integer-Berechnungen sind... Bei den meisten Berechnungen die ich auf Arbeit durchführe (Quantenmechanik), verwende ich gar keine Integer Variablen, außer als Index bei Schleifen...

Hier wurde es genauer erklärt.
“Most traditional graphics operations are independent and purely FP (shading a pixel for example doesn’t require you to know about the surrounding pixels and is essentially just a bunch of dot products and multiply-adds) but ray tracing through an octree requires alternating integer and FP operations. For example, you need to find the nearest sub tree that a ray intersects to recurse into that sub tree. Intersecting with the objects is a FP operation, but deciding which is the nearest is integer and Boolean logic.
https://www.gamersnexus.net/guides/3364-nvidia-turing-architecture-technical-deep-dive#:~:text=Turing moves to concurrent execution,execute, they can execute simultaneously.
 
  • Gefällt mir
Reaktionen: Colindo und FleischHals
Sehr interessanter Technik Artikel mal wieder. Lese ich gerne.
 
  • Gefällt mir
Reaktionen: CableGuy82 und Laphonso
KlaraElfer schrieb:
Das ist ja das schöne, wir haben nun mit RTRT ganz neue Möglichkeiten was die Skalierung angeht.
Hier zählt dann nicht nur die Rohleistung, die Fertigung und die reine Technikschlacht, sondern vor allem die Architektur. Deswegen hat sich Nvidia vermutlich auch für 8nm von Samsung entschieden.

Ehrlich gesagt glaube ich, dass der 8 nm Prozess vergleichsweise schlecht für GPUs ist. So ergibt dieser Reddit post beispielsweise, dass die 3080 bei Nennleistung nur etwa 18,7% Performance/Watt gegenüber der 2080 zugelegt hat. Das könnte man allerdings gut und gerne Optimierungen in der Architektur in die Schuhe schieben, sodass der Fertigungsprozess gegenüber dem alten 16/14 nm von TSMC kaum Verbesserungen bringen dürfte.
 
Zentorno schrieb:
Enttäuscht hat mich laut Tabelle die 3070 vs. die 2080ti. Der GA104 (3070) hat nur rund die Hälfte der (Chip-)Fläche des TU102 (2080ti) und kaum mehr Transistoren, trotzdem verbraucht er kaum weniger Energie, trotz shrink von 12nm auf 8nm. Die Grafikleistung beider wird ja ähnlich erwartet, dafür schluckt die 3070 einfach zu viel.
1+
Jo, das Marketing-Geschwafel von 1,9x-facher Effizienz ist totaler Bullshit wenn man nur vs. Transistoren oder
FP32-Einheiten vergleicht.
Bzgl. Transistoren ist die 3070 leicht besser aber bzgl. FP32 sogar die olle 2080Ti effizienter.
Vermutlich kann die 3070 die mehr FP32 gar nicht voll auspielen.
Und
Bzgl. Lautstärke kann ja Jeder seine 2080Ti ein mue UVen.(von daher ist ne günstige 2080Ti gar net so schlecht)
 

Anhänge

  • Ampere.png
    Ampere.png
    76,2 KB · Aufrufe: 348
xexex schrieb:
Dafür braucht man aber weder SLI noch den NVlink Stecker, das muss ein Spieleentwickler allerdings in der Engine implementieren.

Korrekt, vergessen zu erwähnen. Im Grunde muss die arbeit "1x" von den großen gemacht werden um das zu erreichen wobei ich die macher von "ashes of singularity" jetzt nicht zu den großen zähle.. Dort wurde gezeigt das es geht. Es sollte für EPIC und co. jetzt nicht soooo große resourcen fressen das lauffähig zu bekommen.

wie ist das eigentlich mit OpenGL oder Vulcan? Gibts da vergleichbares?
 
Zuletzt bearbeitet:
Ich hab kein Problem, mich als AMD-Käufer zu bezeichnen, gleichzeitig aber die Leistung der nVidia-Karten zu bestaunen, die sie seit Jahren an oberster Stelle in den Ranglisten halten.

Kopfschmerzen bereitet mir nur der Trend, in Sachen TDP und Verbrauch doch wieder nach oben statt nach unten zu wandern. Mir wäre es lieber, jede Generation würde ein bisschen kühler und ein bisschen weniger stromhungrig seinals die vorherige, und trotzdem ein bisschen schneller rechnen. Das wäre in jedem Falle machbar. Scheinbar will man aber doch die Brechstange, die wir aber alle zahlen müssen.

EDIT: Meine persönliche Grenze liegt ja unterhalb der 300 Watt TDP. Deshalb ärgert mich diese Entwicklung besonders.
 
  • Gefällt mir
Reaktionen: firejohn, Zubz3ro und AMDPower
Teralios schrieb:
Dann machen wir es mal anders: RTX I/O setzt auf eine Funktion in DX12.2 auf, um mit DX12.2 kompatibel zu sein, muss also diese Funktion erfüllt sein.

FL12_2 bringt kein Direct Storage mit und genauer genommen hat es nichts mit Direct3D Feature Level zu tun, sondern wird ein Teil von DirectX, wie zum Beispiel auch DirectInput.
https://devblogs.microsoft.com/directx/new-in-directx-feature-level-12_2/#:~:text=Feature level 12_2 is supported,advantage of Feature Level 12_2.
 
eXtra schrieb:
Frage an CB:
. Wäre interessant zu wissen ob die CPU dadurch wärmer wird als bei einem herkömmlichen Kühlsystem.

Anhang anzeigen 962877

nun, übliche Modelle pusten die gesamte Hitze ins Gehäuse. Hier wird nur grob die Hälfte ins Gehäuse gepustet.

ich erwarte hier im gesamten niedrigere Temperaturen im Gehäuse. Zumindest bei der 3080
 
  • Gefällt mir
Reaktionen: Celinna, pietcux, Lübke82 und eine weitere Person
Zurück
Oben