Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

@Blutschlumpf Wie es "unten" rum bei Ampere ausschaut keine Ahnung. Aber man munkelt schon von eine 3070 TI mit 16gb Speicher. Das klingt spannend. die 20gb für eine "andere" 3080 sind ja auch schon mal rumgegeistert.
 
ZeroCoolRiddler schrieb:
Raytracing mit Motion Blur...
Motion Blur...

War das nicht dieses böse Ding, was sogar mit Techniken wie Backlight Strobbing versucht wurde zu minimieren und jeder Shooter-Spieler als erstes ausstellt? :D

genau das hab ih auch gedacht. inzwishen gibts das ja als feature in games - wird direkt rausgetreten, genau wie film grain, bloom und chromatic aberration
 
  • Gefällt mir
Reaktionen: Ernie75, Cpt.Willard, McFritte und eine weitere Person
Marcel55 schrieb:
Naja, wenn dir 10GB zu wenig sind, musst du eben in den sauren Apfel beißen und tief in die Tasche greifen.

Ich muss überhaupt nichts. Die Karten bis zur 3090 haben zu wenig Speicher, das ist Fakt und die 3090 ist maßlos überteuert. Da kannst du noch so hanebüchend argumentieren wie du willst.

Aber du kannst nicht herkommen, dich über zu wenig Speicher beschweren, obwohl es eine Karte mit mehr Speicher gibt, und dann sagen ne, die ist mir zu teuer. Wo ist da die Logik?

Doch, dass kann ich und werde ich auch. 😊
Um endlich eine brauchbare Speichermenge zu erhalten soll man also tief in die Tasche greifen und Titanpreise bezahlen? Oder wie du es sagst, in den sauren Apfel beißen? Das ist also deine Logik? Dann gute Nacht mein Freund.

Dann erkläre ich einmal die Logik dahinter.
Die 3070 und die 3080 sind mangels VRAM ein NOGO!
Die 3090 ist halsabschneiderei und ebenso ein NOGO. Soweit nun die Logik verstanden?
 
  • Gefällt mir
Reaktionen: Ernie75, Aza*, Zubz3ro und 4 andere
Che-Tah schrieb:
Die Frage ist wieviel Gleitkomma oder Ganzzahlen werden berechnet? Das war bisher kein Thema....
Die Entwickler öffnen jetzt ihren Quellcode und machen "Suchen und Ersetzen: INT -> Float", kompilieren neu, bringen es als optionalen Programmpfad für Ampere und schon hat man ~30% mehr FPS mit Ampere. ;)

Nur ein Scherz, aber man wird wohl sehen müssen, ob das gut oder schlecht ist bzw. wie stark es mit dem Spiel schwankt. Bin auch mal gespannt, was AMD so bringt.
 
  • Gefällt mir
Reaktionen: Foxel und pietcux
spezialprodukt schrieb:
genau das hab ih auch gedacht. inzwishen gibts das ja als feature in games - wird direkt rausgetreten, genau wie film grain, bloom und chromatic aberration
Die meisten wissen gar nicht wie wichtig Motion Blur ist und merken wahrscheinlich gar nicht mal, dass es mittlerweile in sehr vielen Spielen vorhanden ist.
Wichtig ist nur, dass man "per Objekt" Motion Blur von globalem Motion Blur unterscheidet.

Unschön ist in der Tat, wenn über das gesamte Bild ein einfacher Motion Blur Filter gelegt wird, der alles weichzeichnet und einem dazu noch das Gefühl von erhöhter Eingabelatenz vermittelt.
Anders ist es allerdings, wenn die Engine nur sich bewegende Objekte weichzeichnet.

Hier sieht man mal wie gut das in der Bewegung aussieht. Da sieht man nur im Standbild, dass dort tatsächlich etwas weichgezeichnet wird.

So muss das eigentlich überall implementiert werden und dann ist Motion Blur auch sehr sehr wichtig.
 
  • Gefällt mir
Reaktionen: ITX17x17, Pulsar77, Ernie75 und 17 andere
DarkerThanBlack schrieb:
Dann erkläre ich einmal die Logik dahinter.
Die 3070 und die 3080 sind mangels VRAM ein NOGO!
Die 3090 ist halsabschneiderei und ebenso ein NOGO. Soweit nun die Logik verstanden?
Tjoa dann viel Spaß beim warten.

Irgendwann heißt es, wartest du noch oder zockst du schon?
Mit 8GB VRAM. Ohne Probleme.
 
  • Gefällt mir
Reaktionen: Acedia23, KarlsruheArgus, brauna1 und 8 andere
tochan01 schrieb:
Auch wenn es kaum noch einer nutzt aber sli nur für die 3090 ist doch kacke. Es darf wohl keiner sehen, dass 2 kleine gpus die dicke in die Tasche stecken..
Dieser seltsamen Logik kann ich überhaupt nicht folgen. Wieso sollte es irgendwen überraschen das zwei kleine Karten eine große in die Tasche stecken können? Zwei gegen einen und so, das entlockt den meisten nur ein müdes Gähnen, warum sollte nVidia also davor Angst haben ?

Und SLI ist nur noch für Benchmarks und vielleicht Rendering/GPGPU-Computing sinnvoll und wer sowas vorhat, der nimmt für ersteres eh das fetteste Modell weil man sonst gegen die die es tun in den Benchmarks eh abstinkt und für letzteres kommt es nie auf den Aufpreis an, das wird eh abgeschreiben und mit der gesparten Zeit mehr Geld verdient, also auch das fetteste Modell. Macht also alles auf der 3080 und darunter überhaupt keinen Sinn für eine Mehrheit.

Zudem hat die 3080 und 3070 meiner Meinung nach viel zu wenig Speicher für SLI, weil bei SLI meines Wissens nach wie vor immer noch alle Daten doppelt vorgehalten werden müssen. Würde also dann nur noch in Szenarien was nützen welche die gebündelte Leistung abrufen können ohne gleichzeitig auch mehr Speicher zu brauchen, was in der Praxis eher selten vorkommt, weil man SLI in Spielen gerne für mehr Details und höhere Auflösungen genutzt hat und das bedeutet auch immer mehr Speicherbedarf. Und Spiele...ja lol, ich hatte viele Jahre lang SLI, von der 680er Reihe bis hoch zur 1080ti, aber irgendwann hatte ich einfach keinen Bock mehr auf dreistellige Frameraten die sich wie 30 fps anfühlen. Will sich das echt noch wer antun heutzutage ?

Bei nVidia sitzen ne Menge Leute in der Marktforschung, die werden sich Gedanken darüber gemacht haben welches Feature wo noch Sinn macht und wo nicht. Und ich kann die Entscheidung hervorragend nachvollziehen. Auf Einzelschicksale nimmt man bei der Produktplanung einfach keine Rücksicht.
 
  • Gefällt mir
Reaktionen: Lübke82
MiaSanMiaaa schrieb:
Alles klar. Macht Sinn.
Jepp, tuts :p
Ich sagte ja nicht dass Grafik alles ist, nur dass es stört wenn man könnte, aber nicht wollte. Der Knackpunkt speziell hier ist dass mir keines der aktuellen Nvidia Features etwas nützt um Spiele wie D2 aufzuhübschen und so teilweise nicht einmal besonders viel Grafikleistung brauche. Das kann sich aber z.b. ändern wenn Spiele wie Morrowind Grafikmods bekommen die aktuelle Renderer einbauen ... mein Unreal Tournament läuft auch mit DX10
Manche sind dabei genügsam, anderer eher nicht und wollen dann doch wieder halbwegs aktuelle Leistung. Ich bezweifle allerdings dass so bald Hardware-Raytracing oder DLSS für TES3 Morrowind kommt.

Was ich meinte waren mehr Poster, Plakate und Bildschirme in Halflife, Deus Ex und ähnliches. Wo man durchaus gekonnt hätte. Gut in den jeweils ersten Teilen vielleicht nicht unbedingt, da gab es noch relevante hardwarelimits was Speicher und Texturgrößen anging, aber HL2, Deus Ex Human Revolution? Oder sei es Oblivion, Fallout (3+) usw.
Crysis hat es da aus meiner Sicht richtig gemacht. Wen juckts ob man zum release alles auf maximum stellen kann? Mitgeben was derzeit möglich ist, die Hardware wird mit der Zeit erstmal nicht langsamer.

@xexex deshalb finde ich das ja durchaus auch interessant und sinnvoll. Doch zumindest auf mich wirkte die Präsentation eher richtung 'jetzt doppelt so hohe FP leistung wie Turing!' ohne den 'sofern kein INT gerechnet wird' Part. Formal wird wie gehabt Spitzenleistung angegeben, doch damit kommt eine je nachdem recht erhebliche Einschränkung dazu die es so vorher nicht gab.
Ich wäre ein grauenvoller Verkäufer, ich weiß ;)
 
  • Gefällt mir
Reaktionen: Pulsar77 und Unnu
leipziger1979 schrieb:
Man wird abwarten müssen um zu sehen ob die 3000er wirklich die Leistung auf den Boden bekommen.

Genau das ist die Frage. Aber ich befürchte fast, dass sich die im Artikel dargestellten Verbesserungen tatsächlich sehr performancesteigernd auswirken werden ;)

Spannend finde ich vor allem bei den zukünftigen Tests, wie stark sich die Raytracing Leistung verbessert hat. Ist das jetzt wirklich alltagstauglich? Auf der Seite für die RTX 3080 beim Abschnitt Raytracing ist das Bild mit dem Slider sehr, sehr beeindruckend.
 
  • Gefällt mir
Reaktionen: GERmaximus, konkretor und Silverangel
Bigeagle schrieb:
doch damit kommt eine je nachdem recht erhebliche Einschränkung dazu die es so vorher nicht gab.

Es ist keine Einschränkung wenn ich die vorher brachliegenden Int32 Einheiten nun als FP32 Einheiten nutzen kann. Viel mehr warst du vorher eingeschränkt, weil du möglichst 50% Int und 50% FP Berechnungen durchführen musstest um die Karte auszulasten. Jetzt stehen dir so viele Int32 Einheiten wie du brauchst und der "Rest" steht dir komplett als FP32 Einheit zur Verfügung.

Nehmen wir mal die Grafik der Turing Generation als Beispiel
1599268438130.png


Da siehst du wunderbar, dass man mit der Aufteilung nun Vorteile hat. Mit Ampere kann nicht nur alles gleichzeitig berechnet werden, sondern es können auch viele Int32 ALUs die sich sonst gelangweilt hätten zur FP32 Berechnung herangezogen werden. Der gesamte Frame würde fast auf die Länge des grünen Balkens schrumpfen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: squadric, freezer255, Lübke82 und 7 andere
Faust2011 schrieb:
Genau das ist die Frage. Aber ich befürchte fast, dass sich die im Artikel dargestellten Verbesserungen tatsächlich sehr performancesteigernd auswirken werden ;)
Endlich ein vernünftiges Upscaling mit Version 2 von DLSS + verbesserte Tensor Cores für ein schnelleres Upscaling + verbesserte RT Cores für ein besseres und schnelleres Raytracing + verbesserte Tensor Cores für ein schnelleres Denoising + deutlich mehr FP Leistung, die beim Raytracing auch nicht zu unterschätzen ist und zu guter Letzt die Tatsache, dass man jetzt die unterschiedlichen Kerne parallel nutzen kann und somit viele Schritte auch parallel ausführen kann, während man früher mit den Shader-Kernen einfach warten musste, während die Tensor Kerne arbeiteten.

All das kombiniert wird meiner Meinung nach gewaltige Performancegewinne hervorbringen. Den größten Vorteil bringt allerdings DLSS. Das ist einfach Pflicht, wenn man Raytracing implementiert. Alles andere wäre einfach Verschwendung.
Man darf natürlich auch zukünftige Optimierungsarbeiten der Spieleentwickler nicht vergessen.
Der Unterschied zwischen dem ersten BF5 Release mit Raytracingsupport und der aktuellen Version ist zum Beispiel enorm. Damals erzielte man gerade mal 30 fps und heute sind es bei gleichen Einstellungen über 60.
Auch im Softwarebereich steht man also nicht still.
 
  • Gefällt mir
Reaktionen: squadric, freezer255, adAstra und 7 andere
Faust2011 schrieb:
Genau das ist die Frage. Aber ich befürchte fast, dass sich die im Artikel dargestellten Verbesserungen tatsächlich sehr performancesteigernd auswirken werden ;)

Um so gespannter bin ich auf die Tests und noch gespannter bin ich ob AMD mithalten kann.
Danach wird der Neukauf entschieden.
 
  • Gefällt mir
Reaktionen: Ernie75, Unnu, Cpt.Willard und 6 andere
@Wolfgang ich Glauber der Satz ist nicht ganz richtig:“Ampere kann Rasterizer, Raytracing und KI gleichzeitig“ das muss heißen: „Ampere kann Shading, Raytracing und KI gleichzeitig“

Der Rasterizer sitzt vor den drei Einheiten und füttert diese.
 
  • Gefällt mir
Reaktionen: Ernie75, Colindo und Jan
Spiele die von mehr als nur einer Karte profitieren gibt es kaum, also sli nvllink nicht nötig.

Fürchte die ganzen neuen tollen Funktionen sind mal wieder Windows exklusiv weil Nvidia die Linux Fraktion nicht mit ordentlichen Treibern versorgen möchte die sich sauber ins Mesa Ökosystem eingmiedern.
 
noxon schrieb:
So muss das eigentlich überall implementiert werden und dann ist Motion Blur auch sehr sehr wichtig.

Wieso sollte das so sehr wichtig sein? Auch in dem Video sieht es dann einfach nur unscharf aus, und ohne gefällt es mir persönlich besser. Wenn man dann noch mehr als 60 fps und hz hat, dann braucht man das eh nicht mehr. Wenn bei Bewegungen das Pixeldelta zwischen Frames zu groß wird, also die fps zu niedrig sind, dann wird das immer scheiße aussehen, und Motionblur macht das nicht besser, sondern nur unscharf.

Edit: Bei Spielen mit 30 fps ist starker Blur allerdings wirklich wichtig, da es sonst zu offensichtlich ruckelt. Nur ist das dann Symptombekämpfung, und am PC auch zum Glück eher kein Problem.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zubz3ro, Neronomicon und Gnah
Wun Wun schrieb:
Wie kommen die denn bitte auf diese Werte? Die 2080 kommt im Test bereits im Idle auf 32 DB :freak:
Pro 6dB kommt eine subjektive Verdoppellung hin. Also passt die Aussage.

Sonst hatte ich aber mit meiner Vermutung bei Digital Foundry recht. Und wenn die GPU am Ende 50% auf die 2080Ti drauflegt, dann passt doch alles.

Spannend finde ich, dass die GPU mit einer gescheiten Treiber und Engine-Optimierung ihre Muskeln spielen lassen kann, wie das dann bei grottigen Spielen aussieht schauen wir mal.. Sollte Aber die kolpolierte Navi 22 bei 3080 Leistung liegen (2080Ti + ~50%) Was angesichts der Shader und der Größe denkbar ist, dann wird das ein Spannendes Hardwarejahr.
Als Mensch, der sich für Mashine Learning interessiert, ist Ampere aber ein Monster. Und in der FP Leistung könnte es AMDs RDNA Tatsächlich schwer haben. Unreal und andere Engines werden sich auf Nvidia ausrichten. Nicht unclever die Lederjacke.

Ich für meinen Teil werde schauen, was eher den Zuschlag bekommt. Entweder die 3080 mit 20GB (hope auf 2021) oder aber eine 6900 mit 16GB.. Spannend wird es allemal.

@S.Kara
Die Karten haben zu wenig VRAM und das ist Fakt.. Meine 1080Ti hat mehr VRAM und selbst den krieg ich voll. Und in Zeiten in denen eine 5700XT mit zu wenig RAM bemängelt wurde, darf man das auch klar sagen. 3070 und 3080 haben zu wenig VRAM, und das scheint hier aber Technische (Hallo Micron!) Gründe zu haben. Und 2021 ist 8GB nicht mehr viel, sondern Standard. Eine 3060 mit 6GB wäre dann sogar ein Rückschritt, wie seiner Zeit die 5600XT mit 6GB..Hier könnte aber Nvidias SSD Caching spannend werden
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CableGuy82
DarkerThanBlack schrieb:
Die Karten bis zur 3090 haben zu wenig Speicher, das ist Fakt
Achja? In welchen Spielen reichen die 8 GB denn nicht?
Ich spiele in 4k und hatte noch nie Probleme mit den 8 GB meiner 2080. Genauso wird es 98 % aller User gehen.

Was bringt es mehr VRAM zu haben wenn er nicht von Vorteil ist?
 
  • Gefällt mir
Reaktionen: CrustiCroc und Laphonso
Die Cache-Größe für die GeForce RTX 3090 wollte Nvidia noch nicht nennen, doch gewöhnlich bleibt der L2-Cache der einzelnen Modelle unverändert.
Gab es bei der GTX970 nicht die Probleme weil der L2 beschnitten wurde, die ROPs an den Abschnitten des L2 hingen und deshalb ein Teil der ROPs auf einen anderen Cache Abschnitt "umgeklemmt" werden mussten?
Ergänzung ()

Die Lautstärke Grafik ist wohl ein schlechter Marketin Gag, oder?
Seit wann läuft die 2080 auf 320W? Kühler @ Überlast vs. Kühler @ Standard?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Colindo
Zurück
Oben