Test Portal with RTX im Test: Die RTX-4000-Techdemo im Grafik­karten-Benchmark

Beg1 schrieb:
Und Portal with RTX wurde eben nicht als reine Techdemo angekündigt und auch wenn man sich bewusst ist, wieviele Ressourcen Pathtracing benötigt, die Performance ist für die gebotene Optik nicht akzeptabel.
Das ist wiederum eine Frage des Standpunkts :)
Ich sage, dass man noch vor wenigen Jahren die gebotene Optik mit dieser Performance für unmöglich gehalten hätte bzw. man auf die üblichen "in 20 Jahren" gezeigt hätte.
 
  • Gefällt mir
Reaktionen: Ragnarök88
Berserkervmax schrieb:
Was dem mit dem RTX Racer ?
Sollte die Demo nicht schon raus sein?

Und ich weiß garnicht warum sich einige hier so aufregen

Wenn ihr könntet würde ihr doch auch eine 4090 kaufen...
Nein, mit dem Wihnachtsgehalt hätte ich mir auch 2 davon kaufen können.
Da ich diese Preispolitik aber nicht befürworte spiel ich weiter mit einer GTX 970 :p


(Ich kaufe in Zukunft keine Nvidia mehr) aber, mir ist eine RTX 4080 maximal 799€ wert.
 
  • Gefällt mir
Reaktionen: pilzsammler2002
Laphonso schrieb:
Lieber die 4090Ti abwarten, die 4090 ist hier auch schon zu langsam. Dummer Fehlkauf :mad:
Ist kein Problem, einfach jedes Mal neu kaufen, sobald ein Modell 3% schneller ist. Aber dann bitte bloß nicht die 4090 verkaufen sondern als Sondermüll beim lokalen Wertstoffhof abgeben, damit man Nvidia nicht einen potenziellen Neukauf verdirbt.
Wäre mir persönlich eh zu langsam. Wer kauft schon eine GPU für 2000€, welche nicht mal 30 FPS in UHD in 15 Jahre alten Spielen schafft?
Ich bin doch nicht blöd, oder doch?
 
Colindo schrieb:
Wo ist RDNA 3 denn ineffizient im Wave32-Mode?
Ja, sieht danach aus. Kimi meinte das auf Twitter, ich habe auch diverse Infos, kann es natürlich im Augenblick nicht belegen.
Colindo schrieb:
Und natürlich hat RDNA 3 Matrix-Cores, das wurde doch extra groß vorgestellt. Zusätzlich hat man die Matrizenberechnung über die Shader um den Faktor 2,7x beschleunigt.
Nein, RDNA 3 hat keine Matrix Cores. Das Instruction Set wurde aufgebohrt, um die Standard Vector Units besser auszulasten. Hätte RDNA 3 "echte" Matrix Cores wäre die Performancesteigerung deutlich höher. Das Verhältnis von Skalarprodukt und Anzahl der Elemente einer 4x4-Matrix ist 16. Das erreicht man natürlich nicht vollends, aufgrund von Bandbreitenlimitierung
Colindo schrieb:
BVH-Hardwarebeschleunigung ist da, aber tatsächlich deutlich schwächer als bei Nvidia, das lasse ich gelten.
Ja, weil es nicht "nativ" ist.
Colindo schrieb:
Frame Interpolation besitzt AMD mit dem Namen "Fluid Motion Technology" seit Generationen. Das soll jetzt auch in Spiele eingehen. Wo ist das ein Problem?
Ja, das ist bekannt, aber wann kommt das? Und wie gut wird das, wenn das nur auf Vector Units läuft?
 
Was viele hier missverstehen ist, woher die Schwierigkeiten für AMD kommen. Die RT-Architektur ist ideal, wenn pro Strahl wenig passiert und die Arbeit rasch wieder zu den Shadern hin geht. Das hießt bei wenig komplexen Geometrien hat AMD einen Vorteil, wenn besonders viele Strahlen verschossen werden. Dazu gab es vor einigen Jahren auch schon Tests.

Wo Nvidia den Vorteil hat ist bei sehr komplexen Geometrien, wo für einen einzigen Strahl besonders viel berechnet werden muss. So gab es nach Veröffentlichung des AMD RT-Analysetools einen Tweet, wo in einem Spiel der Flur mit seiner BVH-Struktur dargestellt wurde. Obwohl der Flur aus leerem Raum bestand, enthielt er eine große Anzahl an BVH-Boxen. Das ist einfach schlechtes Leveldesign, bevorteilt aber Nvidia.

Zer0Strat schrieb:
Nein, RDNA 3 hat keine Matrix Cores.
Das ist falsch, jede CU enthält einen Matrix-Core von Xilinx.
Zer0Strat schrieb:
Ja, weil es nicht "nativ" ist.
Es gibt kein "nativ", siehe oben.
Zer0Strat schrieb:
Ja, das ist bekannt, aber wann kommt das? Und wie gut wird das, wenn das nur auf Vector Units läuft?
Warum sollte das nur auf den Vector Units laufen, wenn AMD die Beschleunigungseinheit, die Nvidia jetzt auch benutzt, schon seit über einem Jahrzehnt hat?
 
Colindo schrieb:
Das ist falsch, jede CU enthält einen Matrix-Core von Xilinx.
Bitte Belege dafür. Ich spreche von RDNA 3, also den Konsumerkarten. Nach meiner Kenntnis basierend auf mehreren serösen Quellen ist das nicht der Fall.
Colindo schrieb:
Es gibt kein "nativ", siehe oben.
Doch, natürlich gibt es das im Sinne von "fixed function".
Colindo schrieb:
Warum sollte das nur auf den Vector Units laufen, wenn AMD die Beschleunigungseinheit, die Nvidia jetzt auch benutzt, schon seit über einem Jahrzehnt hat?
Bitte was? ^^

Am Ende des Tages muss man eingestehen, dass Ada Lovelace bezogen auf Features (gerade auch die Software) und Innovationen RDNA 3 weit abgehängt hat und dabei hat Nvidia die Architektur nicht mal großartig aufgebohrt.
 
Zuletzt bearbeitet:
Leider gibt es keine Bilder von "Portal RTX" mit Raytracing ein vs aus. Denn darauf wäre zu sehen, dass es selbst ohne Raytracing viel besser aussieht als Portal Original.
Beweis:
Die 2 Bilder 4 (RTX) und 5 (ORG) reichen:
  • RTX hat komplett andere Texturen (Wand- und Bodenplatten mit Lochstruktur, anstatt verwaschene Minitextur)
  • RTX mit DLSS (AA). ORG ohne, daher kantiger
  • vorhandene Texturen in größerer Auflösung (im Bericht erwähnt)

Dazu werden Vorgenerationen mutwillig (Produktpolitik) ausgeschlossen. Das wurde erreicht, indem Raytracing überbordend zum Einsatz kommt. So wird "gezeigt", dass nur die 4090 schnell genug ist.

Typisch NVidia...
 
  • Gefällt mir
Reaktionen: up.whatever, Dai6oro, OdinHades und eine weitere Person
Zuletzt bearbeitet von einem Moderator:
Nur wer eine neue GeForce RTX 4090 (Test), eine RTX 4080 (Test) oder ein High-End-Modell der letzten GeForce-Generation sein Eigen nennt, kann ohne DLSS in Full HD flüssig spielen. Mit DLSS 2 Quality (seit Vorstellung von DLSS 3 als DLSS Super Resolution Quality bezeichnet) verschiebt sich diese Grenze leicht, aber eine RTX 3080 Ti kommt in WQHD immer noch nicht auf 60 FPS;
Ich weiß schon warum ich bei 1080p bleibe :D:freak:
 
Zer0Strat schrieb:
Bitte Belege dafür. Ich spreche von RDNA 3, also den Konsumerkarten. Nach meiner Kenntnis basierend auf mehreren serösen Quellen ist das nicht der Fall.
Dann zitier mal deine seriösen Quellen. Ich kenne das hier, was getrennte AI Matrix Accelerators zeigt. Ich würde mich aber darauf einlassen, wenn wir uns das beim Release des Whitepapers nochmal genau anschauen.
1670413023665.png


Zer0Strat schrieb:
Doch, natürlich gibt es das im Sinne von "fixed function".
AMD hat fixed function Beschleuniger für RT.
Zer0Strat schrieb:
https://www.reddit.com/r/Amd/comments/ymx97u/amd_fluid_motion_video_demo_from_5_years_ago/
 
Colindo schrieb:
AMD hat fixed function Beschleuniger für RT.
Wir sprachen über die Traversierung der BVH im Speziellen.

Colindo schrieb:
Dann zitier mal deine seriösen Quellen. Ich kenne das hier, was getrennte AI Matrix Accelerators zeigt. Ich würde mich aber darauf einlassen, wenn wir uns das beim Release des Whitepapers nochmal genau anschauen.
Schau mal hier: https://twitter.com/marcosalvi/status/1598587381321441281

Das ist ein Nvidia Mitarbeiter. Ich kann auch leider nicht alle Quellen hier öffentlich posten. Ich hoffe, das ist verständlich.

Aber man kann auch logisch rangehen. Wenn sie wirklich Matrix Cores hätten, wäre die Performancesteigerung deutlich höher als Faktor 2,7.

Colindo schrieb:
Verstehe, was du meinst. Aber ich bin da sehr sehr skeptisch. Nvidia hat spezielles Silizium dafür auf den Chip gebracht und hat Tensor Cores. Ob da Vector Units reichen, um an die Performance und die Qualität der Nv Lösung ranzukommen, ist ziemlich fraglich meiner bescheidenen Meinung nach.
 
Zuletzt bearbeitet:
Arik1125 schrieb:
Das stammt aus der offiziellen Pressemitteilung. Wann hat jemals jemand behauptet, es wurde lediglich Raytracing eingefügt?
Hat er doch auch gar nicht behauptet? Die Kernaussage ist, dass es als RTX On vs. Off vermarktet wird, die großen, sichtbaren Qualitätsschübe aber vor allem durch die neuen, hochauflösenden Texturen entstehen.

Im Endeffekt wird hier kein RTX On vs. Off verglichen, sondern
"10 Jahre altes Spiel" vs. "aktuelles Spiel mit RTX in UHD" vs. "aktuelles Spiel mit RTX in DLSS".
Wen juckt DLSS? Das einzig wirklich interessante und relevante hier wären Screenshots in UHD mit RT an und RT aus.
 
Hui...und schwupps ist meine 3080 (12 GB) die ich im August für 820€ gekauft habe obsolet (zumindest für von nVidia zusammengeschusterte Remakes...). Ich scheine echt keine guten Entscheidungen treffen zu können wenn es um Hardware geht XD im Mai 2018 die Vega 56 und jetzt das :P Naja dann werde ich jetzt die Titel die von 2019 bis jetzt erschienen sind alle nachholen und wenn ich bei Portal RTX angekommen bin kaufe ich mir ne neue Graka :P
 
Zer0Strat schrieb:
Und das wird noch schlimmer. Wenn Ada seine Muskeln spielen lassen wird in zukünftigen Titeln mit vollem Feature Support (u.a. vor allem Shader Execution Reordering, Frame Generation) und RDNA 3 weit abgeschlagen in den Balkencharts zu sehen ist, dann wird die Technikfeindlichkeit drastisch zunehmen.

Bis das den Weg in die Spiele findet, ist die aktuelle Generation schon wieder obsolet.
So schön die neuen Techniken auch sind ... wenn Grafikkarten unbezahlbar sind für den "Standard" PC Gamer, .. dann wechselt dieser vermutlich zur Konsole.

Und dort steckt aktuell AMD Hardware drin.

nVidias proprietären Techniken sind zwar meist super toll.
Aber auch nichts was sich auf Dauer irgendwie durchgesetzt hat.

Weder PhysX noch G-Sync ... und viele Weitere.

Ist Nische und bleibt Nische.

Soll nicht bedeuten das AMD das besser macht, keinesfalls.
Aber der Markt regelt das. Und da kommen die aktuellen Preislagen für nVidia eigene Techniken, zur absolut schlechtestens Zeit.
 
Zer0Strat schrieb:
Wir sprachen über die Traversierung der BVH im Speziellen.
Die TMUs sind auch fixed-function units.
Zer0Strat schrieb:
Ok, dann ist mein Verständnis, dass AMD beides tut, nicht korrekt. Eventuell haben sie nur die Shader umstrukturiert. Werden wir sehen.
Zer0Strat schrieb:
Verstehe, was du meinst. Aber ich bin da sehr sehr skeptisch. Nvidia hat spezielles Silizium dafür auf den Chip gebracht und hat Tensor Cores. Ob da Vector Units reichen, um an die Performance und die Qualität der Nv Lösung ranzukommen, ist ziemlich fraglich meiner bescheidenen Meinung nach.
Die Tensor-Cores machen bei Frame Generation aber genau Null. Es geht nur um den Optical Flow Accelerator und da ist AMDs Video Engine meiner Meinung nach gleichwertig.
 
Jethro schrieb:
Weiß Du wie Ada in Zukunft bei RT performen wird? So wie die 2070 in den Benchmarks.
Mit einer 2070 kann ich sämtliche aktuelle RT Games mit angepassten Details spielen.
Ich habe eine Notebook RTX 2080 und kann das daher aus der Praxis bestätigen.
Jethro schrieb:
Solange es keine Spiele gibt die alles was geht rein mit RT darstellen ist die RT Leistung doch komplett egal...
Äquivalent dazu wäre: "Solange es keine Spiele gibt die wie die Realität aussehen, ist die Leistung von Grafikkarten doch komplett egal, welche sich Schritt für Schritt der Realität annähern, ich kaufe erst wenn ich gerenderte Filme in Echtzeit spielen kann".

Jethro schrieb:
weil außer ein paar Effekten die man ohne Vergleichsbilder eh nicht erkennt das alles nur Spielerei ist oder sich Leute damit ihre 2000€ Grafikkarte schön reden können.
Wenn man es so sieht, kann man es auch auf Ultra Details in Spielen generell beziehen, nur dass der Unterschied zu RT und der Dynamik eben deutlich größer ist.
Jethro schrieb:
Bis dahin spielt die RT Leistung von AMD Karten keine Rolle.
Es geht also primär darum die Argumentation zu hinzubiegen, dass AMD nicht schlecht wegkommt?
Jethro schrieb:
Diese "Technikfeindlichkeit" ist einfach die Reaktion auf überteuerte Grafikkarten und Leute die meinen solche Preise verteidigen zu müssen weil RT ja so geil und alles was das nicht kann nutzlos ist.
RT ist ja geil, das sehen die Entwickler doch offenbar so.
Alle Experten sagen dasselbe.
 
.Sentinel. schrieb:
Wo hast Du diesen ganzen Unsinn her? Hat bei Dir auch der Stammtisch zugeschlagen?
Dass sich diese Märchen immernoch halten....

https://www.computerbase.de/forum/t...n-der-pc-sie-denn-packt.1988479/post-25011923
Man kann es heute noch bei Crysis 2 selber testen indem man ingame den Tessellation-Faktor (über Treiber) runtersetzt.
Zu Fallout 4, zu release gab es dass problem. Da gucken die Leute nach Benchmarks, wenn es dann wochen später gepatcht wird, ist das Kind aber schon in den Brunnen gefallen. Gleiche wie bei Witcher 3...
 
So ein Riesenaufwand nur wegen der Optik. Das Spiel macht damit auch nicht mehr Spaß und wenn ich ausm Fenster guck, hab ich immer noch bessere Grafik.

Weckt mich, wenn Technik wieder Fortschritte beim Gameplay ermöglicht.
 
Zurück
Oben