Bericht 3DMark Port Royal: Reflexionen und Schatten mit Raytracing im Benchmark

ich hätte ja so die Idee einer Zusatzkarte im Sinne der damaligen PhysX - Karten die solche Berechnungen übernimmt.... ;)
 
Das schöne ist ja, dass bevor Nvidia mit den RTX-Karten und die Ecke kam, zumindest in meiner Wahrnehmung im Bereich Gaming gar kein Bedarf dafür da war. Grafisch opulente Spiele, ich nenne Mal Witcher 3 und Crysis kamen von jeher ohne Raytracing aus, und werden immer noch als grafische Referenzen geführt.

Und dann kam Nvidia mit dieser Technologie für Gaming um die Ecke, und plötzlich wollen es viele haben.

Der Anbieter hat also auf seitens des Kunden den Bedarf und damit die Nachfrage geschaffen, und die Community ist gleich "Shut up and take my money".

Für mich, und da bin ich froh, ist Raytracing auf Screenshots schön anzusehen und da finde ich es interessant, nur ingame würde mir es nie auffallen, und deshalb ist die bei mir genau Null Bereitschaft da, mehr Geld für eine Karte auszugeben, die RT beherrscht, im Bereich der allgemeinen Leistungssteigerung aber ggü Vorgänger kaum Fortschritte macht.

Und es ist für viele schon normal, über 1000€ für eine Grafikkarte auszugeben. 😅 Nvidia ist an der Börse noch unterbewertet, das sind Genies in deren Produktmanagement-Abteilung!
 
Unabhängig von der Leistung:
Es muss erstmal breiter unterstützt werden.
Nur Battlefield 5 ist zuwenig.

Das Feature an sich ist auf jedenfall sehr sehr geil :)
Gerne mehr.
 
  • Gefällt mir
Reaktionen: kisser, .Sentinel. und Lübke82
Naja wenn neue Features bei Grafikkarten kamen und dazu neue Benchmarks, war die 1. Generation mit entsprechender Unterstützung nie besonders schnell... das war schon vor 10-15 Jahren so...

Ich rechne in 1-2 Jahren mit einer neuen Generation, wo zumindest der Benchmark dann auch mit einer RTX x60er Karte um die 50-60fps bringt...

Aber trotzdem: Zocken kann man mit den neuen Karten alle mal, doch bis die neuen Features in noch mehr Games implementiert werden, wird es sicher noch 1-2 Jahre dauern...
 
  • Gefällt mir
Reaktionen: .Sentinel., Lübke82 und Esenel
ZeT schrieb:
@Lübke82

Nicht falsch verstehen, ich übe hier keinerlei Kritik an NV oder an early adoptern. Auch mir war klar das die erste Gen. der RT Karten im Consumerbereich für läppische 1000€ niemals in der Lage sein werden das volle Featureset von Realtime Raytracing abliefern zu können. Daher auch meine Nichtempfehlung für normale Gamer die sich volles RT erhoffen bzw erwarten.

Zotac2012 is doch ein gutes Beispiel. Er fühlt sich verarscht weil RT nicht das bringt was er und andere sich davon erwartet haben. Bzw. die Karten nicht in der Lage dazu sind..... (hey Zotac, verschieb die Kommastelle um eins nach rechts, dann hast deine Performance und wenn du dann noch deine Wortwahl etwas überdachter einsetzen würdest, dann würdest auch auf keiner Ignorelist landen) ;)

Die neue Titan wäre interessant, denn ich muss eh ein komplett neues System aufbauen. Aber das wird erst Ende dieses Jahres bzw Anfang 2020 passieren.

Ich bin ja auch nicht mehr der jüngste, und wenn 82 dein Baujahr is, dann liegen wir grad mal 5 Level auseinander und haben vermutlich die meiste Zeit der PC Entwicklung selber erlebt. ;)
Am 15. kommt ein Patch der DLSS in BF5 auch schon bei 1080p einführt. Damit wird der Verlust an FPS durch die Aktivierung von Raytracing komplett ausgeglichen. Darauf bin ich mal gespannt.
Und als Early Adopter muß ich sagen, auch wenn ich die Diskussionen mitunter niveaulos und beleidigend empfinde, habe noch nie eine so spannende Hardware gekauft. Die Entwicklung ist richtig, sie geht sichtbar und schnell voran und ich kann direkt dran teilhaben, weil ich die Hardware besitze. Wer keine RTX hat muß sich Alles aus zweiter und dritter Hand besorgen, aus der Gerüchteküche.
Von wegen der Benchmark ist unansehnlich, ha! Seing is beliving, lol!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser, .Sentinel., Mumusud und 2 andere
Lübke82 schrieb:
Na dann solltest du froh sein, dass du die Vega VII nicht darin sehen wirst. Denn dann weiß ich nicht wie dein Kommentar dazu lauten würde mit 2-3fps...wenn überhaupt.

Juckt mich ehrlich gesagt nicht wie gut oder wie schlecht AMD Grafikkarten in diesem Test abschneiden, ich hab von Nvidia gesprochen die sogar explizit auf Raytracing Optimiert worden sind.

Ich vergleiche ja auch keine G Klasse mit einem Ferrari Enzo im Gelände.
 
Nureinnickname! schrieb:
Juckt mich ehrlich gesagt nicht wie gut oder wie schlecht AMD Grafikkarten in diesem Test abschneiden, ich hab von Nvidia gesprochen die sogar explizit auf Raytracing Optimiert worden sind.

Ich vergleiche ja auch keine G Klasse mit einem Ferrari Enzo im Gelände.

Die Karten sind aber nicht Raytracing-optimiert sondern beschleunigt. Und die Karten nutzen kein reines Raytracing sondern eine Mischung aus Raytracing und Rasterisierung.
Aber egal, das Thema fängt an mich zu langweilen. Schönen Samstag noch.
 
  • Gefällt mir
Reaktionen: Esenel und pietcux
Wie auch immer, trotzdem ist die Raytracing Performance trotz "Optimierung" ziemlich schlecht. Aber das ist ja bis jetzt immer so gewesen, das der Kunde "Beta Tester" Spielt. Alle neuen Features waren am Anfang relativ langsam oder Nutzlos, z.b DX10, und die Grafik unterschiede rechtfertigen bestimmt nicht den Krassen Leistungseinbruch. Aber das wurde ja auch weiter Optimiert, z.b durch weglassen von gewissen effekten. Gibt genug Videos im Netz Side by Side wo man 0 Unterschied sieht, bis auf die Fps, ich denk mal damit es Brauchbar wird, braucht es noch 2-3 Grafikkarten Generationen. Falls es sich überhaupt durchsetzt.
 
Wenn man Raytracing einsetzen möchte, dann sollten die Entwickler bewusst und sparsam damit umgehen, ansonsten wird die Performance nie gut werden. Im Video sehe ich sehr viele Objekte, bei denen man es hätte lassen sollen und die dadurch unnatürlich wirken. Ich erinnere mich an das gezeigte Auto in BF5. So glänzt kein normales Auto und auch nicht im Krieg.
 
Zotac2012 schrieb:
Das hat Nvidia überhaupt nicht gesagt, zumindest mal gar nicht während der Präsentationsshow, da wurde ja noch nicht einmal explizit darauf hingewiesen, dass die Raytracing Berechnung in FHD durchgeführt wurde.
Ja- Dies sind überhaupt nicht auf irgendwas eingegangen, weil die Präsentation die Vorstellung der künftigen Technologien umfasst hat und nicht die Performanceentwicklung.

Das kam ja alles erst in der Nachanalyse zur Präsentationsshow heraus, was dann natürlich bei der erbärmlichen Leistung von Raytracing [und das unter FHD] überhaupt nicht gut ankam bei den Usern!
Genau und ab öffentlicher Vorstellung wurde NVIDIA nicht müde immer und immer wieder darauf hinzuweisen, dass das eine ALPHA- Demo ist, die mit dem Endprodukt nichts zu tun hat, weil noch Fehler drin sind.

Ich hätte auch schreiben können, das die KI Texturen nicht berechnet, wo die KI meint das es nicht nötig sei, im Prinzip ist das nichts Anderes, als ein wegberechnen! Man kann das auch unterschlagen von Texturen nennen, der Effekt ist derselbe!
Zotac, das was Du hier (versuchst) zu beschreiben nennt man Culling. Culling ist ein elementarer Bestandteil einer JEDEN Gameengine und einer jeden Grafikkarte. Denn auch wenn sie bei der Rasterisierung schnell ist, würde die Grafikkarte gnadenlos brutal einbrechen (ohne Raytraycing).
Objekte hinter Objekten werden nicht berechnet. Der Viewport wird eingeschränkt. Etc. die Rasterisierung ist eine Ansammlung an Tricks, Weglassen und Annähern.

In Sachen Raytracing ziehen diese Tricks nicht mehr- Du musst die Bildpunkte abtasten ob Du willst oder nicht, weil Du sonst nicht mehr physikalisch korrekt berechnen kannst. Du kannst das nur insofern steuern, als dass Du durch Beschleunigungsstrukturen/Sortierung im Vorfeld festlegen kannst, dass einige Objekte lückenloser und andere Objekte intensiver abgetastet werden sollen.

Sowas als "Schummeln" oder gar weglassen zu bezeichnen, wenn das Verfahren im Gegenteil dafür sorgt, dass man an den wichtigen Stellen bessere Qualität erhält, erschliesst sich mir nicht. Es wird ja gerade eben nichts weggelassen oder von z.B. einer Spiegelung ausgeschlossen.

Und genau da wird optimiert, die KI muss vermehrt unwichtige Teile [was die KI durch die Programmierung über den Algorithmus für unwichtig hält, man kann es aber auch so sagen, was der Programmierer des Algorithmus für unwichtig hält!], quasi so viel wegretuschieren, das die KI weniger berechnen muss und dadurch die Framerate gesteigert wird, so etwas hat noch nie die Qualität eines Bildes verbessert, im besten Fall wird es optimiert!
Ich weiss überhaupt nicht, warum Du immer auf der "KI" rumreitest. Falls Du die Tensor- Cores meinst (Deeplearning, KI im eigentlichen Sinne), die werden derzeit noch garnicht eingestzt (außer für DLSS).

Das was Du hier beschreibst ist das für Rastertechnik vollkommen normale Aufbauen einer "acceleration structure". Das ist Standard, weil Du sonst kein modernes Spiel spielen könntest.
Und da Raytracing gezwungen wird, mit Rasterisierung zusammenzuarbeiten, muss diese Struktur intelligent aufgebaut werden. Das ist ein algorithmus, der durch keine KI beeinflusst wird, sondern Bruteforce arbeitet.

Hier ein bisschen Lesestoff für Dich:
http://www.scratchapixel.com/lessons/advanced-rendering/introduction-acceleration-structure

Nochmal, noch nie wurde die Qualität eines Bildes gesteigert, in dem man Inhalte weglässt, das wäre ja mal was ganz Neues, hier wird im Prinzip komprimiert und optimiert!
Nein- Aber die Geschwindigkeit. Und wenn der Sortieralgorithmus die Szene so aufbereitet, dass Dinge, die es nicht in die Rasterisierung schaffen können, vorher aussortiert werden, so hat man ohne visuelle Einschränkungen einen Geschwindigkeitsschub.

Bei Raytracing läuft das ganze anders- Dort gibt es Bereiche, die mit einem Ray pro Pixel einen gültigen Farbpunkt generieren können und andere Bereiche, wo mehrfach und auch drumrum abgetastet werden muss um einen gültigen Farbwert für den Pixel zu finden.

Hier mal ein Beispiel, wenn Du einen Strahl pro Pixel abschiesst und wie sich das nach oben hin entwickelt (64 Strahlen):
rt.png


Was NVIDIA nun mittels KI auf die Strecke bingt, ist dass Bild #2 so weit entrauscht wird, dass es "normal" aussieht. Derzeit wird nämlich auch bei BFV noch alles "bruteforce" berechnet. Sie verschiessen also auf die schwarzen oder weissen Stellen, die noch nicht abgetastet wurden einfach mehr Strahlen, bis ein gültiger Farbwert rauskommt, weil der Entrauscher durch die Tensor- Cores noch nicht funktioniert.

Somit ist das Hauptfeature, dass dafür sorgt, dass da richtig Geschwindigkeit generiert wird noch garnicht aktiv.

Hier kann man das Prinzip sehen:

Und hier wieder das Prinzip Hoffnung, das mit dem nächsten Patch alles besser wird
Bis jetzt hat DICE und NVIDIA aber geliefert und alle Versprechen, die in Sachen RT und BattlefieldV gegeben wurden eingehalten.
Es gibt also erstmal keinen Grund daran zu zweifeln, dass die neuen Beschleunigungen, die integriert wurden, noch einmal einen Geschwindigkeitsschub liefern werden.

wenn die Hardware nicht mehr hergibt, dann muss man komprimieren und "unwichtige" Teile weglassen und den Algorithmus im Treiber dementsprechen weiter optimieren und wegretuschieren.
Willkommen in der Welt der Spieleprogrammierung. Du kannst den derzeitig verfügbaren Rendertechniken doch nicht vorwerfen, dass man nicht unmengen Rechenleistung unnötig zum Fenster rausbläst!

Wärst Du dann zufrieden, wenn Du z.B. den Witcher 3 dann mit "voller Qualität", wie Du es nennst mit 5FPS spielen kannst, obwohl der Bildschirmoutput 1:1 der gleiche ist, wie mit den ganzen Tricks, die das dann auuf 60FPS heben?

Damit man dann die Strahlen noch mehr gezielt auf bestimmte refelektiven Szenen konzentrieren kann, macht aber am ende des Tages, das Bild nicht besser, allensfalls Zielgerichteter!
In der Spieleprogrammierung geht es zu 99% darum die Dinge zielgerichtet zu verbessern, die im Fokus stehen.
Warum sollte ich auf einen kaum reflektiven, nassen Stein tausende von Strahlen schicken, wenn ich letztenendes kein für das Auge verwertbare Ergebnis dadurch erhalte?

Vielleicht solltest Du Dich einfach mal mit der Thematik von Programmierungen und Berechnungen von Algorithmen beschäftigen, wie man mehr Leistung in Form von Framerates generieren kann, wenn die Hardware aber begrenzt ist und nur eine bestimmte Leistung zulässt. Da ist es noch keinem Programmierer gelungen, durch Komprimierung und weglassen von Texturen, die Qualität von Bildern zu steigern und gelichzeitig die Performance zu erhöhen!
Also jetzt mal bei aller Liebe- Aber Du offenbarst mit jedem Satz, dass Du derjenige bist, der sich in der Materie nicht eingehend beschäftigt und willst Lehrstunden verteilen. Das ist doch ein wenig abstrus.
Ich hab oben mal für Dich (auch mit ein par Besipielen) angerissen, wie das so im Groben gemacht wird.

Ich hasse RTX bzw. die Technik dahinter nicht, wenn man ein ausgereiftes Produkt, den zahlenden Kunden zur Verfügung stellt.
Hardware ist nicht gleich Software

Aber ich halte überhaupt nichts davon, Kunden zu Betatestern zu machen
Macht NVIDIA nicht. Sie machen ein Angebot. Das nimmt man an oder auch nicht.

ihnen eine Grafikkarte zu verkaufen, die allein schon im Namen auf Raytracing ausgelegt ist, tief in die Tasche zu greifen [die Kunden abzuzocken!]
Nein- Das ist nicht möglich. NVIDIA kann niemanden zwingen das Produkt zu kaufen. Das macht jeder, der es kauft freiwillig.

Du widersprichst Dir da ein wenig selbst. Wie Du weiter oben bereits schon einmal angerissen hast, hat NVIDIA überhaupt keinen Hehl um die Anfangsperformance von RT gemacht hat, aber dann sprichst Du von Abzocke?

Die Karten lagen also auf dem Tisch. Somit ist eher demjenigen ein Vorwurf zu machen, der 1000€ für eine Sache hinlegt, obwohl er lt. den Demos wissen müsste, dass das nur mit 30FPS läuft.

und dann Monate nach dem Release nur ein einziges Spiel mit Raytracing und ein Game mit DLSS in einer 4K Auflösung anzubieten.
Da bin ich wiederum bei Dir- Zum Start hätte mehr Software verfügbar sein sollen.

Und wer BF5 nicht spielt und nicht mit FFXV in 4K unterwegs ist, der kann weiterhin von Raytracing träumen.
Es gibt auch noch diejenigen unter uns, die sich für Spieleprogrammierung und die Technik dahinter interessieren. Für die ist das gesamte Featureset bereits jetzt voll nutzbar.

Und dafür hat er dann richtig Kohle investieren müssen, nur geliefert wurde nach wie vor von Nvidia nichts, außer heißer Luft!
Das ist schlichtweg falsch. Die Hardware wurde mit allen versprochenen Features und Leistungsdaten geliefert.
Das lässt sich alle nutzen und auch benchmarktechnisch belegen.

Die Software hängt hinterher.

Auch verstehe ich nicht, dass Du wiederholt den Zwang zum Kauf einer RTX Karte herausstellst und dass man Kohle investieren muss.

Woher kommt dieses Kaufen müssen. Gezwungen werden. Abgezockt werden etc.
Immer als ob irgendjemand mit der Pistole hinter einem stünde und einem den Geldbeutel rauben will.

Du stellst hier jeden, der eine RTX Karte kauft als unmündigen uninformierten Idioten dar, der sich von NVIDIA mit dem Nasenring durch die Manege ziehen lässt. Woher kommt denn so eine Denkweise?
Vor allem wenn man bedenkt, dass sich jeder über horrende Preise beschwert.
Es ist doch eher logisch davon auszugehen, dass genau die Leute, die sich eine RTX Karte kaufen SEHR genau überlegen, ob sie so viel Geld ausgeben wollen.

Und sich dann sich dann als CEO von Nvidia hinstellen, und sich enttäuscht über die AMD Radeon VII äußern, anstatt erst mal vor der eigenen Tür zu kehren, das ist einfach nur lächerlich!
Jensen muss sich diesbezüglich nunmal nichts vorwerfen lassen.
NVIDIA treiben, obwohl sie es bezüglich der Konkurrenz eben überhaupt nicht nötig hätten, mit hohem Risiko zukunftsweisende und für weitere Qualitäts- und Geschwindigkeitssteigerungen zwingend notwendige Technologien voran.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser, indy1138, Oneplusfan und eine weitere Person
Natürlich war dies immer so, dass die 1st Gen, abgesehen vom Top-Modell, für ein Feature Set XY nach erscheinen der 2nd/3rd Gen dafür zu langsam wird.

Business as usual.

Das ist aber auch das Problem, solche Features benötigen zwei bis drei Generationen, bis sich die Basis derart verbreitert hat, dass es Entwickler auch ohne Nvidia-Sponsoring freiwillig einbauen. Wenn es dann soweit ist, kann man die 2000er Serie dafür höchst wahrscheinlich vergessen. Dessen sollte man sich bewusst sein.

Nun war es aber auch immer so, dass man, bis diese 2 bis 3 Jahre vergangen waren, als Early-Adopter zumindest mal auf ein paar Titeln Spaß haben konnte. DX10 und Tesselation sind hierfür übrigens sehr gute Beispiele. Da lag dann der Bonus.

Das aber fehlt momentan aber nahezu komplett. Es gab selten nur ein Spiel zum Start. Und es gibt, bereits eine halbe Generation nach erscheinen der Ersten, weiterhin nur einen Titel. Das ist Mau.
Gleichzeitig hat man nun jedoch die Preise deutlich angehoben. Von 800€ fürˋs Top-Modell auf 1.200€. Das machen 50% Preisanstieg, obgleich die operative Nutzbarkeit im Vergleich zur Vergangenheit abgenommen hat.

Dann hat man noch die 7nm vor der Tür stehen. Es ist also davon auszugehen, dass das Leistungsgefälle zwischen erster und zweiter Gen proportional noch größer ausfällt, als dies in der Vergangenheit der Fall war. Somit besteht die theoretische Gefahr, dass die 2000er Serie gar ein wenig früher obsolet wird.

Und da geht dann irgendwie der Mehrwert für Early-Adopter verloren. Es gibt kaum Spiele - und im schlimmsten Fall wird die Karte unbrauchbar, wenn die ersten Spiele zusammen mit der zweiten Generation im Markt ankommen.

Theorie, aber sicherlich nicht komplett abwegig.

Das dürfen User wie @Zotac2012 @Nureinnickname! @Sgt_Stieglitz auch zu Recht kritisieren, ohne dafür von den immer gleichen Usern @ZeroZerp @pietcux @Lübke82 seitenlang angegriffen zu werden.

Lasst den Leuten doch ihre Meinung! Ich habe in keinem Posting sinngemäß gelesen „Du bist Blöd weil Du ne RTX hast“. Gleichwohl wird aber beispielsweise Zotac immer wieder auf persönlichem Level angegangen. Warum? Wenn jemand sachlich falsche Argumente bringt und dafür vom Empfänger persönlich angegriffen wird, was sagt dies eigentlich über den Empfänger aus...?

Wäre Klasse, wenn man das, was man tagtäglich auf der Arbeit macht, auch hier an den Tag legt.
Eine vernünftige Umgangsform miteinander und den Leuten auch mal ihre Meinung lassen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zuckerwatte, Sgt_Stieglitz und W0lfenstein
JJay schrieb:
ich hätte ja so die Idee einer Zusatzkarte im Sinne der damaligen PhysX - Karten die solche Berechnungen übernimmt.... ;)
Schön und gut, aber wie willst Du Bandbreiten von 500 Gigabyte/Sekunde durch einen PCI Bus schleusen? ;)
 
@ZeroZerp

Naja. Fakt ist, durch weglassen von Informationen kann selten ein qualitativ höheres Bild entstehen. Das ist ein Grundsatz der Bildbearbeitung und ich bin mir ziemlich sicher, dass Du den auch kennst.
Ja, die Tensor Cores werden helfen. Aber auch Ja, das Reduzieren von Beschusspunkten und nachgelagerten Aufbereiten des Bildes über eine HW-AI ist eine gute Lösung aber eben auch eine, die qualitativ dem Beschuss mit Beispielsweise 4 oder 8 Rays unterlegen ist. Es ist letztlich wieder ein Trick, d´accord zu deinen Analogien mit der Rastering-Technologie.

Und auch Tensor Cores werden nicht dafür sorgen, dass auf einmal Reflektionen und GI und Licht/Schatten gleichzeitig möglich werden.
 
Zuletzt bearbeitet:
Nureinnickname! schrieb:
Wie auch immer, trotzdem ist die Raytracing Performance trotz "Optimierung" ziemlich schlecht.
Ist sie nicht. Oder sind 1440P mit über 60FPS inzwischen als "schlecht" zu bewerten??
Das wäre in meinen Augen schon heftig vermessen...
 
  • Gefällt mir
Reaktionen: Esenel
Schlecht ist in seinen Augen vllt einfach wenn NUR Reflektionen und dann nur mit einem Beschuss berechnet werden?
Schlecht ist in seinen Augen vllt einfach wenn Schatten, Global Illumination, Lichtbrüche und diverse Quellen nicht berücksichtig werden.
Schlecht ist für ihn vllt einfach, wenn diese 60fps eben NUR auf dem 1.250€ Top-Modell möglich sind?

Vllt einfach seine Meinung?
 
  • Gefällt mir
Reaktionen: Zuckerwatte
Sun_set_1 schrieb:
@ZeroZerp

Naja. Fakt ist, durch weglassen von Informationen kann selten ein qualitativ höheres Bild entstehen.
Genau genommen nie.

Das ist ein Grundsatz der Bildbearbeitung und ich bin mir ziemlich sicher, dass Du den auch kennst.
Ja, die Tensor Cores werden helfen. Aber auch Ja, das Reduzieren von Beschusspunkten und nachgelagerten Aufbereiten des Bildes über eine HW-AI ist eine gute Lösung aber eben auch eine, die quantitativ dem Beschuss mit Beispielsweise 4 oder 8 Rays unterlegen ist. Es ist letztlich wieder ein Trick, d´accord zu deinen Analogien mit der Rastering-Technologie.

Exakt. Basis meiner Ausführung war die, dass Zotac behauptet hat, dass die Qualität heruntergeschraubt wurde.
Ich gehe hin und sage, dass die Strahlen umgeschichtet wurden und zwar von Stellen weg, die weniger Abtastung benötigen zu kritischen Stellen hin. Und dass das dem qualitativen Gesamteindruck positiv zuträglich ist.

Und auch Tensor Cores werden nicht dafür sorgen, dass auf einmal Reflektionen und GI und Licht/Schatten gleichzeitig möglich werden.

Der Demo- Teil des Benchmarks macht genau das. Du kannst im Benchmark sogar auswählen wieviele Bounces zu tätigen sind. Reflektionen, GI, Licht und Schatten (pixel perfect).
Die Pica Demo macht das und die Demo von Control auch, als auch die Demo von Atomic Heart, wobei die Softshadows generieren..

Wie gesagt- Der Witz an der ganzen Geschichte ist ja letztenendes die Nachbereitung des verrauschten Bildes mittels Tensor- Cores. Somit ist es eben möglich mit 4 Rays/Pixel ein rauschfreies Renderbild zu generien und eben nicht hunderte Strahlen verschiessen zu müssen. Wird nur merkwürdiger Weise wohl noch nirgends benutzt...

Grüße
Zero
 
  • Gefällt mir
Reaktionen: Lübke82
Sehr beeindruckend das Ganze. Zum Start von RT bei BF V war ich sehr skeptisch da der Leistungsabfall imens war. Bei der 2080 TI FE sieht man gut, wie weit man bei der Optimierung schon ist; nur 15% weniger FPS mit RT und Schatten ggü. den Standardwerten.

Auch wenn mir die Preise zu heftig sind, technisch ist das der Wahnsinn.
 
  • Gefällt mir
Reaktionen: Esenel und pietcux
ZeroZerp schrieb:
Ist sie nicht. Oder sind 1440P mit über 60FPS inzwischen als "schlecht" zu bewerten??
Das wäre in meinen Augen schon heftig vermessen...

Für eine knapp 1300€ teure Grafikkarte, ähhmm Ja, mehr als Schlecht sogar ;-), desweiteren werden deine "60fps" ja nur mit Tricks erreicht, (Weglassen von Effekten), also Ich finde dass der Grafische mehrgewinn, "Falls überhaupt" vorhanden, bei weitem nicht die Hohen Preise rechtfertigt ^^, außerdem erwarte ich von so einer Teuren Grafikkarte schon mindestens 60fps in 4K mit maximalen Einstellungen die das Spiel und die Grafikkarte hergibt
 
  • Gefällt mir
Reaktionen: Sgt_Stieglitz
Sun_set_1 schrieb:
Das dürfen User wie @Zotac2012 @Nureinnickname! @Sgt_Stieglitz auch zu Recht kritisieren, ohne dafür von den immer gleichen Usern @ZeroZerp @pietcux @Lübke82 seitenlang angegriffen zu werden.
Du vergisst dabei, dass er es ist, der hier Emotionalität und ein "Geschmäckle" in den Thread trägt.
Man wird betrogen, abgezockt, ausgenommen, gezwungen, hinters Licht geführt etc.

Ich mag es nunmal nicht sonderlich, wenn erstens falsche Dinge verbreitet werden (technisch) und den Leuten durch diverse Aussprüche indirekt Unmündigkeit, Hörigkeit und was weiss ich noch unterstellt wird.

Wenn ihm das zu teuer ist, kann er das schreiben.
Wenn er den Preisanstieg für ungerechtfertigt hält, kann man darüber diskutieren.
Dinge Erfinden und dann als Tatsachen darstellen geht aber garnicht (z.B. RT und Texturqualität).

Das zeigt nämlich indirekt, dass er sich nicht mit dem Thema beschäftigt hat oder beschäftigen will, dennoch aber dann "anti-Beiträge" verfasst.
So etwas nennt man Stimmungsmache. Das ist nicht konstruktiv oder diskussionswürdig. Im Gegenteil.

Ich werde im Gegensatz zu ihm in keiner Weise irgendwie herabwürdigend bzw. unsachlich und mach mir sogar noch die Mühe, ihm die Hintergründe zu erklären (inkl Links), warum seine Denke und seine als Fakt geposteten "Vermutungen" nicht zutreffen.

Insofern- Von meiner Seite alles gut. Von seiner Seite- Keine Ahnung.

Grüße
Zero
Ergänzung ()

Nureinnickname! schrieb:
Für eine knapp 1300€ teure Grafikkarte, ähhmm Ja, mehr als Schlecht sogar ;-), desweiteren werden deine "60fps" ja nur mit Tricks erreicht, (Weglassen von Effekten)
Ja- Derzeit sind die Karten "teuer". Wenn man ein wenig schaut, kriegt man da Customs um die 1000,-€.
Viel Geld. Neulich war die Palit 2080TI für 950 im Mindstar.

Und wie oben gefühlt seitenweise erklärt, besteht das ganze Thema Computerrendering aus Tricks. Das war nie anders. Wieso sollte es jetzt plötzlich so "schädlich" sein?

Der Punkt "weglassen von Effekten" ist genau der, der schon aufgrund der Art der Implementierung als globaler Effekt in BFV eben technisch nicht sein kann. Die Qualität kann sinken und man kann regeln, dass Objektteile erst mit einer niedrigeren Roughness Stufe mehr Rays abbekommen.
Ich kann dort aber keinen Effekt "weglassen". Dann funktioniert das ganze Raytracing nicht mehr.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82 und Esenel
Zurück
Oben