News DXR mit GeForce GTX: Pascal und Turing ohne RT-Cores können jetzt Raytracing

lynx007 schrieb:
Aber dann muss man sich auch mit dem Thema beschäftigen und der Wahrheit auch eine Chance geben die Zweifel auszuräumen.
Meine Zweifel gegenüber nVidia sind nur sehr gut begründet. Ich erinnere hier mal an Hairworks. Hairworks nutzt unsinnigerweise relativ hohe Tesselation-Stufen, womit effektiv AMD-Hardware ausgebremst wird/wurde. TressFX erzielt einen ähnlichen - in meinen Augen sogar schöneren Effeklt, ohne dass Tesselation dafür bemüht wird.

Hier wurde von nVidia also ein Weg gewält, der die Konkurrenz ausbremste. Ob Tesselation für Hairworks wirklich notwendig ist/war, wird dabei durchaus bezweifelt.

lynx007 schrieb:
Du kannst es auch ohne speziellalisierte RT berechnen. Klar kann man auch alles umstänldich über Software machen.
Wenn ich mir die aktuellen »Beschreibung« zu den RT-Cores von nVidia durchlese und mein Wissen aus der Algorithmusentwicklung als auch technischen Informatik mitnehmen, dann stellt sich für mich die Frage, ob man hier den wirklich »besten« Weg geht, den einzig machbaren Weg oder ob man hier nicht einfach einen Weg vorgeben will, auch unter dem Gesichtpunkt, dass man die Konkurrenz auschließt oder effektiv benachteiligt.

Denn bisher scheinen die RT-Cores nur eines zu machen: zu prüfen ob die Strahlen auf ein Polygon treffen. Man hat hier also erst einen Algorithmus entwickelt und diesen dann in Hardware gegoßen. Ich widerhole mich nun: Ob es wirklich der beste Weg, der einzig ganbare Weg ist, das steht auf einem anderen Blatt.

Ich kann es nicht beurteilen, sondern nur Indizien nehmen und das, was mir befreunde Informatiker in der Grafikentwicklung mitteilen.

lynx007 schrieb:
Nur ist das deutlich Langsamer.
Ließ mal bitte meinen Beitrag sehr genau durch. Ich habe folgendes geschrieben: »[…]ob es nun wirklich die RT-Cores benötigt oder ob hier einfach nur »spezialisierte« Hardware geschaffen werden sollte um der Industrie wieder gewisse Wege vorzugeben.«

Ich spreche hier ekzplizit von den RT-Cores, also dem Algorithmus, den nVidia nun in Hardware gegoßen hat. Für meine Frage ist es an dieser Stelle nicht von Bedeutung ob Software deutlich langsamer ist.

lynx007 schrieb:
Hardware wird immer Software schlagen.
Eine absolute Binsenweisheit, die aber - wie bereits geschrieben - für meine Frage keine Relevanz hat und zudem viel zu pauschal hier wieder gegeben wird.

Natürlich ist ein Algorithmus, den ich in Hardware gieße immer schneller als wenn ich den Algorithmus in Software auf einer CPU laufen lasse, gleichzeitig lege ich mich jedoch mit einem in Hardware gegoßenen Algorithmus auf eine Lösung fest. Ob es einen besseren Algorithmus geben würde, kann man so nicht feststellen.

Ich bin durchaus gespannt, was noch kommen wird, was Echtzeit-Raytracing angeht, seit dem ich mit Computern mehr zutun habe, schwirrt dieses Thema durch die Welt. Damals noch die Quake 3-Demos von Daniel Pohl gesehen, anschließend die Quake-4 und eben auch die Wolfenstein-Demos.

Was man aktuell zu sehen bekommt, ist bis auf »Metro Exodus« allerdings eher enttäuschend. Die Spiegelungen in Battlefield 5 sind durchaus schick, aber es gibt wohl auch weitere Wege, die auch bei klassischer Berechnung ähnliche Ergebnisse ermöglichen. Die Schattenberechnung in Tom Raider ist, naja dezent. Metro Exodus gewinnt durch DXR bisher für mich am meisten.

Was mich bisher wirklich beeindruckt hat, ist die Quake 2-Demo mit RT, denn kommt alles zusammen und es sieht schon beeindruckend aus, wenn man sich die Lichtstimmung ansieht.
 
Nein ich muss die Spiele eben nicht spielen. Denn ich habe nie den Unterschied in Frage gestellt.

@ZeroZerp
Du brauchst nicht auf meine Posts antworten. Da du es nicht schaffst deine Überhebliche Art und Weise aus deinen Posts zu lassen, überfliege ich diese meist nur, wenn überhaupt. Für mich macht es keinen Sinn mehr auf dich ein zu gehen. Für dich sind alle, die nicht deiner Meinung sind, eh nur unwissende. Und da ja die Meinung anderer für dich nichts wert ist und alle anderen Firmen die mit RT arbeiten und halt einen anderen Weg als nVidia gehen eh nur "Tricksen". Ist eine Diskussion mit dir Zeitverschwendung.

@pietcux
Nö mich ärgert RTX mit Sicherheit nicht. Ich finde es sogar toll, dass es eben noch Inovationen gibt, die es bisher noch nicht in den Gamingbereich geschafft haben.
Mich ärgert noch nicht einmal, das es für manche User nur diesen einen Weg gibt RT um zu setzen und dies immer per Missionierung allen aufgedrückt wird.
Was mich schon eher ärgert ist diese hörigkeit mancher hier im Forum für diese eine Firma und das nur diese Firma innovativ sein soll und nur der Weg den diese Firma geht sei der richtige. Also im Grunde ist das bei manchen schon eher ein Glaube, statt einer Meinung die auf Fakten basiert.
Auch ärgert mich schon eher, das immer wieder Aussagen kommen, das andere ja es doch auch einfach mal implementieren könnten. Es wäre ja so einfach dies zu machen.
Wenn man dann mal vergleicht in der Vergangenheit wie einfach solche Dinge angeblich sind, dann sag ich nur Asyncchrone Shader. Wurde von AMD mit eingeführt als nVidia gerade Maxwell gebracht hat. Wurde von nVidia hoch und heilig versprochen dies per Software nach zu patchen, damit Maxwell auch damit umgehen kann, wenn auch halt nicht so gut wie AMD per Hardware. Ist nie reingepatched wurden. War halt wohl nicht so einfach wie verprochen. Von daher ist dies einfach nur Unsinn was manche von sich geben.

@Grestorn
Also ich darf mir kein Urteil über etwas erlauben, wenn ich nicht das Produkt nutze, in dem Fall die Spiele spiele mit RTX implementierung. Hmmmmmmmm, das ist aber komisch, warum erlauben sich dann immer so viele andere über Dinge zu urteilen die sie ja selber auch nicht nutzen. Z.B. sämtliche Käufer von nVidia Produkten über AMD Produkte. Oder Intelkäufer über AMD Produkte, oder Applekäufer über Samsung Produkte, oder Mercedeskäufer über Audiprodukte. Oder oder oder.
Also ganz ehrlich, das ist mit so die dööfste Aussage die man machen kann. Weil dann dürften hier 95% der User des Forums in so gut wie keinem Thread auch nur irgendwas posten.
Und die Aussage das es immer so ist, das neue Techniken ja erst nur bei einer kleinen Anzahl von, in dem Fall, Spielen genutzt werden, das ist so auch nicht korrekt. Aber gut, würde den Rahmen auch sprengen dies genauer zu beleuchten.

@fdsonne
Neid? Auf was? Auf Käufer von RTX Karten? Das erkläre mir mal, warum ich neidisch darauf sein sollte? Weil sie RT haben? Weil sie eine viel Leistungsstärkere Grafikkarte haben als ich? Weil die Karte von nVidia kommt?

Mißgunst? Wieso sollte ich den Käufern von RTX Karten es nicht gönnen, das sie RT nutzen können oder die Leistung der Karte im Allgemeinen?

Also bitte, unterstelle doch nicht anderen so einen Unsinn. Ich freue mich für jeden Käufer der RTX Karten, wenn diese die Technik auch nutzen können. Ich würde es sogar begrüßen wenn es mehr Spiele auch in anderen Genres gäbe, um eben noch mehr Usern die Möglichkeit zu geben, das volle Potential der Karten zu nutzen. Ich bin weder neidisch noch mißgönne ich es anderen. Immerhin waren diese bereit den Preis zu zahlen, der halt für mich einfach zu hoch ist für die gebotene Leistung. Für die Käufer der Karten war der Preis aber offensichtlich annehmbar, was auch ok ist. Freie Meinung und so.
Und nein ich habe kein Denkfehler. RT wie es in den 3 Spielen, die RT in der Form nutzen, umgesetzt haben, ist nicht DXR (das ist nur die Schnittstelle in DX12, die es Grafikkarten ermöglicht überhaupt dieses RT zu nutzen), sondern ist RT wie es nVidia implementieren lies in den Spielen. Daher auch RT by nVidia.
Und nein RT ist nicht neu und somit auch nicht innovativ. Innovativ ist höchstens die aktuelle Umsetzung von nVidia. Wobei jetzt Extra Kerne für eine bestimmte Speziallisierung auch nicht innovativ ist.
 
In Paititi schauts so aus:

RTXon:
export4.png

RTXoff:
export5.png


Was sehr interessant bei dem Thema ist:
  • In Paititi bekommt es der Afterburner nicht mehr hin im 100ms Takt Werte auszulesen? Keine Ahnung ob das normal ist bei hoher Last, aber er schafft nur noch ca. 7-8 Werte pro Sekunde. 557 Total für die 60sec.
  • Die Frametimes sind extrem übel, wenn die FPS niedrig sind und RTX aktiv ist. Ohne RTX hingegen geht es - nicht 100% glatt, aber überschaubar
  • Irgendwo oben schrieb wer eine Kritik zum Thema, warum nur Ultra Settings, wenn man auch weniger testen kann? -> bringt absolut gar nix. Sobald RTX aktiv ist, sinken auf Pascal so übel die FPS. Alle andere Einstellungen verändern fast nix.
Habe mich dazu in Paititi einfach mal oben auf ne Klippe mit Blick in die Stadt gestellt -> und dann im Menü die Settings alle samt einzeln durchgeschalten. Bei Veränderun wackelt kurz die FPS Rate und dann ist Vorher- wie Nachher die gleiche FPS zu Zahl sehen. Einzig RTX auf unterhalb von Hoch bringt deutlich Performance. Die Frametimes bleiben aber scheiße. Wahrscheinlich ist das aber auch SLI bedingt.
- Mit RTXon und niedrigen FPS im 20er Bereich habe ich eine Art Ghosting oder sowas. Das Bild wird phasenweise übel Matsch. Die Konturen der Kanten verschwimmen wie als würden aufeinander folgende Bilder nicht 100% übereinander liegen vom Blickfeld. Ich guck mal das ich das in ein Video festgehalten bekomme.
Ergänzung ()

Selanius schrieb:
Also bitte, unterstelle doch nicht anderen so einen Unsinn.

Du solltest nochmal lesen was ich schrieb. Ich unterstelle dir gar nichts. Ich sagte, dass in deiner Aussage etwas mitschwingt, was ich nicht 100% in Worte fassen kann, weil ich nicht weis wie ich es benennen soll. Die Aussage wirkt für mich leicht verstörend, weil du irgendwo versuchst Fehler zu finden und dafür Gründe benennst, die eigentlich keine sind. Es zwingt dich keiner dazu. Wenn du den Spaß nicht willst - kaufst du nicht, fertig. Wenn es dir zu teuer ist, kaufst du nicht, auch ganz einfach. Ihr machts euch mit euren Feindbildern immer so schwer... Dabei kann es so einfach sein.

Selanius schrieb:
Und nein ich habe kein Denkfehler. RT wie es in den 3 Spielen, die RT in der Form nutzen, umgesetzt haben, ist nicht DXR (das ist nur die Schnittstelle in DX12, die es Grafikkarten ermöglicht überhaupt dieses RT zu nutzen), sondern ist RT wie es nVidia implementieren lies in den Spielen. Daher auch RT by nVidia.

Doch hast du - der Denkfehler liegt darin, dass du offenbar meinst eine Schnittstelle sei etwas, was Raytracing sein kann. Das macht der Satz "RT ..., ist nicht DXR" mehr als deutlich.
Raytracing ist nicht DXR - DXR ist eine Schnittstelle, Raytracing ist ein Verfahren via Strahlenverfolgung um sonstwas damit zu tätigen. Im konkreten Fall um 3D Szenen zu errechnen oder die Berechnungen zu erweitern. RTX ist eine andere Schnittstelle - nämlich eine Hersteller properitäre Möglichkeit bspw. DXR zu nutzen. DXR ist eine Erweiterung von DX12 - ein Aufsatz könnte man sagen. Andere Schnittstellen wären hier Vulcan - auch dort lässt sich auf RTX aufsetzen um Raytracing via Vulcan nutzbar zu machen. OptiX wäre ein weiterer Vertreter.

Aber egal wie man es dreht - Raytracing kann nicht DXR oder RTX sein. Sondern Raytracing kann bestenfalls über DXR oder andere Schnittstellen bereitgestellt/durchgeführt/nutzbargemacht werden. Hier nutzen alle genannten Titel DXR - ohne DXR kein Raytracing in den Games. Die Implementation von DXR setzt auch keineswegs RTX vorraus. Warts mal ab - AMD wird ihr eigenes Süppchen kochen oder sich mit wem zusammen tun und dann auch ein DXR Backend bereit stellen.
Im Moment erweckt das nur den Eindruck, weil NVs RTX die einzige Umsetzung auf dem Markt ist - und die natürlich mal wieder properitär und NV only.

Teralios schrieb:
Meine Zweifel gegenüber nVidia sind nur sehr gut begründet. Ich erinnere hier mal an Hairworks. Hairworks nutzt unsinnigerweise relativ hohe Tesselation-Stufen, womit effektiv AMD-Hardware ausgebremst wird/wurde. TressFX erzielt einen ähnlichen - in meinen Augen sogar schöneren Effeklt, ohne dass Tesselation dafür bemüht wird.

Du erinnernst hier eher nur daran, wie wenig du dich mit Hairworks beschäftigt hast.
Die Anspielung deinerseits bezieht sich doch zweifelsfrei auf die Witcher3 Thematik.

Hairworks ist mittlerweile frei zugänglich - das Thema der absichtlich durch ne Blackbox geschaffenen AMD Ausbremsung ist damit lange vom Tisch, am Speed hat sich meines Wissens nämlich gar nichts geändert. AMD läuft wie damals nicht anders.
Tessellation ist ein Mittel zum Zweck - man kann es anders lösen (dafür muss man sich einfach mal damit beschäftigen, was Tessellation ist). Aber in welchem Aufwand eine andere Lösung steht, wird idR nirgends beleuchtet. Bei solchen Hersteller A <> Hersteller B Diskussionen wird doch idR immer das Feature als Problem dargestellt, was dem eigenen Favoriten einen Nachteil bringt, während alles, was dem Konkurrenten einen Nachteil bringt billigend in Kauf genommen wird.

Ganz ehrlich, Hairworks ist ein Feature, was man nutzen kann oder eben nicht. Ganz konkret hatte seinerzeit CDP Red scheinbar keine Lust die entsprechenden Sourcen in der Form zu erstehen, dass es hätte in Eigenregie auf AMD angepasst werden können. Die Aussage seitens NV steht im Raum, dass CDP die Sources eben nicht erstanden haben. AMD muckiert sich über angeblich durch die Blackbox unmögliche Optimierungen - hat aber nach vollständiger Öffnung auch nichts geändert. Unterm Strich einfach nur Marketing geblubber. Vor allem für den User auch absolut kein Problem - der AMDler hat doch den netten Tessellation Regler. Schieb ihn wohin du es brauchst und gut ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser und Grestorn
Ich hab mir jetzt nochmal das Video hier angeschaut

Das Problem, was ich dort öfters beim Raytracing sehe, ist dass die Schatten viel zu dunkel sind. Das stimmt so in Realität nicht. Dadurch wirkt es tatsächlich falscher als Szenen die durch Rasterisierung berechnet wurden und eine höhere "Basishelligkeit" aufweisen, z.B. die Szene mit den Fässern im Eck im Vergleich ab Minute 14:10. So dunkel wird das in Realität niemals. Selbst bei passivem Lichteinfall wird es normalerweise nicht so stockdunkel. Aber es gibt noch andere Beispiele im Video, wo es einfach nicht realistisch wirkt, weil es so krass dunkel wird. Ich hoffe das ändert sich noch irgendwie. Sonst haben wir nur 2 verschiedene Ansätze für Lichtberechnungen, die jedoch beide auf ihre eigene Weise "falsch" sind.
 
Zuletzt bearbeitet von einem Moderator:
franzerich schrieb:
Ich hab mir jetzt nochmal das Video hier angeschaut...
Das Problem, was ich dort öfters beim Raytracing sehe, ist dass die Schatten viel zu dunkel sind.
Das Problem war eine nicht funktionierende eye adaption (Augen gewöhnen sich bei Wechsel von Hell auf Dunkel langsam an die Dunkelheit und somit hellt sich das Bild wieder auf.
Der Bug wurde mit dem letzten Patch behoben. Somit ist es nur noch bei Hell/Dunkel- Wechseln kurzzeitig dunkel. Wie wenn Du von der Sonne in den unbeleuchteten Keller gehst...

Das wär dieser Punkt des Ranger- Updates:
Das Problem bei der Augen-Anpassung bei aktiviertem RTGI wurde behoben.

Zudem wurden lt. Herstellerinterview aus Stil- und Atmosphäregründen Stellen teils absichtlich dunkel gehalten.
The Metro Exodus segment I demoed at PAX Australia starts with ray tracing off. You awake and follow a path to a shack on the shore. As you walk up, you see a skeleton before you enter — and every single thing inside the shack, for that matter. Because everything is gray, you know it’s supposed to be dark inside. The game is a shining example of what we’re used to seeing — not bad but just not “correct.”

As a result, the spookiness is lost. Because you can see everything, there’s no mystery.

With ray tracing on, you can barely make out the skeleton as you approach the shack. Its interior is nearly pitch black. It’s more an unsettling hint than stark reality. Once inside, you’re jolted by the skeleton hanging on the wall.

With ray tracing on, you have to pull out your flashlight to see in the dark shack. The game’s realistic lighting model means that you can only see what is illuminated by this light source — everything else is pitch black. So you focus your attention on the lit area, the light circle the flashlight creates.

With ray tracing off, you really don’t need your flashlight. If you do use it, you find your focus not on the brightened area, but on the unlit areas because you know that’s where the danger will likely come from.

Und hier wird auch drauf eingegangen, was Raytracing in dem Titel bezwecken soll:
Metro Exodus with ray-traced global illumination is not your typical “eye candy” demo where shot “A” looks better than shot “B.” The biggest contribution the technology makes to the game is in some ways psychological. The realistic lighting sets a mood that connects with elements ingrained in the human psyche. Its subtle visual lighting cues trigger feelings and emotional reactions I haven’t felt in video games before



@Selanius
Du brauchst nicht auf meine Posts antworten. Da du es nicht schaffst deine Überhebliche Art und Weise aus deinen Posts zu lassen,
Doch ich muss auf diese Posts antworten, weil Du es nachwievor nicht schaffst, Raytracing, DXR und RTX auseinanderzuhalten und alles in einen nVidia proprietäre Technik- Topf mischst.

überfliege ich diese meist nur, wenn überhaupt.
Ist mir schon klar- Merkt man ja auch an Deinen Kommentaren, dass Du null bereit bist, Dich mit dem Thema mal ordentlich auseinanderzusetzen.

Sonst würdest Du nicht gebetsmühlenartig die immer gleichen falschen Dinge wiederholen. Sorry, aber es bin nicht nur ich, der hier zum hundertsten Mal versucht Dir aufzuzeigen, dass es bei DXR nicht um irgendeine Herstellerdiskussion geht, auf die Du es mit aller Gewalt immer wieder zwingen willst.

Für mich macht es keinen Sinn mehr auf dich ein zu gehen.
Dann hör nicht auf mich, sondern vielleicht auf die anderen, die Dir versucht haben das zu erklären.

Für dich sind alle, die nicht deiner Meinung sind, eh nur unwissende.
Auch darauf bin ich schon eingegangen. Es gibt Meinungen und durch und durch objektive Fakten.
Schwierig wird es dann, wenn einer seine Meinung mit Fakten vermischt oder meint es gäbe bei der Beurteilung von harten Fakten einen großartigen Ermessensspielraum.
Damit lügt man sich nur selbst in die Tasche.

Jeder darf sich hinstellen und sagen:Grün ist ab jetzt für mich Rot.
Nur ist die Frage, was man damit bezwecken wollen würde und wie sehr man damit von der Realität abweicht.

Und da ja die Meinung anderer für dich nichts wert ist und alle anderen Firmen die mit RT arbeiten und halt einen anderen Weg als nVidia gehen eh nur "Tricksen". Ist eine Diskussion mit dir Zeitverschwendung
Dann sage ich Dir hiermit zum 100sten Male - Jeder kann seine Meinung haben.

DXR ist der KONSENS der großen Firmen, die sich auf eine Schnittstelle für Hybrid Raytracing geeinigt haben. Das gehört allen! Das darf jeder nutzen.
Jedes der genannten Spiele mit RT Unterstützung ist auch auf AMD Karten lauffähig, nur dass AMD bis jetzt den Usern keine Treiber dafür geliefert hat.

Es ist KEIN ALLEINGANG von nVidia.
nVidia ist nur der erste Hersteller, der die DXR Schnittstelle, die auch von AMD abgesegnet wurde mit einer dafür spezialisierten Hardware bedient. Wie damals AMD zum Beispiel als erstes DX 11.1 unterstützt hat.
Da wäre doch niemand auch nur im entferntesten auf die Idee gekommen rumzuheulen und AMD zu beschimpfen, weil sie den neuen Standard mit ihren Karten untersützen.

Und wenn Du das nicht begreifen willst und immer wieder von diesem RT und seiner Implementation mit nVidia Technik anfängst, so lange muss man diesem Unsinn widersprechen.

https://www.computerbase.de/2018-03/directx-12-raytracing-dxr/
DXR ist für alle Hersteller: AMD, Nvidia, Intel und Co.

DXR soll nach wie vor auf einer GPU berechnet werden und der Teil der API kann nach wie vor von jedem GPU-Hersteller genutzt werden. AMD, Nvidia, Intel und Co. können also darauf setzen.

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47402-kommen-die-geforce-rtx-karten-
zu-frueh.html

...dar, denn in Form der DXR-Erweiterung für DirectX, ist auch Microsoft an dieser Entwicklung beteiligt und da NVIDIA und Microsoft für eine solche Erweiterung keine Alleingänge vornehmen, sind auch Intel und AMD beteiligt.

Hast Du es jetzt verstanden? Nix Firmenkrieg- Nix Fanboytum oder Missionierung. Es ist von allen für alle und das offen nutzbar für jeden!
Also tu mir bitte, bitte den Gefallen endlich damit aufzuhören, irgendeine Marken oder nVidia Geschichte draus stricken zu wollen, oder irgendwas, was nachteilig für den User wäre zu erfinden.

Das was Du hier im Gegenteil die ganze Zeit vorantreiben willst sind proprietäre Lösungen, also Alleingänge der Enginehersteller, die irgendwelche Tricks nur für ihre Engine zu entwickeln, von denen dann alle anderen wieder nichts haben...
Und diese hochexklusiven Ansätze wären dann aber plötzlich genehm? Wieso ist das denn plötzlich in Deinen Augen akzeptiert?


Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser und Grestorn
Selanius schrieb:
Also ich darf mir kein Urteil über etwas erlauben, wenn ich nicht das Produkt nutze, in dem Fall die Spiele spiele mit RTX implementierung.

Du hast eine Frage gestellt, ich habe geantwortet. Frag nicht, wenn Dir die offensichtliche Antwort nicht gefällt.

Deine Frage offenbart bereits Deine Agenda. Nämlich das Produkt und den Hersteller, den Du nicht magst, in Frage zu stellen. Das ist schlicht nicht hilfreich.

Selanius schrieb:
Und die Aussage das es immer so ist, das neue Techniken ja erst nur bei einer kleinen Anzahl von, in dem Fall, Spielen genutzt werden, das ist so auch nicht korrekt. Aber gut, würde den Rahmen auch sprengen dies genauer zu beleuchten.

Sie ist genau dann korrekt, wenn die neue Technik auch eine spezielle, aufwendige Implementierung voraussetzt.

Ich denke nicht, dass es nur "den Rahmen" sprengen würde, diese Aussage zu widerlegen. Es ist vielmehr schlicht nicht möglich. Also duck Dich nicht weg.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Zum Thema "zu dunkel" in Metro Exodus, ich drehe halt tapfer am GAMMA, wenn es zu unübersichtlich wird. GAMMA ist ein ziemlich wichtiger Regler, weil wir alle unterschiedlich gut sehen, besonders im Dunkeln.
 
fdsonne schrieb:
Du erinnernst hier eher nur daran, wie wenig du dich mit Hairworks beschäftigt hast.
Und du erinnerst mit deinem Beitrag daran, dass du (1.) vermutlich nicht wirklich meinen Beitrag gelesen hast und zudem selbst mit Halbwissen hier umdich wirfst, aber ansonsten hinter deinen Aussagen nicht viel dahinter ist.

Es ist doch amüsant, wie sehr du dich darauf einschießen kannst, dass hier jemand etwas die Begrifflichkeiten durcheinander wirft, oder vielleicht auch bewusst so nutzt. Schön verschwendete Zeit und im Endeffekt kann jeder, der etwas Verständnis für eine Suchmaschine hat und einen Text erfassen kann, deine Beiträge in kürzester Zeit selbst schreiben und die User berichtigen.

Es tut mir schrecklich - nicht - leid, dass ich es hier wage, nVidia als Unternehmen kritisch zu sehen und deren Entwicklungen auch mit meinem vorhanden Wissen zu hinterfragen.

Für dich allgemein als Tipp: Wenn du andere belehren willst, dann mach es richtig und pack die Argumente auf den Tisch oder lass es lieber bleiben, alles andere kann nach hinten los gehen!

Ich weiß sehr genau was TressFX und Hairworks macht und ich kann sogar den Gedankengang dahinter verstehen, warum man Tessellation nutzt und ich kenne sogar die Konzepte dahinter, da wir die Grundlagen dafür in praktischer Informatik 4 vermittelt bekommen haben. Ach ist es schön, dass man Ergebnisse extrapolieren kann.

fdsonne schrieb:
Die Anspielung deinerseits bezieht sich doch zweifelsfrei auf die Witcher3 Thematik.
Richtig, wobei es sich allgemein auf Hairworks bezieht. Wenn du meinen Beitrag richtig gelesen hättest, hättest du vielleicht mitbekommen, dass ich nicht direkt die Verwendung von Tessellation als kritisch empfinde, sondern die »unsinnig hohen Tesselation-Stufen.«

Nur sekundär ziehe ich die Nutzung von Tessellation in Zweifel, da es eben auch ohne geht. Was nun wirklich der bessere Weg ist, kann ich nicht sagen, da ich mir dafür die Algorithmen anschauen müsste und entsprechende Diagramme erstellen müsste um sie anschließend in eine Leistungsklasse einzuteilen. Dafür ist mir meine Zeit zuschade!

Ich habe dieses Beispiel gewählt, weil es hier eben zwei konkurrierende Verfahren gibt, am Ende die selbe Wirkung haben, aber zwei unterschiedliche Wege gehen, damit kann es jeder selbst nachprüfen und sich diese frage stellen.

fdsonne schrieb:
Hairworks ist mittlerweile frei zugänglich - das Thema der absichtlich durch ne Blackbox geschaffenen AMD Ausbremsung ist damit lange vom Tisch, am Speed hat sich meines Wissens nämlich gar nichts geändert. AMD läuft wie damals nicht anders.
AMD läuft wie damals nicht anders, weil das primäre Problem die sehr hoch gewählte Tessellationstufe ist und nicht der Algorithmus als ganzes. Ob diese hohe Stufe wirklich notwendig ist, kann man hier in zweifel ziehen, ohne dass man andere deswegen meinen muss zu belehren.

fdsonne schrieb:
AMD muckiert sich über angeblich durch die Blackbox unmögliche Optimierungen - hat aber nach vollständiger Öffnung auch nichts geändert.
Wir wollen es mal etwas richtiger rücken: AMD hat nicht gesagt, dass es unmöglich ist, sondern um einiges aufwendiger ist für die entsprechenden Blackboxes zu optimieren und ebenso, dass es oft zu Problemen bei den Spielen immer erst kommt, wenn die Entwickler entsprechende Effekte eingebaut haben und davor lief alles ordentlich.

Ich verweise hier auf Absatz 4 von mir: Wenn du meinst andere belehren zu müssen, weil sie in deinen Augen was falsches schreiben, dann mach es richtig und verkneif dir selbst Fehler.

Alles weitere dieser »Schlammschlacht« damals, sind Interpretation von Spielern, Analsysten und Journalisten von vermeindlichen Aussagen von nVidia und AMD und ist vermutlich eher durch die Community so hoch gekocht worden, als von AMD, nVidia und CDProject selbst.

Fakt bis hier her ist allerdings folgender:
TressFX funktionierte in Tombraider »Out-of-the-Box« sowohl mit AMD als auch nVidia-Karten relativ gut. Vorteil des OpenSource-Ansatzes damals.
Hairworks als auch andere Gameworks Effekte standen lange Zeit unter Verschluss und sind als Blobs an die Entwickler ausgeliefert worden - Aussage von CDProject.
Hairworks hat damals übermäßig viel Leistung gekostet bei AMD.
Das Problem bei Hairworks war/ist wohl eine sehr hohe Tesselationstufe.

Und jetzt gebe ich ganz frech meine Vermutung wieder: nVidia-Entwickler haben bei Hairworks sehr wohl aus »Absicht« einen so hohen Wert gewählt, da bekannt war/ist, dass die Radeon-Grafikkarten damals bei der Tessellation-Leistung der nVidia-Hardware hinterher hinkt. Ich bezweifel auch, ob dieser hohe Wert wirklich notwendig war/ist. Man könnte natürlich jetzt prüfen, wie die Hairworks-Effekte nun mit den ursprünglichen Werten von nVidia aussehen und ob sich niederigere Stufen davon visuell unterscheiden und ab wann das ein Unterschied ist und ab wann der Unterschied auch wahrnehmbar ist.

Und genau in diesem selben Kontext hinterfrage ich eben auch die RTCores von nVidia und ebenso in wie weit durch RTX für Entwickler bereits ein Weg vorgeben werden.

Solange du hier also keine wirklichen Argumente bringst - sprich Flussdiagrame für die Algorithmen, wie die RTCores genau arbeiten, in wieweit nVidia bei den Entwicklern nur bei der DXR/VKRay mitgewirkt haben und wie spezifisch dir DXR-Umsetzung auf RTX eventuell ausgelegt ist - wirst du akzeptieren müssen, dass ich - und vermutlich auch andere - RTX und die Auswirkungen auf DXR und speziell auf die Engines hinterfrage.

Du kannst es natürlich anders sehen und nVidia für die Unschuld vom Lande halten und alles was sie machen für richtig empfinden, dass muss ich dann akzeptieren.

Das schöne ist ja: Wir haben Meinungsfreiheit!

fdsonne schrieb:
(dafür muss man sich einfach mal damit beschäftigen, was Tessellation ist)
Ich kann dir versichern: Ich weiß nicht nur was es ist, sondern kenne sogar die Arbeitsweise sehr gut, da wir diese Prinzipien im Studium hatten.

Das schöne an der Informatik ist, dass man vieles mit etwas logischem Verständis, Kenntnisse der Mathematik und Wissen über Algorithmik sich selbst erschließen kann.

Deswegen mag ich Informatik auch als Hobby, nur mein Leben möchte ich nicht nur hinter dem Computer verbringen.
 
Selanius schrieb:
Asyncchrone Shader. Wurde von AMD mit eingeführt als nVidia gerade Maxwell gebracht hat. Wurde von nVidia hoch und heilig versprochen dies per Software nach zu patchen, damit Maxwell auch damit umgehen kann, wenn auch halt nicht so gut wie AMD per Hardware. Ist nie reingepatched wurden.

Selbstverständlich können asynchrone Shader auf jeder Nvidia-Karte seit Fermi genutzt werden. Unwahre Bahauptungen als Fakten hinzustellen ist kein guter Stil!
Aber was hat das mit dem Thema hier zu tun?
 
Das Thema dieses Treads ist grade auf Urlaub, wir sind schon wieder bei den üblichen Sc.....längen Vergleichen. Wie währe es mit ner Runde Bier für Alle?
15552667029517186317688380025757.jpg

Ausserdem hätte ich dieses Bild in meiner Lebenszeit nicht mehr erwartet und hier wir über Hairworks und Tress FX gestritten......
 
Zuletzt bearbeitet:
Das Thema ist nicht wirklich auf Urlaub, und es gibt wirklich viele Ungereimtheiten bei dem Thema, die auch mich nicht in Ruhe lassen.

Teralios schrieb:
dass ich nicht direkt die Verwendung von Tessellation als kritisch empfinde, sondern die »unsinnig hohen Tesselation-Stufen.«
Und jetzt gebe ich ganz frech meine Vermutung wieder: nVidia-Entwickler haben bei Hairworks sehr wohl aus »Absicht« einen so hohen Wert gewählt, da bekannt war/ist, dass die Radeon-Grafikkarten damals bei der Tessellation-Leistung der nVidia-Hardware hinterher hinkt. Ich bezweifel auch, ob dieser hohe Wert wirklich notwendig war/ist. Man könnte natürlich jetzt prüfen (...) ab wann der Unterschied auch wahrnehmbar ist.

Und genau in diesem selben Kontext hinterfrage ich eben auch die RTCores von nVidia und ebenso in wie weit durch RTX für Entwickler bereits ein Weg vorgeben werden.

Genau das frage ich mich auch. Ich habe mir dazu auch wieder ein Video angeschaut und teilweise kommen ähnliche Vermutungen auf: dass unnötig hohe Werte gewählt werden, wie z.B. bei Tomb Raider "Ultra Raytracing" welches die Framerate stark einbrechen lässt, aber bei "Medium Raytracing" (was optisch nicht so viel Unterschied ergibt), die Framerate nur geringe Auswirkung hat. Und basierend auf solchen Hokuspokus kommen dann Behauptungen man bräuchte unbedingt RT-Cores.

Im Video wurde sonst auch beiläufig erwähnt, dass es wohl theoretisch möglich wäre eine "Sehr Niedrig" Raytracing Stufe zu implementieren, und die für Grafikkarten ohne RT-Cores geeignet wären. Und genau das denke ich auch. Wenn man sich vor Augen hält, dass ohne Raytracing z.B. spiegelnde Fenster mit "verschwommenen Cubemaps" gefaked werden, wo man allenfalls Schemen wahrnimmt - könnte man stattdessen auch echte Reflektionen mit Raytracing zeigen - aber eben in sehr niedriger RT-Qualität. Das Resultat wäre sicher nicht schlechter. Und würde auch nicht viel Leistung kosten.
Bei Schatten ist es ja genau so: da schafft das Ultra-Raytracing zwar halbtransparente Schatten, aber eine niedrigere Raytracing-Einstellung schafft immer noch ansehnliche Schatten. Da sind sie eben nicht mehr halbtransparent, sondern eben dunkler. Dafür kostet es auch weniger Leistung.
Und dass die bei den Präsentationen immer auch Antialiasing und andere Grafikeinstellungen aufs Maximum drehen (wo ich z.B. komplett aufs performancelastige AA komplett verzichte, da ich kein Probleme mit den kleinen Treppen auf einem nativen FHD Bildschirm habe), um zu demonstrieren wie "unspielbar" doch alles wird... das ist doch lächerlich!

In diesem Sinne sind auch die ganzen Behauptungen wie "Pascal wäre zu schwach", oder "es werden mindestens 6gb VRAM benötigt" (obwohl man sogar auf einigen Videos sieht, dass trotz aktiviertem Raytracing allenfalls 4gb verbraucht werden) einfach nur B.S. Ich denke, dass sogar Einsteigerkarten dafür in der Lage wären.

Dann gibts aber auch Stellen im Video, wo man wirklich denkt, man bräuchte RT-Cores, weil die 1080Ti von 140fps auf 44fps einbricht (sogar bei "Medium Raytracing") obwohl eigentlich fast nichts sichtbar ist in der Szene (an der Stelle wo sie im Dunkeln irgendeine Wand raufklettert). Als die Protagonistin oben angelangt, geht die Framerate wieder auf 140fps. Da frage ich mich woher solche Framerate-Dips kommen? Solche komischen Stellen gibts allerdings auch bei Metro Exodus ab und zu... mit aktiviertem Raytracing noch spielbare Frameraten - aber dann an einer Stelle, wo der Spieler in einem stockdunklen Gang läuft, und eigentlich sonst fast nichts sichtbar, und die Framerate plötzlich um 70% einbricht (dieser Abschnitt ist glaub nicht im obigen Video, hab den woanders gesehen). Solche merkwürdigen Dips ergeben nicht wirklichen Sinn... als hakt da irgendwas am Spiel oder der Raytracing Berechnung. Auch denkt man in diesem Falle, dass es vielleicht möglich wäre, über den Treiber zu korrigieren. Die Frage ist nur: wollen die das überhaupt? Wahrscheinlich nicht.

Ein Thema, das einen aufwühlt...
 
Zuletzt bearbeitet von einem Moderator:
franzerich schrieb:
Das Thema ist nicht wirklich auf Urlaub, und es gibt wirklich viele Ungereimtheiten bei dem Thema, die auch mich nicht in Ruhe lassen.



Genau das frage ich mich auch. Ich habe mir dazu auch wieder ein Video angeschaut und teilweise kommen ähnliche Vermutungen auf: dass unnötig hohe Werte gewählt werden, wie z.B. bei Tomb Raider "Ultra Raytracing" welches die Framerate stark einbrechen lässt, aber bei "Medium Raytracing" (was optisch nicht so viel Unterschied ergibt), die Framerate nur geringe Auswirkung hat. Und basierend auf solchen Hokuspokus kommen dann Behauptungen man bräuchte unbedingt RT-Cores.

Im Video wurde sonst auch beiläufig erwähnt, dass es wohl theoretisch möglich wäre eine "Sehr Niedrig" Raytracing Stufe zu implementieren, und die für Grafikkarten ohne RT-Cores geeignet wären. Und genau das denke ich auch. Allein schon wenn man sich folgendes vor Augen hält: ohne Raytracing werden z.B. Spiegel nur mit Cubemaps gefaked, oder man zeigt Fenster, die so trüb und verschmiert sind, dass man allenfalls Schemen wahrnemmt - anstatt dass man solche Fakes macht, könnte man wahrscheinlich echte Reflektionen mit Raytracing berechnen - aber eben sehr niedriger Qualität. Das Resultat wäre sicher nicht schlechter. Und das würde auch nicht viel Leistung kosten.
Bei Schatten ist es ja genau so: da schafft das Ultra-Raytracing zwar halbtransparente Schatten, aber eine niedrigere Raytracing-Einstellung schafft immer noch ansehnliche Schatten. Da sind sie eben nicht mehr halbtransparent, sondern eben dunkler. dafür kostet es weniger Leistung zu berechnen.
Und dass die Lappen immer auch Antialiasing und andere Grafikeinstellungen aufs Maximum drehen (wo ich z.B. oft aufs AA komplett verzichte, da ich kein Probleme mit den kleinen Treppen auf einem nativen FHD Bildschirm habe) und das als Paradebeispiel zeigen, wie unspielbar doch alles wird... das ist doch lächerlich!

In diesem Sinne sind auch die ganzen Behauptungen wie "Pascal wäre zu schwach", oder "es werden mindestens 6gb VRAM benötigt" (obwohl man sogar auf einigen Videos sieht, dass trotz aktiviertem Raytracing allenfalls 4gb verbraucht werden) einfach nur B.S. Ich denke, dass sogar Einsteigerkarten dafür in der Lage wären.

Dann gibts aber auch Stellen im Video, wo man wirklich denkt, man bräuchte RT-Cores, weil die 1080Ti von 140fps auf 44fps einbricht (sogar bei "Medium Raytracing") obwohl eigentlich fast nichts sichtbar ist in der Szene (an der Stelle wo sie im Dunkeln irgendeine Wand raufklettert). Als die Protagonistin oben angelangt, geht die Framerate wieder auf 140fps. Da frage ich mich woher solche Framerate-Dips kommen? Solche komischen Stellen gibts allerdings auch bei Metro Exodus ab und zu... mit aktiviertem Raytracing noch spielbare Frameraten - aber dann an einer Stelle, wo der Spieler in einem stockdunklen Gang läuft, und eigentlich sonst fast nichts sichtbar, und die Framerate plötzlich um 70% einbricht (dieser Abschnitt ist glaub nicht im obigen Video, hab den woanders gesehen). Solche merkwürdigen Dips ergeben nicht wirklichen Sinn... als hakt da irgendwas am Spiel oder der Raytracing Berechnung. Auch denkt man in diesem Falle, dass es vielleicht möglich wäre, über den Treiber zu korrigieren. Die Frage ist nur: wollen die das überhaupt? Wahrscheinlich nicht.

Ein Thema, das einen aufwühlt...
Dumme Frage vielleicht, welche Grafikkarte verwendest du?
 
franzerich schrieb:
Genau das frage ich mich auch. Ich habe mir dazu auch wieder ein Video angeschaut und teilweise kommen ähnliche Vermutungen auf: dass unnötig hohe Werte gewählt werden, wie z.B. bei Tomb Raider "Ultra Raytracing" welches die Framerate stark einbrechen lässt, aber bei "Medium Raytracing" (was optisch nicht so viel Unterschied ergibt), die Framerate nur geringe Auswirkung hat.

Das ist mit RT nicht anders als bei herkömmlichem Rendering.
Z.B.:
https://www.computerbase.de/2019-04...abschnitt_viele_optionen_kompliziertes_tuning

Wenn RT viel bessere Qualität bringen soll, dann kostet es auch viel Leistung. Und umgekehrt braucht es nicht viel Leistung, wenn die Optik kaum besser wird.

Und dass man die Unterschiede je nach Bildinhalt kaum oder sehr deutlich wahrnimmt liegt nicht am RT selbst.
In einer dunklen Szene fallen z.B. Schatten nicht so deutlich auf wie ein einer hellen, obwohl der Rechenaufwand nicht geringer ist.
 
pietcux schrieb:
Das Thema dieses Treads ist grade auf Urlaub, wir sind schon wieder bei den üblichen Sc.....längen Vergleichen.
Wie kann man hier so schön schreiben: Wenn es dich nicht interessiert, ließ es nicht. ;)

Zu mal das Thema nicht auf »Urlaub« ist, es geht weiterhin um DXR und für einige wie mich eben darum, ob die RT Cores in der Form zusammen mit RTX einen Weg für RT vorschreiben und ob es ein guter Weg ist oder dazu dient andere ggf. auszubremsen.

Wie man dazu steht, ob man es beachtet oder nicht: Das muss jeder für sich selbst entscheiden.
pietcux schrieb:
Ausserdem hätte ich dieses Bild in meiner Lebenszeit nicht mehr erwartet und hier wir über Hairworks und Tress FX gestritten......
Ach was heißt hier gestritten. Mich ärgert es eher, dass man auf der einen Seite belehrt wird, auf der anderen Seite der Belehrer nicht wirklich Substanz abliefert, mit der man sein eigenes Wissen erweitern kann.

Man kann auch einfach mal sagen, dass man etwas anders sieht, ohne dass man dann jemand versucht zu belehren oder noch schlimmer zu bekehren.

Im übrigen: Dein Beitrag schickt dieses Thema viel eher in den Urlaub als meiner. ;)

Lass uns »Streithanseln« doch unseren Spaß, wenn uns langweilig ist! Wenn du etwas bessers zutun hast, dann mach es und verschwende mit uns nicht dein Leben, dafür ist es viel zu kurz. :D

franzerich schrieb:
Ein Thema, das einen aufwühlt...
Warum sollte es aufwühlen. Im Endeffekt denke ich schon, dass die »RTCores« ihren Sinn haben und RTX auch beschleunigen. Für mich gibt es halt aktuell zu viele »Unbekannte« in diesem Spiel.

Ich weiß ungefähr was die RTCores machen sollen, wie sie es machen, weiß ich aber nicht. Ich weiß auch, dass RTX sowohl die Software als auch Hardwareimplementierung von nVidia ist, mit der DXR unterstützt wird. Hier ist halt die Frage: In wie weit beeinflusst RTX die Entwickler imzusammenhang mit DXR, wie frei können damit Intel und AMD nun ihre DXR-Implentierungen vornehmen?

Und diese Fragen kann und darf ich mir stellen. Wenn andere sich diese Fragen nicht stellen, ist das aber auch okay.
 
pietcux schrieb:
Dumme Frage vielleicht, welche Grafikkarte verwendest du?

Momentan gar keine. Bin hauptsächlich Notebookbenutzer, und suche Ersatz mit gutem Preis-Leistungsverhältnis. Bis dato waren das meist Geräte mit 1050/Ti/Non-Ti. Hab jedoch nicht zugeschlagen aus diversen Gründen. Das nächste Gerät im angestrebten Bereich wäre wohl mit einer GTX 1650 ausgestattet.

- und hier ist dann auch das (zugegeben persönliche) Problem, das ich mit dem Kram habe: Nvidia hat entgegen ihrer Ankündigung die Raytracing Unterstützung (DXR) nicht für alle GTX Pascal Karten freigeschalten, sondern nur ab der GTX 1060 und mindestens 6GB VRAM. Für Grafikkarten darunter bleibt das Raytracing gesperrt. Das betrifft also die Pascal GTX 1050, GTX 1050Ti, sowie die künftige Turing GTX 1650, GTX 1650Ti.
Nvidia hat mir also richtig reingeschissen. Mit einer Beschränkung, die absolut unnötig ist, und aus technischer Sicht nicht nachvollziehbar. Wozu hat man schließlich unterschiedliche Qualitätseinstellungen und Grafikregler? Und Raytracing bei niedrigeren Einstellungen deutlich weniger Leistung zieht. Ich sehe das Raytracing zwar noch als Gimmick, aber würde es dennoch gerne austesten. Das würde jetzt bedeuten das Budget um 50% für ein Gerät mit RTX Karte erhöhen, und dann womöglich nur in Form eines peinlichen Gamernotebooks. Sowas Ärgerliches...

Werde sicherlich nicht der letzte sein, der sich darüber aufregt (hab im Geforce Forum auch schon Kommentare gelesen von 1050Ti Besitzern, die DXR Unterstützung freigeschalten haben wollten für UnrealEngine und Unity). Diese Beschränkung wird bei der GTX 1650/Ti Desktopkarte nicht anders sein. Für diejenigen, die sich das Modell kaufen weil sie mal gehört haben "Nvidia hat Raytracing auch für GTX Karten freigeschalten", könnte das dann auch eine böse Überraschung werden...
 
Zuletzt bearbeitet von einem Moderator:
franzerich schrieb:
Momentan gar keine. Bin hauptsächlich Notebookbenutzer, und suche Ersatz mit gutem Preis-Leistungsverhältnis. Bis dato waren das meist Geräte mit 1050/Ti/Non-Ti. Hab jedoch nicht zugeschlagen aus diversen Gründen. Das nächste Gerät im angestrebten Bereich wäre wohl mit einer GTX 1650 ausgestattet.

- und hier ist dann auch das (zugegeben persönliche) Problem, das ich mit dem Kram habe: Nvidia hat entgegen ihrer Ankündigung das Raytracing nicht für alle GTX Pascal Karten freigeschalten, sondern nur ab der GTX 1060 und mindestens 6GB VRAM. Für Grafikkarten darunter, hauptsächlich jene mit gutem Preis-Leistungsverhältnis , bleibt das Raytracing gesperrt. Das betrifft also die Pascal GTX 1050, GTX 1050Ti, sowie die künftige Turing GTX 1650, GTX 1650Ti.
Nvidia hat mir also richtig reingeschissen. Mit einer Beschränkung, die absolut unnötig ist, und aus technischer Sicht nicht nachvollziehbar. Wozu hat man schließlich unterschiedliche Qualitätseinstellungen und Grafikregler? Und Raytracing bei niedrigeren Einstellungen deutlich weniger Leistung zieht. Ich sehe das Raytracing zwar noch als Gimmick, aber würde es dennoch gerne austesten. Das würde jetzt bedeuten das Budget um 50% für ein Gerät mit RTX Karte erhöhen, und dann der Umstand dass derartige Grafikkarten fast nur in peinlichen Gamernotebooks verbaut werden. Sowas Ärgerliches...

Werde sicherlich nicht der letzte sein, der sich darüber aufregt (hab im Geforce Forum auch schon Kommentare gelesen von 1050Ti Besitzern, die DXR Unterstützung freigeschalten haben wollten für UnrealEngine und Unity). Diese Limitierung wird bei der künftigen GTX 1650/Ti Desktopkarte nicht anders sein. Für diejenigen, die sich das Modell kaufen weil sie mal gehört haben "Nvidia hat Raytracing auch für GTX Karten freigeschalten", könnte das dann auch eine böse Überraschung werden...
Habe ein System mit einer GTX1080. Werde mal in Battlefield 5 testen ob niedrige Einstellungen abseits von RTX die Performance deutlich erhöhen. Welche Auflösung hast du denn angedacht?
 
Bin da genügsam und wäre auch bereit auf 1280x720 zurückzugehen, mit mittleren Qualitätseinstellungen, und niedriger bis mittlerer Raytracing Qualität. Müsste eigentlich funktionieren, das es schon Videos auf youtube gab, die gezeigt haben, dass Battlefield 5 auf 1920x1080 und mittlerer Stufe bei einer GTX 1060 flüssig funktioniert.

Die (ausmultiplizierte) Pixelanzahl ist ein Hauptfaktor für die Performance. Doppelte Pixelanzahl bedeutet meist doppelte benötigte Leistung. FHD Auflösung hat ungefähr die doppelte Pixelanzahl wie HD, daher müsste man auch beim Wechseln der Auflösung das direkt als +/- 50% in der Framerate sehen.

Der VRAM Verbrauch wär da auch interessant...
 
Zuletzt bearbeitet von einem Moderator:
franzerich schrieb:
Nvidia hat entgegen ihrer Ankündigung die Raytracing Unterstützung (DXR) nicht für alle GTX Pascal Karten freigeschalten, sondern nur ab der GTX 1060 und mindestens 6GB VRAM. Für Grafikkarten

Genau so war es angekündigt.
 
franzerich schrieb:
Bin da genügsam und wäre auch bereit auf 1280x720 zurückzugehen, mit mittleren Qualitätseinstellungen, und niedriger bis mittlerer Raytracing Qualität. Müsste eigentlich funktionieren, das es schon Videos auf youtube gab, die gezeigt haben, dass Battlefield 5 auf 1920x1080 und mittlerer Stufe bei einer GTX 1060 flüssig funktioniert.

Die (ausmultiplizierte) Pixelanzahl ist ein Hauptfaktor für die Performance. Doppelte Pixelanzahl bedeutet meist doppelte benötigte Leistung. FHD Auflösung hat ungefähr die doppelte Pixelanzahl wie HD, daher müsste man auch beim Wechseln der Auflösung das direkt als +/- 50% in der Framerate sehen.

Der VRAM Verbrauch wär da auch interessant...
Also gut:
CPU AMD FX8320 @ stock speed GPU Nvidia GTX 1080 Palit game Rock @ stock speed Ram 16 Gb DDR3 Board Asus Sabertooth990 RII
Auflösung: 1280*720 DX 12 RTX Preset Mittel
GPU Auslastung 60-65%
RAM in Gebrauch: 3500-3800 Mb
GPU Takt : 1911 Mhz
RAM Takt: 5006 Mhz
FPS: 50-70 Mittelwert so ca 60
Frametime: 20-65 ms
So hier habe ich die Werte ermittelt. Sieht immer noch sehr schön aus. Die FPS sind hier höher als im Gefecht.
Battlefield V Screenshot 2019.04.15 - 09.37.35.93.png


Battlefield V Screenshot 2019.04.15 - 09.41.09.94.png
Battlefield V Screenshot 2019.04.15 - 09.41.16.84.png

@Teralios so stelle ich mir einen sinvollen Austausch in diesem Thread vor.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: franzerich
Ich müsste da erst runterrechnen wegen der Shadercores für die Einsteigerkarten, d.h. von 2560 Shadercores auf 768 hinunter (bei einer gtx 1050ti), bzw. 896-1024 (für die baldige gtx 1650). Also etwa 1/3 der Framerate. Das wären also 20fps wenn dein Durchschnitt 60fps ist. Das ist natürlich schon ein bisschen zäher im Bildaufbau, aber es gibt Schlimmeres. Zum gelegentlichen Austesten von Raytracing wäre das vollkommen okay. Außerdem sind wir hier immer noch bei mittleren Einstellungen, und es gäbe noch "Niedrig". Und der VRAM Verbrauch wäre auch noch für 4gb Karten im Rahmen.

kisser schrieb:
Genau so war es angekündigt.

Ja, tatsächlich... hab nochmal nachgeschaut. Die Ankündigung war im März nur für "Specifically gtx 1060 and higher and the new 1660 series". Bleibt zwar zu sagen, dass Nvidia ihr Wort gehalten hat, aber für mich diese Beschränkung dennoch unnachvollziehbar und ärgerlich bleibt. Da auch für die gtx 1060 nachgesagt wird, dass sie eher nur für Testzwecke geeignet wäre (obgleich sie noch 40% schneller als die 1050Ti ist), hätte man das ruhig auch auf die gesamte GTX Serie ausweiten können, sowohl bei Pascal als auch Turing.

Interessant ist dann auch noch die Aussage:
According to NVIDIA, the feature will be limited to Basic RT effects along with a lower ray count than what’s possible on the architecturally tuned RTX graphics cards.

Was heisst denn das nun schon wieder? Heisst das, dass die Pascal Karten grundsätzlich ein Raytracing mit geringerer Anzahl von Rays erhalten? Aber wenn das Raytracing wie in den obigen Screenshots mit geringerer Rayzahl immer noch annehmbar ist, wie weit kann man denn noch runtergehen mit der Anzahl? Könnte weitere Leistung gespart werden bei nur geringen optischen Unterschieden? Wurden bisher bewusst "zu hohe Einstellungen" gewählt, nur um zu behaupten man bräuchte eine Grafikkarte mit RT-Cores? Fragen über Fragen...
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben