News Raytracing ohne RTX: Nvidia Pascal erhält DXR‑Support per Treiber

Heschel schrieb:
Ich weiß jetzt ehrlich gesagt nicht, ob dein Kommentar gerade für oder gegen Raytracing spricht.

Fakt ist, dass die jetzigen Karten (auch Nvidias GTX) viel zu schwach sind. Die breite Masse, im Gegensatz zu uns hier (die sich auch ne 2080ti leisten), eben keine +1.000 EUR für eine Graka ausgeben. Somit bleibt Raytracing für die breite Masse vollkommen uninteressant/unerreichbar.

Ach ja, wieso gehst Du nicht auf die Links ein, die ich hier gepostet habe?

Metro Exodus mit RTX 2060:

FPS, Durchschnitt: 58,6 (ohne Raytracing); 46 Detailstufe Hoch
99th Percentile (Frametimes in FPS): 42 (ohne Raytracing); 35 Detailstufe Hoch

UND DAS SAGE UND SCHREIBE IN FHD. Da kann man 1440 vollkommen vergessen.

Und wenn eine Nvidia in 7nm das nicht mal hinbekommen würde, dann ist dieses ganze Gerede, wie toll doch RT ist, vollkommen sinnlos sein, denn DANN spielt es für die breite Masse an Gamern überhaupt keine Rolle. Dann ist RT buchstäblich wirklich TOT.
Es ist doch totaler Unsinn. Die RTX 2060 ist die kleinste RTX karte und es ist klar das man mit der nicht alles auf Ultra stellen kann und das das dann noch WQHD läuft. Aber wen man schraubt und keine 144 FPS braucht, bekommt man FHD auf jedenfall zum laufen und auch WQHD je nach Genre vielleicht noch Spielbar. Wer auf WQHD nicht verzichten kann, der kann noch auch noch uur 2070/2080 greifen. Oder er verzichtet gleich ganz uf RT bekommt mit 1660 die Leistung einer 980ti.
<iframe width="560" height="315" src="
" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>

Für 1440p, Ultra und 60FPS ist eine 2060 vermutlich zu langsam. Dafür gibts aber auch eine 2070. Und das Ergebniss der beleuchtung und der Schatten kann sich schon sehen lassen.
<iframe width="560" height="315" src="
" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>

Und mit einer 2080ti bekommst du sogar 4k zum laufen.
<iframe width="560" height="315" src="
" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>

Also RTX sei generl zu langsam, ist Quatsch. Natürlich muss man bei einer 2060ti kompromisse eingehen. Selbst bei einer 2080ti kann ich nicht alles blind nach oben schrauben. Aber man bekommt auf jedenfall beieindruckende ergebnisse. Sowohl Tageslicht, aber auch Schatten sehen schon unglaublich gut aus. Und das wird man niemals mit ählichen ergebniss mit einer Softwareemulation hinbekommen.
 
Zuletzt bearbeitet:
W0lfenstein schrieb:
Noja, sowas in der art war mir scho klar das die RT cores fürn arsch sind

Wie wärs den Artikel zu lesen, den man kommentiert:
Die Leistung wird bei aktivierten DXR-Effekten allerdings deutlich niedriger als bei den Turing-Pendants mit darauf spezialisierten RT-Kernen ausfallen – der Sinn und Zweck bleibt also abzuwarten.
RT- Cores fürn arsch?

,da RT ja auch auf der Titan läuft.
Ja langsamer und jetzt läufts auch bald auf neueren GTX Karten

Juckt mich auch nicht das RT nun für andere zugänglicher wird.
Dann scheinst Du Dich ja im Allgemeinen relativ wenig für die Weiterentwicklung im Bereich Computergrafik zu interessieren.

Auf RT kam es mir nie an als ich mir die 2080ti kaufte. Benutze ich nicht, da der optische gewinn für mich fast null ist
Es ist schon interessant, dass wenn man einer Sache kritisch gegenüber eingestellt ist, offenbar auch z.B. ein Auge mit dem Geist davon überzeugt werden kann, dass etwas fast 0 optischen Gewinn brächte:
765095


765096


Oder:
765099

gegen
765100


Auch hier wohl kein Unterschied zu erkennen:
765102

gegen
765103


Wenn dem WIRKLICH so ist, dass man da 0 Unterschiede ausmachen kann, dann kann man sich glücklich schätzen, denn dann ist für einen wirklich die Fahnenstange an grafischer Qualität erreicht.
Somit kann man sich in Zukunft viel Geld sparen.

Mir ging es nur um die Power der GK, und das liefert sie auch.
Ist ja in Ordnung. Nur macht das die Technik RT nicht schlechter noch weniger spricht das gegen eine Daseinsberechtigung.

LG
Zero
 
  • Gefällt mir
Reaktionen: kisser, USB-Kabeljau und xexex
@ZeroZerp Fürn Arsch meinte ich- das RT auch durchaus ohne diese Cores laufen kann. Damals wurde es anders gesagt. Daher auch mein Beispiel mit der Titan, da läuft RT auch ohne diese Cores, aber wie ich auch selber sagte so lala... aber es läuft.

Und wie gesagt ich hattes nicht lange an , und der Unterschied da war für mich wirklich marginal und es einfach nicht wert. Auf vielen Screenshots die ich sah war der Unterschied auch nur so lala....Nicht die Welt muss ich einfach sagen...

Btw, wieso sollte bei mir die Fahnenstange der Qualität erreicht sein ? Nur weil ich RT nicht toll finde bzw. ich es nicht wert finde ? Is ja nur meine meinung, du musst dem nicht zustimmen. Aber so ein scheiss zu behaupten muss deshalb auch nicht sein...

Das sowas immer gleich persönlich werden muss... ist ja nicht so als wärst du der RT erfinder und ich hätte dich angegriffen.......:freak:

Und nochmal weils so schee war.. RT find ich kacke. Aber so richtig.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Sun_set_1 schrieb:
Ich weiß, dass @ZeroZerp RTX gern als BruteForce Variante bezeichnet. Richtig ist aber, dass es sich um eine stark reduzierte BF Variante handelt. Theoretisch, für "volles" RT, benötigen wir deutlich mehr Strahlen und keine Tensor Cores zum aufpolieren des Bildes. An der Stelle trickst halt NVIDIA. Genauso wie Crytek auch seine eigenen Tricks anwendet. Sie verwenden zwei Rays und entzerren das Bild dann nachträglich per Algo wieder.
BruteForce deshalb, weil es entgegen aller andern Varianten eben nicht Objektbasiert arbeitet, sondern tatsächlich fullscreen und Oberflächenbeschaffenheits- und nicht Meshabhängig.
Egal was wo auf dem Bildschirm passiert - Bei Battlefield 5 werden bis zu 40% der auf dem Bildschirm sichtbaren Pixel ohne Auflösungsverlust bestrahlt.

Ist der zu spiegelnde Anteil höher, so gibts ein Upscaling der Spiegelung bzw. eine Auflösungsverringerung um dennoch den ganzen Bildschirm mit RT abdecken zu können.

Vereinfacht ist das Ganze deshalb, weil erstens, wie z.B. bei der Voxel GI von Crytek auch erst eine Beschleunigungsstruktur aufgebaut wird und und für die Berechnung unwichtige Teile verworfen werden. Das funktioniert sowohl über Geometrie, also normales Culling, als auch RT selbst (man verschiesst wenige Strahlen und schafft somit schonmal ein grobes Raster, wo es sich lohnt, intensiver abzutasten und verwirft den Rest, der nichts zur Szene beiträgt).

LG
Zero
 
m.Kobold schrieb:
Es gab auch schon vorher genug spiele wo die Spiegelungen super waren, ohne das es groß Performance gekostet hätte.
In dem Fall einfach mal mit der Technik befassen. Man macht RT nicht weil man damit komplexere Spiele machen kann, sondern um die Berechnungen genaugenommen zu vereinfachen. Diese "Spiegelungen" wie Du sie nennst binden Berechnungs- und Entwicklungsseitig eine Menge Ressourcen, vielleicht kann man die dann ja in Storytelling, Gegner-KI oder was Du "Physik" nennst stecken. Abgesehen von einigen Wenigen Spielern sind sich die meisten Gamer darin einig, dass RT für künftige Spiele unbedingt weiter zu verfolgen ist. Ausnahmen bestätigen die Regel.

@Topic:
Find ich gut, dass man nun erkannt hat, dass das Thema Raytracing erstens mit hoher Aufmerksamkeit von allen Spielern beobachtet wird und man ihnen im Rahmen des möglichen Zugriff auf die Technologie geben muss - auch im Hinblick darauf, wie man künftig seine Hardware verkaufen möchte. Ich glaube hingegen auch nicht, dass man das als"Dienst an der Userbase" auffassen sollte, es ist ökonomisches Kalkül - Entwickler werden RT nicht unbedingt einbinden um ein paar Einstellige % an Spielern eine Tech-Demo zu geben, bei der sie für das richtige Spielen RT abschalten. Sie werden aber auch nicht mehr Ressourcen als notwendig investieren, es sei denn die Nutzerbasis ist hörbar. Fazit: RT ist zwar da aber zur Schande aller Beteiligter lässt man RT links liegen, NV verkauft seine RTXn nicht und AMD baut gar nicht erst welche. Den Entwicklern platzt der Schädel, weil sie wieder 2 Leute abstellen müssen die nur den ganzen Tag drüber nachsinnen, wie man dem Spieler glaubhaft Spielgelungen vorgaukelt und die Spieler müssen es in Zeiten von VR/AR/MR hinnehmen, nicht einmal ein Echtzeit-Spiegelbild ihres Avatars in der VR betrachten zu können. Mit dem Schritt RT quasi jedem Spieler zugänglich zu machen (sei es über Treiber oder direkt über DX12) wird die Nutzerbasis lauter werden und auch die Entwickler haben dann auf sie zu hören. Was wiederum für den Verkauf von dedizierten RT Kernen gurt ist (wobei dies nur ein zeitweise auftretendes Problem ist, sobald AMD und NVIDIA RT integriert haben wird es ein Standard sein, so wie die Shadereinheiten)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Sun_set_1 schrieb:
Die Hardware ist für 10 Rays per Pixel definitiv zu schwach. Das würde ich mal frühestens irgendwo um 2025 sehen. Das dürfte mindestens noch drei Generationen dauern. Und in dem Kontext darf man auch eine 2080ti schon als zu schwach für 'natives' RT bezeichnen.
Exakt- Wobei man unterscheiden muss. Nicht die dedizierten RT Cores sind zu schwach (die schaffen bei einer 2080 TI 20 Rays pro Pixel in 4K bei 60FPS), sondern die Shader, die das ganze dann auswerten und verarbeiten müssen.

Da die modernen Spiele allesamt Shadermonster sind, kommen diese, wenn man ihnen jetzt noch eine hohe Shaderlast in Sachen Raytracing zumutet, obwohl sie durch eine moderen Engine eh schon bis zum Anschlag ausgelastet sind, eben wieder an ihre Grenze.
Deshalb ist es derzeit ein Kompromiss und ein Austarieren klassischer Shaderleistung gegen RT Leistung/Qualität.

Der Quake 2 Pathtracer zeigt eindrucksvoll, dass das RT Abteil für ein vollständiges Pathtracing im herkömmlichen Sinne taugt, wenn man die Shader nicht durch andere Aufgaben belegt. Quake 2 frisst prinzipbedingt diesbezüglich natürlich wenig weg...

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser, Sun_set_1, USB-Kabeljau und eine weitere Person
ZeroZerp schrieb:

Ich weiss nicht, ob man diese Bilder als Beispiel nehmen kann:

Mir kommt vor, dass die Leveldesigner lediglich vergessen haben, bei den Objekten (z.B. den "unbeleuchteten" Holzplanken und dem Holzbett) den Haken anzuklicken, das sie miteinbezogen werden in die Licht-/Schattenberechnung. So wie bei Unity3D, wenn man beim statischen Lightmapping-Backen vergisst beim Objekt anzuklicken, dass es in die Berechnung einbezogen werden soll. Diese Objekte sehen dann auch so aus. Dass ein Objekt normalerweise nicht so aussieht, sieht man ja an der Kiste vor dem Holzbett. Die sieht ja auch nicht so komisch aus. Ich glaube, denen ist beim Levelaufbau einfach das eine oder andere Objekt durch die Lappen gegangen.
Vermutlich gilt das auch für das erste Paar Bilder. Und dann wäre der Unterschied zu Raytracing kaum mehr sichtbar. Ansonsten hab ich aber nix gegen Raytracing. Ich freue mich auf den Tag, wo sie den Treiber veröffentlichen, und wir dann endlich sehen wie sich die normalen GTX Karten in Raytracing schlagen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Neronomicon
teufelernie schrieb:
Ich glaube das wird sowas im Verhältnis wie Anti Aliasing. In 5 Jahren ist das überall drinnen, aber keinen kümmerts, weil es einfach da ist.
Im Vergleich: Kannst auch AA aus machen und dafür auf 4k spielen statt wqhd, zumindest optisch tut sich dann an der Kantenqualität in Spielen meiner Meinung nach nicht wirklich etwas.

Viele Wege führen nach Rom/ nem Optikschmankerl.

Davon aber gilt aber noch: Ein gutes Spielkozept braucht keine gute Grafik. Hab seit Feb ne 7nm Neuauflage von alter Grütze in Form einer Vega VII und was spiele ich jetzt damit? Das GOG Remake von Diablo1 :daumen:
Und das ist wahre 800x600 Pixelpampe im Battlenet.

Es mag sehr subjektiv sein, aber eine spiegelnde Wasserpfütze bei z.B. BF5 mit oder ohne RT, da sehe ich kaum einen Unterschied. Und ehrlich gesagt wenn ich rumballere interessiert mich die Optik der Pfütze auch garnicht, sondern erst, wenn ich darin das Antlitz eines Gegners sehen kann um diesen wegzubretzeln.
Nicht dass du versuchst die Pfütze zu erschießen.
 
franzerich schrieb:
Ich weiss nicht, ob man diese Bilder als Beispiel nehmen kann:

Mir kommt vor, dass die Leveldesigner lediglich vergessen haben, bei den Objekten (z.B. den "unbeleuchteten" Holzplanken und dem Holzbett) den Haken anzuklicken, das sie miteinbezogen werden in die Licht-/Schattenberechnung.
Bei RT gibts das halt nicht mehr. Das ist ja der Punkt, du musst sonst nachmodelieren, und da wirst du niemals an die Qualität von RT rangkommen. Allein weil es irgendwann unwirtschaftlich teuer wird. Du wirst niemals and die Qualität von hochwertigen RT kommen.
<iframe width="560" height="315" src="
" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>

Wie gut RT wiederum ist, hängt von der Anzahl der genutzten Strahlen und damit von der Rechenleistung zusammen. Das was wir jetzt sehen ist ja nur der Angang und noch lange nicht das Ende.
<iframe width="560" height="315" src="
" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>

Um das in Echtzeit, also Frame für Frame zu Rechnen brauchst du RT Hardware. Klar konnte schon eine auch ein Titan V Raytracing. Aber wie gut? Jetzt können es auch die anderen Karten. Spielen wird damit aber niemand.
<iframe width="560" height="315" src="
" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
 
  • Gefällt mir
Reaktionen: USB-Kabeljau und .Sentinel.
ZeroZerp schrieb:
Da die modernen Spiele allesamt Shadermonster sind, kommen diese, wenn man ihnen jetzt noch eine hohe Shaderlast in Sachen Raytracing zumutet, obwohl sie durch eine moderen Engine eh schon bis zum Anschlag ausgelastet sind, eben wieder an ihre Grenze.
Deshalb ist es derzeit ein Kompromiss und ein Austarieren klassischer Shaderleistung gegen RT Leistung/Qualität.
Deshalb bekommt man ja beispielsweise bei bf5 einen massiven fps boost wenn man bei aktiviertem dxr einfach mal die allgemeinen details von ultra auf hoch stellt.
Nimmt klassische renderlast von den shadern und macht Platz für rtx.
Sieht übrigens grafisch kaum anders aus und frisst nur Leistung. Wie so oft bei ultra settings.
 
  • Gefällt mir
Reaktionen: lynx007, USB-Kabeljau und .Sentinel.
franzerich schrieb:
Ich weiss nicht, ob man diese Bilder als Beispiel nehmen kann:

Mir kommt vor, dass die Leveldesigner lediglich vergessen haben, bei den Objekten (z.B. den "unbeleuchteten" Holzplanken und dem Holzbett) den Haken anzuklicken, das sie miteinbezogen werden in die Licht-/Schattenberechnung.
Sicherlich wurde der Bereich in einer manuellen Nacharbeit vergessen. Oder eine globale Lightmap wurde gebacken und das Objekt im Nachhinein ohne die Lightmap zu ändern einfach eingefügt.
Da die Beleuchtungsberechnung inzwischen auch im Leveldesign vielfach automatisiert bzw. gescripted ablaufen (z.B. Lighprobe- Verteilung), kann es sein, dass einfach an dieser einen Stelle der Automatismus eine Lücke gelassen hat bzw. die Geometrie so ungünstig zwischen zwei Abtastpunkten liegt, dass die Beleuchtung nicht "wirkt".
Zudem haben moderne Engines ohne GI die Problematik Bereiche darzustellen, die in fast 100%igem Schatten liegen. Denn Schatten auf Schatten können die Engines nicht darstellen bzw. kumulieren deren Farbwerte ins Dunkle nicht, weil man sonst wieder zig Shadowmaps zeitgleich bräuchte, die gegengerechnet werden müssen ,die die Performance in den Keller drücken und Speicher kosten.

Somit bleiben innerhalb eines Raumes manchmal visuell nur Umgebungsverdeckungstechnologien im Einsatz, die wenigstens dann noch ein letztes bißchen Plastitzität in die Szene bringen.
Eine moderne zusätzliche Variante ist ein weiterer Renderpass für contact shadows.

Der kann diesem Flat- Look auch entgegenwirken (kostet aber wieder Leistung):
http://images.nvidia.com/geforce-co...teractive-comparison-001-all-high-vs-off.html

https://images.nvidia.com/geforce-c...ctive-comparison-002-all-high-vs-sun-low.html

Vorteil ist, dass das eben auch in Innenräumen funktioniert.

Ansonsten wären wir dann wieder bei einem ähnlichen Look:
765129


Da haben SSAO+HBAO+ Konsorten schon eine erhebliche Verbesserung in Sachen Innenraumverschattung gebracht.


Ich glaube, denen ist beim Levelaufbau einfach das eine oder andere Objekt durch die Lappen gegangen.
Was wiederum ja den Höllenaufwand, den die Lighting- Abteilung dort betreiben muss sehr gut veranschaulicht.
Die müssen letztenendes wirklich jeden Winkel manuell prüfen, ob da irgendwo ein Haken fehlt, ein Objekt vergessen wurde, eine Lightmap falsch liegt etc.

Sowas kann man sich mit RT sparen.

Vermutlich gilt das auch für das erste Paar Bilder. Und dann wäre der Unterschied zu Raytracing kaum mehr sichtbar.
Das erste par Bilder hat die Problematik des dynamischen Tag-/Nachtwechsels. Wollen sie das in einem Außenszenario per Rasterisierung durch vorberechnete Verfahren richtig darstellen, so müssen sie Lighmaps z.B. im Stundenabstand für den Raum zu unterschiedlichen Tageszeiten erstellen und diese dann überblenden.

Und da werden dann eben schnell die Grenzen aufgezeigt. Den Aufwand kann man vielleicht an Schlüsselstellen eines Spiels betreiben, aber eben nicht an allen Ecken und Enden eines Openworld- Spiels.

Das würde die Entwicklungszeit vervielfachen und ein Spiel würde auf einer eigenen 500GB SSD ausgeliefert werden müssen.

Ansonsten hab ich aber nix gegen Raytracing. Ich freue mich auf den Tag, wo sie den Treiber veröffentlichen, und wir dann endlich sehen wie sich die normalen GTX Karten in Raytracing schlagen.
Exakt- Es ist eine Option, die lange etabliert ist und die Verfahren, die man versucht über Rasterisierung anzunähern mit dem physikalisch korrekten Weg ersetzt.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, kisser, franzerich und eine weitere Person
KlaraElfer schrieb:
Man kann es schon als Marketingentscheidung sehen, wenn man aber prinzipiell neutral eingestellt ist - also ohne Unterstellungen arbeitet, Unterstellungen, wie man es von dir gewohnt ist nicht belegt, dann ist die Öffnung von Raytracing für ältere Karten genau das was es ist - eine Pflege der Userbase und eine Erweiterung der Nutzerbasis, auch das dann langsamer laufen wird, so kann man mal reinschnuppern und schauen ob es sich optisch lohnt oder eben nicht lohnt.

ich habe die letzten 20 jahre nicht gepennt oder leide an amnesie. für solche äußerungen, wie du sie tätigst, muss man für "neutralität", wie du sie forderst, schon auf 1-2 augen blind sein.

in der geschichte von nvidia und nvidia exklusiven technologien ging es nie darum, die branche nach vorne zu bringen - es ging nvidia immer nur darum, entsprechende technologien für den eigenen zweck zu missbrauchen, und hier gehts um marktmacht und schädigung der konkurrenz - nicht um fortschritt.

ageia physX war eine selbstständige firma & technologie, die jeder nutzen konnte, wenn er sich einen physx beschleuniger in den rechner gesteckt hat - hardware beschleunigte physik für jeden. nvidia hat hier die chance gerochen das ganze auszubeuten, hat ageia gekauft, die technologie in geforce karten integriert und radeon nutzer ausgesperrt:

https://www.hardwareluxx.de/index.p...physx-if-second-gpu-is-from-a-competitor.html

die nächste evolutionsstufe ist gameworks mit tessellation. tessellation ist eine schöne technologie, aber nicht so, wie nvidia diese technik ausnutzt, um amd zu schaden. die sub-pixel tessellation mit abartig hohen tessellationsfaktoren zielt nur darauf ab, die pipeline von radeonkarten zu verstopfen, während nvidia selbst in der hardware vorsorgt, bei diesen absolut wahnwitzigen tessellationsfaktoren nicht einzubrechen.

Nach vielen Jahren mehr oder weniger erfolgreicher Versuche ist die Tesselation auf dem PC endlich ausgereift. Spannende Spiele wie Metro 2033 zeigen bereits das Potential der Tesselation. In absehbarer Zeit dürfte Tesselation so wichtig und unerlässlich sein wie heute bereits das Pixelshading. NVIDIA hat dieses Potential früh erkannt und fördert die Entwicklung der Tesselation, indem wir von vornherein eine parallele Tesselations-Architektur zur Verfügung stellen. Das Ergebnis: Die Grafikprozessoren der GeForce GTX 400 Serie — für realistische Geometrie und Tesselationsleistung auf völlig neuem Niveau.
https://www.nvidia.de/object/tessellation_de.html

und das sagt die fachpresse dazu:

The first three scenes of the benchmark in Arkham Origins hammer tessellation. AMD’s driver allows us to manually define the tessellation level — changing that setting to x4 improves performance in the first three scenes of the test by 11%, from 134fps to 150fps. Total test performance improves by 7%, from 148fps to 158fps. AMD attempted to provide Warner Bros. Montreal with code to improve Arkham Origins performance in tessellation, as well as to fix certain multi-GPU problems with the game. The studio turned down both. Is this explicitly the fault of GameWorks? No, but it’s a splendid illustration of how developer bias, combined with unfair treatment, creates a sub-optimal consumer experience.
Under ordinary circumstances, the consumer sees none of this. The typical takeaway from these results would be “Man, AMD builds great hardware, but their driver support sucks.”
https://www.extremetech.com/extreme/173511-nvidias-gameworks-program-usurps-power-from-developers-
end-users-and-amd/2

hier ein screenshot aus batman und dem unnötig stark tessellierten cape.

765115


und jetzt erklärt amd, wo die performance einbrüche bei radeon-karten bei starker tessellationslast herkommen.

765109


und jetzt machts auf einmal sinn, solche meshdichten zu fahren. ich habe selbst als 3d artist in der spiele-entwicklung gearbeitet - und ich kann dir versichern, dass da niemand auf die idee kommen würde, eine solche menge an polies für sowas zu verschwenden - das batman cape würde auch gut mit 20% der polygone funktionieren.

crysis 2:

765116



diese barrikade ist ein einfaches prop-modell - das ding ist mit 500 polies eigentlich gut bedient - nvidias tessellation bläst das teil total unnötigerweise auf ein paar millionen auf.

hier mal zum vergleich, wie das mesh (in quads) von einem qualitativ relativ hochwertigen 3d modell für einen hauptcharakter aussieht:


765118


wer hier mal die augen aufmacht, wird feststellen, dass nvidia für ein absolut irrelevantes prop-modell das vielfache des budgets für ein sehr hochwertiges charaktermodell verschwendet.

die tessellationsleistung von radeonkarten ist seit jeher für eine angemessene nutzung absolut ausreichend. angemessen heißt, dass man tessellation nur da und in einem solchen maß einsetzt, wie es nützlich ist.

hier das erste spiel mit dx11 tessellation - ein "gaming evolved" titel - also von amd.

dx11 ist mit tessellation, dx9 ohne - bitte mal drauf achten, ob die radeonkarten "typisch" einbrechen:

765111


ist schon eine weile her - ok, nehmen wir mal was aktuelleres. sniper elite 3 mit einer selbst programmierten tessellation, die nur an objektkanten genutzt wird, um objekte abzurunden, absolut genialer usecase - nicht um den polycount künstlich aufzublasen. bitte mal anschauen, wie hier die r9 290 gegen die gtx 780 abschneidet:

765112


und dann gameworks tessellation:

765113


wie der geneigte user weiß, nutzt the witcher 3 tess-faktor 64 für die haare von geralt - wir erinnern uns nochmal an die folie von amd und der sub-pixel tessellation - die ganz nebenbei keinen optischen gewinnn mehr bringt, sondern einfach nur leistung kostet.

dazu passt dann auch folgendes statement:
Auf Hardware des Chip-Herstellers AMD läuft The Witcher 3: Wild Hunt längst nicht so performant wie auf die des Konkurrenten Nvidia. Unterschiede bei der Bildrate machen sich insbesondere mit zugeschalteter Hairworks-Technologie von Nvidia bemerkbar. Für AMD ist der Sachverhalt klar: Im Gespräch mit Arstechnica beschuldigt AMDs Chief Gaming Scientist Richard Huddy Nvidia, die Performance absichtlich sabotiert zu haben. "Wir haben von Beginn an mit CD Projekt Red gearbeitet und ihnen durchgehend detailliertes Feedback gegeben. Rund zwei Monate vor Release [von The Witcher 3], fand der neue Gameworks-Code zusammen mit Hairworks Einzug in das Spiel - und es hat unsere Performance komplett sabotiert", erläutert Huddy.
http://www.pcgames.de/The-Witcher-3...ft-Nvidia-mit-Gameworks-Sabotage-vor-1159707/

als weiteres beispiel möchte ich noch ghost recon wildlands anbringen - das ding strotzt nur so vor gameworks-tessellation. tessellation godrays, tessellation turf, gelände-tessellation. was sagt die performance von amd gpus in dem titel?

http://www.pcgameshardware.de/Tom-C...55716/Specials/Benchmark-Test-Review-1222520/

ist doch ne recht einseitig geschichte - aber amd macht doch bestimmt das selbe, oder? hairworks vs. tress fx:

Daher verlieren beide Grafikkartenhersteller im Durchschnitt etwa gleich viel FPS, wenn TressFX hinzugeschaltet wird. Bei unseren Kollegen von PCGH verlor die AMD Radeon HD 7970 GHz 28 Prozent an Leistung. Die NVIDIA GeForce GTX Titan verlor genauso viel, blieb vom allgemeinen FPS-Level aber hinter der Radeon.
[...]
Die große Kontroverse ist nun, dass AMD-Grafikkarten im Vergleich zu NVIDIA-Grafikkarten überproportional an Leistung verlieren, sollte man HairWorks aktivieren. In unserem eigenen Benchmark zeigte sich, dass eine GTX 980 mit HairWorks von durschnittlich 82 fps auf 59 fps fällt. Eine Radeon R9 290X hingegen fällt von durschnittlich 65 fps auf nahezu unspielbare gemittelte 26 fps.


765120


https://www.hardwareluxx.de/index.p...d-tressfx-und-nvidia-hairworks-im-detail.html


Jetzt kommt nach Gsync, das einfach nur unnötig teuer und proprietär ist, da nvidia typisch verkompliziert, und dem geforce partner program, nvidia mit raytracing an. und die leute feiern den technologischen fortschritt von nvidia. überlegt mal, wo wir sein könnten, wenn nvidia und amd die selbe adaptive sync technologie nutzen würden - wir hätten vor jahren schon eine flächendeckende verbreitung von adaptive sync monitoren gehabt - und jetzt, in 2019, muss man vereinzelt immer noch lesen "lohnt sich adaptive sync?".

nvidia ist teil der khronos group, die vulkan verwaltet - wieso wird hier nicht in kooperation mit den anderen auf vulkan für raytracing gesetzt? jeder würde davon profitiern, wenn vulkan dx12 ablösen würde - aber man kann sicher sein, dass microsoft und nvidia hier ein gemeinsames süppchen kochen.

seht ihr eigentlich nicht das muster? seht ihr nicht, was hier passiert? nvidia nutzt raytracing mit eigens dafür optimierter hardware nur dafür aus, andere damit auszusperren. die wollen sich intel und amd mit einer weiten verbreitung von RTX vom hals halten - keiner der anderen hat bis dato eine hardware, die das kann, was nvidia hier macht, weil das eigentlich absoluter wahnsinn ist. und nvidia hat hier mal wieder absichtlich den "tessellations"weg gewählt, in den man unmengen an leistung und spezielle hardware buttern muss.
die herangehensweise von crytek auf voxel-basis ist offenbar um einiges resourcensparender und läuft auch auf jeder hardware - so wie nvidia sich raytracing vorstellt, braucht man abartig große chips, mit einheiten, die nur die strahlenberechnung machen, und einem denoiser, der die immernoch viel zu niedrige sample-rate entrauscht.

es ist nett, dass nvidia 2018 realtime raytracing berechnen kann, und die methode, die sie nutzen ist faszinierend und kreativ - aber das ist kein dienst an der allgemeinheit - das ist ein werkzeug. jensen hat sich nicht mittags hingesetzt und hat sich gedacht "mensch, die lieben gamer müssen sich mit "fake beleuchtung" zufriedengeben, das müssen wir ändern" - sondern "wie können wir mit unserem know how intel und amd aus dem markt drängen".

letztendlich wird sich RTX wie jede andere proprietäre nvidia lösung irgendwann im sande verlaufen, aber einen schaden am konsumenten, dem technologischen fortschritt und der konkurrenz hat noch jede aktion von nvidia hinterlassen.

raytracing ja - gerne - aber nicht von nvidia.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck, Kodak, Volkimann und 5 andere
Die Idee von Nvidia, also das was hinter dieser Aktion steckt find ich aber aus deren sicht gut durchdacht.

Man ermöglicht mehr leuten RT bei sich zu betrachten, weiss aber das es auf den kleinen Karten eh nicht gut laufen wird, und wenn dadruch einige leute angefixt und dazu bewegt werden anschließend die neuen RT karten zu kaufen hatt es sich doch schon gelohnt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
duskstalker schrieb:
crysis 2:

Anhang anzeigen 765116


diese barrikade ist ein einfaches prop-modell - das ding ist mit 500 polies eigentlich gut bedient - nvidias tessellation bläst das teil total unnötigerweise auf ein paar millionen auf.
Daß unfähige Entwickler die gegebenen Tools nicht richtig einsetzen bzw. solche Fehler dann nicht mal finden, ist doch nicht NVidias Schuld.



Und bei RTX muss man sagen:

Kam vielleicht eine Generation zu früh ... aber irgendwann muss man mal anfangen.
Und die Gelegenheit war gerade günstig, da die Kunden horrende Preise durch den Mining-Hype derzeit schon gewohnt waren. Da konnte man diesen (wichtigen) Schritt gehen.

Aller Anfang ist schwer (und suboptimal), aber in spätestens 4 Jahren werden nahezu alle Spiele Raytracing-Features unterstützen und es wird zufriedenstellend laufen.
Die Entwickler können dabei deutlich an Aufwand sparen, wenn sie Levels designen und die Ergebnisse sehen automatisch besser aus.

Ich ärgere mich ja auch über die derzeitigen Preise und daß ich für ein Feature drauf zahle, das im jetzigen Moment noch kaum genutzt wird. Aber dieses dumme Gemecker im Stile von "Ich will, daß RT wieder stirbt!" kann ich mal überhaupt nicht nachvollziehen.
Es ist ein sehr sinnvolles Feature, und es ist sehr sinnvoll, spezialisierte Recheneinheiten dafür auf die Karten zu packen.
 
@USB-Kabeljau

mach mal ne analyse von (gameworks-)tessellation vs radeon performance, und du siehst, dass das argument nicht zieht. crysis 2 mag ein extremfall sein, aber das ist eher die regel als die ausnahme.

bspw. das hier:

Tessellation kostet Leistung, auch wenn man es nicht sieht

Mass Effect: Andromeda setzt allerdings auch auf Tessellation, wenn es keine grafischen Unterschiede ausmacht – oder diese einfach nicht zu sehen sind. In der zweiten Testszene (ohne Berge) spielt es bezüglich der Bildqualität keine Rolle, ob Tessellation wie vom Spiel vorgeschrieben genutzt oder völlig deaktiviert wird. Die Performance reagiert auf der Radeon RX 480 jedoch deutlich darauf. Zwischen abgeschalteter und maximaler Tessellation-Stufe liegen 15 Prozent Unterschied.
https://www.computerbase.de/2017-03/mass-effect-andromeda-benchmark/
 
Ich finde nicht das RT sterben soll, ich finde es atm aber auch nicht gut.
Finde es fast wie ein sehr teuer erkauftes, aber nicht gutes, reshade.

Und ich glaube auch nicht, das 4 Jahre langen bis sich das durchsetzt. Wenn überhaupt mal.
 
m.Kobold schrieb:
Und jetzt mal ehrlich wenn man FPS Probleme hat, müssen doch immer als erstes die Reflektionen dran glauben und stellt diese runter.
bei mir sind zuerst die Texturen und Schatten dran.
 
Noch mal:
Dafür sind doch wohl die entsprechenden Entwickler verantwortlich und nicht NVidia.

NVidia stellt ein Toolset bereit. Wie das eingesetzt wird, bestimmen die Entwickler.
Wenn die viel zu hohe Tesselation-Faktoren fahren, wo es keinen Sinn ergibt, haben sie es verkackt.

Tesselation an sich ist ein tolles Feature, mit dem man dynamisch und ohne viel Aufwand den Detailgrad von 3D-Objekten anpassen kann. Richtig eingesetzt, können dadurch unauffällige LOD-Fades realisiert werden, die tendenziell eine bessere Leistung bringen, als wenn man schon deutlich früher wieder auf höher polygonierte Modelle switchen müsste, um einen unauffälligen Wechsel zwischen den Modellen zu gewährleisten.
 
  • Gefällt mir
Reaktionen: KlaraElfer und .Sentinel.
Liest sich für mich nach Marketing ein einfacher Versuch für Pascal Nutzern die neue Generation schmackhaft zu machen ohne RTX gibt es keinen Grund zu wechseln(ausgeschlossen die 4k Fraktion) und was der Bauer nicht kennt frisst er nicht.
 
Zurück
Oben