Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAuch für Radeon: Crytek zeigt Raytracing-Demo für kommende CryEngine
Auf den letzten Seiten in dieser Diskussion geht es ja genau darum, was die jeweiligen "Raytracing-Implementierungen" von Crytek und Nvidias RTX beinhalten. Beide "schummeln", weil sie jeweils nur ein Kompromiss fürs Raytracing darstellen.
Selbst absolute HighEnd CPUs haben nur einen Bruchteil der Rechenleistung einer GPU. Für manche Berechnungen ist die CPU zwar besser geeignet und es wurde ja geschrieben, dass Teile bereits auf der CPU berechnet werden, aber man muss realistisch bleiben, was die CPU tatsächlich leisten kann.
Das ist ja auch immer das was brav von bestimmten Missionierern unter den Teppich gekehrt wird. Selbst nVidias RT Ansatz muss "tricksen" bzw. die Entwickler nutzen nur bestimmte Methoden aus dem kompletten RT Bereich oder wie bei BFV wird das genutzte nur sehr eingeschränkt gezeigt, da eben sonst viel zu viel Leistung bei RTX on verloren geht.
Auch das "It just works" wie auf der Gamescon letztes Jahr beworben ist einfach grober Unfug gewesen, da die Arbeit die man aufwenden muss um RT ein zu binden in sein Spiel riesig ist. Hat man dann an BFV richtig schön bewundern können wie "It just works" funktioniert. Und ja mittlerweile läuft BFV einigermaßen annehmbar mit RTX. Aber noch immer bringt RTX on keinen Leistungszuwachs sondern man kommt mittlerweile immerhin fast ran an RTX off was die Leistung angeht.
Von der oft propagierten 10 mal mehr Leistung der nVidia Missionare fangen wir dann mal gar nicht erst an.
Kurz gesagt, ja nVidia "trickst" noch immer wie alle anderen auch. Nur "trickst" Crytek offenbar schon jetzt besser, da ihre "Tricks" zur RT Berechnung schon jetzt auf jeder GPU Hardware laufen könnte. Und am Ende interessiert es doch den Kunden nicht wer welche "Tricks" benutzt, solange das Bild schön aussieht und das Spiel flüssig läuft auf dem PC und das ohne Einschränkungen.
Und da es sich ja noch immer um eine Tech-Demo handelt, also das Produkt noch lange nicht fertig und ausgereift ist (also dasselbe wie bei RTX von nVidia), ist noch genügend Zeit daran zu werkeln. Und anders als nVidia, kommuniziert Crytek offen was noch nicht rund läuft und woran noch gearbeitet werden muss. Das ist weit ehrlicher als das andere "tricksende" Unternehmen.
Wird es nicht- Es wird ja von NVIDIA selbst als "Zwischenlösung" bzw. als Hybrid- Raytracing bezeichnet.
Selbst nVidias RT Ansatz muss "tricksen" bzw. die Entwickler nutzen nur bestimmte Methoden aus dem kompletten RT Bereich oder wie bei BFV wird das genutzte nur sehr eingeschränkt gezeigt, da eben sonst viel zu viel Leistung bei RTX on verloren geht.
Exakt- Derzeit haben die Entwickler die Wahl Shaderlast eher auf die klassischen Rasteraufgaben oder die Shaderzeit anteilig höher auf das Auswerten und Verarbeiten der Strahleninformationen zu verwenden.
Die RT Cores sind stark, die Shader prinzipbedingt bei AAA Games schon ohne RT voll ausgelastet.
Auch das "It just works" wie auf der Gamescon letztes Jahr beworben ist einfach grober Unfug gewesen, da die Arbeit die man aufwenden muss um RT ein zu binden in sein Spiel riesig ist.
Wie bereits weiter oben geschrieben wurde AUF ALLEN KANÄLEN zur Erstimplementation von NVIDIA und DICE kommuniziert, dass die erste Testversion mit Vorsicht zu genießen ist und Fehler hat, die die Performance runterziehen. Man wollte aber den Usern das Ergebnis des ersten Tests nicht vorenthalten, damit diese schon einmal schauen können, wie das dann aussieht. Hatte ich alles kürzlich hier schon mit Links geschrieben.
Hätte NVIDIA eigentlich wissen können, dass sich die Leute einen xxx um diese Informationen scheren und den Test als Endergebnis werten. Ist halt wieder mal der Beweis, dass die Masse nicht verantwortungsvoll mit Previews umgehen kann.
Fällt ja nicht nur NVIDIA und DICE auf die Schnauze damit, dem Publikum frühzeitig was an die Hand zu geben.
Und ja mittlerweile läuft BFV einigermaßen annehmbar mit RTX. Aber noch immer bringt RTX on keinen Leistungszuwachs sondern man kommt mittlerweile immerhin fast ran an RTX off was die Leistung angeht.
RT und Leistungszuwachs?? Wenn hier von allen Seiten immer wieder betont wird, dass man froh ist, diese höllisch rechenzeitfressende Option erstmals in Teilbereichen in rasterbasierten Spielen in Echtzeit einsetzen zu können.
Von der oft propagierten 10 mal mehr Leistung der nVidia Missionare fangen wir dann mal gar nicht erst an.
Die betreffen die Fähigkeit der RT Cores das BVH Traversal pro Ray durchzuführen. Alles weiter oben von mir schon mit Links und dem Zitat eines Entwicklers dazu ausgeführt.
Wie komm ich überhaupt drauf, dass die Leute in den Foren die Beiträge auch einfach lesen....?
Ich sollte es besser wissen.
Kurz gesagt, ja nVidia "trickst" noch immer wie alle anderen auch. Nur "trickst" Crytek offenbar schon jetzt besser, da ihre "Tricks" zur RT Berechnung schon jetzt auf jeder GPU Hardware laufen könnte.
Und wieder bewiesen den Verlauf hier garnicht mitverfolgen zu wollen. Wenn Dich das Thema wohl nicht interessiert, wieso kehrst Du dann immer wieder in den Thread zurück?
Und am Ende interessiert es doch den Kunden nicht wer welche "Tricks" benutzt, solange das Bild schön aussieht und das Spiel flüssig läuft auf dem PC und das ohne Einschränkungen.
Ein Lichtblick! Cryteks Methode=Einschränkungen/NVIDIA Methode=Bruteforce Ansatz=Keine Einschränkungen
Und da es sich ja noch immer um eine Tech-Demo handelt, also das Produkt noch lange nicht fertig und ausgereift ist (also dasselbe wie bei RTX von nVidia), ist noch genügend Zeit daran zu werkeln.
Exakt- Dennoch wird die Crytek Lösung trotzdem die systemisch bedingten Nachteile nicht ausbügeln können, weil dann wieder so hoher aufwand betrieben werden müsste, dass man gleich tracen kann....
Und anders als nVidia, kommuniziert Crytek offen was noch nicht rund läuft und woran noch gearbeitet werden muss. Das ist weit ehrlicher als das andere "tricksende" Unternehmen.
Siehe mein Beispiel oben mit der Kommunikation der ersten RT Version von BFV. Alles offen und transparent.
Interessiert sich halt nur keiner dafür. zudem hat sich auch Crytek in Sachen Kommunikation die letzten jahre nicht gerade mit Ruhm bekleckert.
SimSon schrieb:
Wenn Raytracing auf jeder Hardware läuft wieso kann ich dann nur mit RTX Karten dieses Feature in BF5 und Metro nutzen? Angeblich kann doch fast jede Hardware dieses Feature berechnen.
Hättest einfach mal ein wenig in diesem Thread stöbern können - Die Antwort steht 6 Beiträge über dem Deinigen. Lest Ihr die Posts in den Foren eigentlich auch?
Oder geht man nur schnell in den Thread, lädt schnell ab und verschwindet wieder? (vermehrt mein Eindruck)
Und um hier mal was richtig zu stellen. Sollte es eine Firma Crytek oder sonstwer schaffen, ein RT Ähnliches Ergebnis ohne die Einschränkungen, die die aktuellen Lösungen in Sachen Flexibilität der Szenengestaltung haben, zu generieren, was dann auch noch mit jeder X- Beliebigen Grafikkarte performant läuft,
dann bin ich der erste der davor am Boden kniet.
Dann könnte selbst ich leicht religiöse Anwandlungen verspüren.
Ich hab die schlechte und fehlerhafte Beleuchtung und Verschattung bei Spielen langsam satt.
Die stören mich erheblich mehr als irgendwelche Reflexionen.
Sorry, aber ich möchte sowas einfach nicht mehr sehen:
oder Metro ohne RT:
... und sowas kriegt man von allen TOP- Engines an zu vielen Stellen noch präsentiert.
Das sieht aus, als ob wir grafisch im Jahr 2005 hängen geblieben wären.
Du bist hier in einem Forum unterwegs, in dem es dem überwiegenden Nutzeranteil auf Spieleperformance des eigenen Rechners ankommt. Es ist selbstverständlich, dass hier eine 2060 nicht als High-End angesehen wird und heute auch definitiv von technischer Seite nicht mehr als High End-Karte angesehen werden kann. Bei 4k oder auch VR geht dieser Karte ganz schnell die Puste aus. Eine 1660 kostet ca. 230 Euro, welche definitiv ein klassisches Mainstream-Preissegment bedient. Grafikkarten, die unter 200 Euro liegen, sind generell zum Entry-Level zu zählen, das war auch in der Vergangenheit nie anders.
Die Leute vergessen wohl immer, dass auch 1998 eine Voodoo² mit 12MB schon 600 D-Mark gekostet hat. Ich weiß es noch sehr genau, denn ich hatte mir zwei Stück gekauft. Inflationsbereinigt kostet eine 2080 für ca. 700 Euro heute geradezu einen Schnäppchenpreis.
@ZeroZerp
1. Schön das es von nVidia nur als Zwischenlösung beschrieben wird. Aber warum muss dann der Kunde für die einschränkende Zwischenlösung 100€ mehr auf den Tisch legen und kann sie nicht einmal nutzen wenn der nicht BFV oder MetroExodus spielt? Achja weil es nVidia ist und es absolut ok ist für weniger Leistung mehr zu zahlen.
2. Und nein auch das setzen von Lichtquellen scheint ebenso noch immer kein "It just works" zu sein. Sieht man ja an der riesigen Anzahl an Spielen die dies verwenden, ach halt nach 7 Monaten 2 Spiele. Ja "It just works" halt.
3. Es geht aber nicht nur um BFV. BFV ist nur der einzige Titel der in ganzen 6 Monaten wo die RTX Karten auf den Markt waren überhaupt RT implementiert hatte (und das auch nur sehr eingeschränkt) mit dem man überhaupt arbeiten konnte. Wenn man sich jetzt noch die Präsentation vor Augen führt wo so viele Spiele angekündigt wurden und wie viele davon bis jetzt überhaupt RT (eingeschränkt) nutzen. Dann ist dies ein Armutszeugnis. Denn der RTX Käufer sofern er nicht genau die beiden Spiele zockt, hat noch immer NULL von den RTX Features. Durfte aber vom Start weg 100-500 Euro mehr zahlen (je nach RTX Leistungsklasse). Ein Traum.
4. Vorsicht. Die bis zu 10mal mehr Geschwindigkeit ist eine Kernaussage von dir. Du bist derjenige der diese Zahl immer wieder in den Raum wirft, wenn es darum geht die RTX Karten zu lobpreisen und das diese ja so viel mehr können. Wenn, ja wenn RTX endlich mal so umgesetzt wäre, wie es auf der Gamescon Präsentation allen vorgegaukelt wurde. Ich greife sie nur auf um zu zeigen wie wenig solche Aussagen mit der Realität zu tun haben.
5. Wenn mich das Thema nicht interessieren würde, dann würde ich es weder lesen noch in diesem Posten. Das ist der Unterschied zwischen mir und dir. Ich muss nicht überall missionieren gehen für meinen Lieblingshersteller. Von daher wirst du mich nie in Themen zu Sportspielen, Flugsimulationen oder oder oder sehen. Und anders als du, ist für mich nicht Technik XY die einzig wahre und alle anderen "tricksen" nur und können niemals so gut sein wie die von mir preferierte Technik. Anders als du, stehe ich dem recht offen gegenüber, will aber keine properiteren und geschlossenen Systeme haben, wo nur der einen Vorteil von hat, der Produkt XY von Hersteller AB hat.
6. Sowohl die Methode von Crytek als auch die Methode von nVidia unterliegen Einschränkungen. Wäre dies nicht so, würde das RTX Feature von nVidia ja so funktionieren wie du es immer so toll ausführst. Aber dem ist nicht so. Das du dies anders siehst, ist halt deine subjektive Meinung. Aber nicht meine. Leb endlich damit.
7. Ob Crytek die Nachteile nicht ausbügeln wird können, oder ob sie es doch schaffen werden, das wird die Zukunft zeigen. Deine Annahme, das dies nicht gelingen wird, beruht einzig auf deiner komischen Ansicht. Da du weder bei Crytek arbeitest, noch sämtliche Quellcodes kennst oder was am Ende möglich ist mit ihrer Technik, finde ich es schon leist anmassend zu behaupten was geht und was nicht geht in Zukunft.
8. Ah-ha also alles offen und transparent bei RTX von nVidia. Und was ist mit allen anderen Dingen von nVidia, wie GPP, der allgemeinen NDA (die ja auch CB unterschrieben hat) und allen anderen Dingen wo nVidia sich nicht mit Ruhm bekleckert hat?
Wenn du schon anfängst mit Schlamm zu werfen gegenüber Crytek und ja ich weiß das sie in den letzten Jahren nicht gerade geglänzt haben bei vielen Dingen, dann wirf den Schlamm auch gefälligst in alle Richtungen. Ansonsten ist dies selektives herauspicken.
Weil ich im Thread von Review- Bombing gerade drauf stoße:
Das dort gepostete Video zeigt eindrucksvoll, was passiert, wenn man eine hochwertige GI und Schattenberechnung gegen unsere übliche Fake- Raster- Lighprobes+Maps ersetzt:
Ab 30 Sekunden:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Was war nicht der Aufschrei damals groß. Ebenso elaufen bei Witcher 3.
Crytek sorgt mit seinem neuen Ansatz für Spiegelungen und deren Global Illumination dafür, dass wir uns dem Ergebnis ohne Downgrade (Watchdogs) weiter annähern.
Eine reine RT- Lösung wäre dann natürlich das I- Tüpfelchen.
Ergänzung ()
Selanius schrieb:
@ZeroZerp
1. Schön das es von nVidia nur als Zwischenlösung beschrieben wird. .. Achja weil es nVidia ist und es absolut ok ist für weniger Leistung mehr zu zahlen.
Garnix muss der Kunde. nVidia macht ein Angebot. Der Kunde kann es annehmen oder nicht.
2. Und nein auch das setzen von Lichtquellen scheint ebenso noch immer kein "It just works" zu sein. Sieht man ja an der riesigen Anzahl an Spielen die dies verwenden, ach halt nach 7 Monaten 2 Spiele. Ja "It just works" halt.
Jetzt nimm mal den Zeitraum, den die Entwicklung eines Spiels in Anspruch nimmt.
Dann nimm mal die Zahl der Entwickler, die auf der Zielgeraden noch einmal ihren Renderer zu Gunsten einer neuen Technik doppelt bestücken wollen und schon wird vielleicht klar, warum man für Hardware, die noch nicht einmal ein halbes Jahr existiert vielleicht noch keine Flut an unterstützenden Titeln findet.
Schau Dir die Unterstützungsadaption beim Shadermodel 2.0 oder 3.0 an, oder von den unterschiedlichen DX Varianten, dann hast Du einen Maßstab, was man realistischer Weise diebezüglich zu erwarten hat.
3. Es geht aber nicht nur um BFV. BFV ist nur der einzige Titel der in ganzen 6 Monaten wo die RTX Karten auf den Markt waren überhaupt RT implementiert hatte
Wenn man sich jetzt noch die Präsentation vor Augen führt wo so viele Spiele angekündigt wurden und wie viele davon bis jetzt überhaupt RT (eingeschränkt) nutzen. Dann ist dies ein Armutszeugnis.
Verstehe ich nicht. Die Präsentation beschreibt die Titel, die RT unterstützten werden. Sie haben ja nicht gesagt, dass die alle im Monat drauf verfügbar seien. Die Aussage war die, dass ein Großteil davon im Jahr 2019 erscheinen wird.
Denn der RTX Käufer sofern er nicht genau die beiden Spiele zockt, hat noch immer NULL von den RTX Features. Durfte aber vom Start weg 100-500 Euro mehr zahlen (je nach RTX Leistungsklasse). Ein Traum.
Wieso kauft sich der RTX Käufer eine RTX Karte dann, wenn er sieht, dass die Spiele, die ihn selbst interessieren z.B. erst für den Dezember 2019 angekündigt sind?
Wenn ein Konsument so blöd ist, willst Du das zu einem Problem nVidias machen?
Die Faktenlage, auch was das Erscheinen der Titel betrifft, war transparent.
Wer sich, bevor er eine 1000,-€ Investition für den Computer tätigt, keinen milimeter darüber informiert, was er sich da zulegt, dem scheint das sowieso egal zu sein, was er wann wie spielen kann.
Der will das schnellste- Fertig.
Nur bei Shadow of the Tomb Raider versagen sowohl Hersteller als auch nVidia komplett. Das Spiel ist lange draußen. RT Unterstützung war angekündigt. Man sieht bis jetzt nichts davon. Es gibt auch keine Kommunikation in diese Richtung.
4. Vorsicht. Die bis zu 10mal mehr Geschwindigkeit ist eine Kernaussage von dir. Du bist derjenige der diese Zahl immer wieder in den Raum wirft, wenn es darum geht die RTX Karten zu lobpreisen und das diese ja so viel mehr können.
Ich weiss, dass Du gerne die wichtigen Stellen in meinen Posts überliest, die das ganze dann in entsprechendes Licht rücken. Da kann man langsam schon Mutwilligkeit unterstellen.
Es sind bis zu 10x mehr Geschwindigkeit bei der BVH traversal Berechnung. Und auch für Dich (im Thread inzwischen 20x erklärt)- Die Auswertung Weiterverarbeitung der Rays übernehmen die Shader.
Die RT Abteilung kann 4K in 60FPS und 20 Rays/Pixel verschiessen. Somit ist diese ausreichend dimensioniert.
Die Shader kommen mit der Informationsflut, wenn man die Engine eines AAA Titels zusätzlich drau loslässt aber nicht zurecht. Deshalb muss der Entwickler einen Kompromiss zwischen Raytracingqualität/Quantität und Shaderlast des Scanliners finden.
Wenn, ja wenn RTX endlich mal so umgesetzt wäre, wie es auf der Gamescon Präsentation allen vorgegaukelt wurde. Ich greife sie nur auf um zu zeigen wie wenig solche Aussagen mit der Realität zu tun haben.
Sowohl Battlefield 5 als auch Metro haben genau das geliefert, was versprochen wurde. Wir werden denke ich bald sehen, was aus der dritten Ankündigung mit raytraced Shadows in Shadow of the Tomb Raider ist.
Vielleicht kann das ja auch überzeugen.
5. Wenn mich das Thema nicht interessieren würde, dann würde ich es weder lesen noch in diesem Posten.
Ach schon wieder ein plumper Versuch hier eine Markendiskussion draus machen zu wollen?
Bist die letzten 10 mal schon dran gescheitert.
Das zieht nicht- Gibs endlich auf. Mir ist es egal, welcher Hersteller mir das liefert, was ich sehen will.
Und anders als du, ist für mich nicht Technik XY die einzig wahre und alle anderen "tricksen" nur und können niemals so gut sein wie die von mir preferierte Technik.
Dann setze Dich doch einfach mal nur 5! Minuten mit Rasterisierung und Raytracing auseinander.
Da gibt es keine Diskussion sondern es ist einheiliger Konsens über die gesamte Grafikszene, dass RT qualitativ und physikalisch korrekt der Realität am nähesten kommt. Schonmal überlegt, warum CGI Szenen in Filmen nicht mit Rasterizern berechnet werden?
Du willst hier Dinge in Frage stellen, die schon seit Jahrzehnten ausgefochten sind.
Anders als du, stehe ich dem recht offen gegenüber, will aber keine properiteren und geschlossenen Systeme haben, wo nur der einen Vorteil von hat, der Produkt XY von Hersteller AB hat.
Genau- Deshalb setzt RTX ja auf die offenen Standards DXR und Vulkan RT.
So wie es jedem anderen Hersteller freisteht dies auch zu tun.
Wieso beschimpfst Du nVidia für eine Sache, die die genau so durchziehen, wie Du das forderst?
Die hätten tatsächlich auch nen anderen Weg gehen können und dafür sorgen können, dass BFV oder Metro RTX proprietär funktionieren. Haben sie aber nicht. Also was zur Hölle ist das Problem und warum betonst Du immer wieder, dass DXR proprietär sei??
6. Sowohl die Methode von Crytek als auch die Methode von nVidia unterliegen Einschränkungen.
Ja- Ersteres fordert hohe Kompromisse in der Darstellungsqualität, der Erfassung einiger Objekte und der Szenengestaltung. Zweiteres fordert den Kompromiss eines immensen Rechenaufwands und dadurch Performanceeinbußen, was dazu führt, dass die Hersteller zu Anfangs nur einen Teil des möglichen RT Sets einsetzen (RT reflections, rt shadows, rt ao, rt GI).
7. Ob Crytek die Nachteile nicht ausbügeln wird können, oder ob sie es doch schaffen werden, das wird die Zukunft zeigen. Deine Annahme, das dies nicht gelingen wird, beruht einzig auf deiner komischen Ansicht.
Zu diesem Thema gibt es Abhandlungen über Spieleengines, die Meinen und Deinen Horizont bei Weitem übersteigen. Da sitzen extrem schlaue Leute dran.
Ich neige dazu denen Glauben zu schenken, wenn sie schreiben, dass Methode XY toll ist, aber unter einem Katalog von Einschränkungen funktioniert.
Da du weder bei Crytek arbeitest, noch sämtliche Quellcodes kennst oder was am Ende möglich ist mit ihrer Technik, finde ich es schon leist anmassend zu behaupten was geht und was nicht geht in Zukunft.
Ich behaupte genau das gegenteil (auch schon mehrfach zuvor erwähnt). Mit genügend Tricks und Rechenaufwand und Raytracing- ähnlichen Verfahren werden es die Programmierer schaffen, die Qualität eines Brutforce oder reverse RT anzunähern.
Nur ist dann der Rechenaufwand wiederum so hoch und der Aufwand dies zu implementieren, dass man dank der neuen RT Cores dann gleich Raytracen kann.
8. Ah-ha also alles offen und transparent bei RTX von nVidia. Und was ist mit allen anderen Dingen von nVidia, wie GPP, der allgemeinen NDA (die ja auch CB unterschrieben hat) und allen anderen Dingen wo nVidia sich nicht mit Ruhm bekleckert hat?
Geht die Luft aus, muss dann plötzlich die Firmenpolitik herhalten. Hauptsache mit Dreck werfen, gelle?
Wenn du schon anfängst mit Schlamm zu werfen gegenüber Crytek und ja ich weiß das sie in den letzten Jahren nicht gerade geglänzt haben bei vielen Dingen, dann wirf den Schlamm auch gefälligst in alle Richtungen. Ansonsten ist dies selektives herauspicken.
Naja... "Mainstream GPUs"... die AMD RX Vega 56 (mit der die Demo gemacht wurde) ist irgendwie die Leistungsklasse der 1070 gtx. Meines Erachtens nach ist das die High End Klasse. Mainstream ist eher gtx 1050, gtx 1060, und RX560. Aber trotzdem gut zu sehen, dass man keine RT Cores braucht.
Wie bitte soll eine GTX 1070 High End sein, wenn eine 1080,1080 Ti, 2070, 2080 und 2080 Ti schneller sind? Selbst wenn man die 1xxx Serie weglässt, eine GTX 1070 ist doch nur gute Mittelklasse.
@ZeroZerp
1. Schön das es von nVidia nur als Zwischenlösung beschrieben wird. Aber warum muss dann der Kunde für die einschränkende Zwischenlösung 100€ mehr auf den Tisch legen und kann sie nicht einmal nutzen wenn der nicht BFV oder MetroExodus spielt?
Eigentlich bringt diese Diskussion über die Preise hier niemanden weiter.
Der der diese Features auch vor einer höheren Verbreitung austesten will, zahlt die Preise, der der das nicht will, wartet ab bis diese gesenkt werden, oder AMD ihr Ankündigung wahr macht und DXR mit ihren Grafikkarten zu unterstützen.
Bei dir schwingt immer so ein unterschwelliger Nvidia-Bash mit in der Diskussion, ich finde das unnötig.
Selanius schrieb:
2. Und nein auch das setzen von Lichtquellen scheint ebenso noch immer kein "It just works" zu sein.
Du hast den Kontext mit der Aussage "it just works" gar nicht verstanden.
Da geht es darum dass bei der Implementierung sehr viel Zeit gespart werden kann.
Damals mag der Raytracing-Algorithmus eher als ein proof-of-concept interessant gewesen sein, mit der Leistungsfähigkeit heutiger GPU`s wird man und muss man den Brute Force Ansatz gehen, der eben bei DXR aktuell nur auf einen Teil des Bildes beschränkt wird.
Selanius schrieb:
4. Vorsicht. Die bis zu 10mal mehr Geschwindigkeit ist eine Kernaussage von dir. Du bist derjenige der diese Zahl immer wieder in den Raum wirft, wenn es darum geht die RTX Karten zu lobpreisen und das diese ja so viel mehr können.
Da geht es um die Komplexität der Schnittpunkttests, die für jedes Polygon auf der in der Szene berechnet werden müssen, also Einfallswinkel, eventuelle bounces, mehrfachbounces je nach Rauhheit der Oberflächen ob etwas gespiegelt werden soll oder nicht, immer ausgehend vom Kamerawinkel aus der die Strahlen geschossen werden.
Und von diesen Einfallswinkeln oder Schnittpunkten kann man dann weitere Strahlen verschießen und somit Reflexionen, Transmissionen also quasi eine Beleuchtung/Lichtquellen erzeugen, sofern man Raytracing für global illumination nutzt.
Und das finden/berechnen der Schnittpunkte in der BVH kann dann mittels der fixed function units deutlich beschleunigt werden.
Hier nochmal auf den Punkt:
The first unit does bounding box tests, and the second unit does ray-triangle intersection tests. The SM only has to launch a ray probe, and the RT core does the BVH traversal and ray-triangle tests, and return a hit or no hit to the SM.
Die Szenengeometrie in Battlefield 5 war so broken, dass Strahlen gegen Geometrie verschossen wurde die gar nicht angezeigt wurde, aber lieber hat man wie am Stammtisch mit den Füßen gestampft, ohne ein wenig ins Thema einzutauchen.
ZeroZerp bezieht sich mit 10x schneller auf die letzte Generation bei BVH traversal und genau das beschrieb er auch.
Du hast es lediglich nur nicht verstanden.
Selanius schrieb:
Wenn mich das Thema nicht interessieren würde, dann würde ich es weder lesen noch in diesem Posten.
Dann beschäftige dich doch mal mit der Geschichte.
Anders als du, stehe ich dem recht offen gegenüber, will aber keine properiteren und geschlossenen Systeme haben, wo nur der einen Vorteil von hat, der Produkt XY von Hersteller AB hat.
Man merkt bereits an der Aussage, dass du dir gar nicht darüber im Klaren bist, dass DXR ein offenes System ist, das von Intel, AMD und auch Nvidia genutzt werden kann.
AMD müsste wie Nvidia mit RTX als DXR backend Implementierung nur selbst eine auf die Beine stellen, ergo einen Treiber anbieten, dann kann AMD auch in Battlefield Raytracing nutzen.
Wie performant das dann ist, ist fraglich, denn Nvidia hat mit ihren Turing Chips zwei parallele/simultaneous pipeline-stages für raytracing und rasterizing.
Selanius schrieb:
7. Ob Crytek die Nachteile nicht ausbügeln wird können, oder ob sie es doch schaffen werden, das wird die Zukunft zeigen. Deine Annahme, das dies nicht gelingen wird, beruht einzig auf deiner komischen Ansicht.
De Methode Crytek ist uralt und wurde schon 2010 mit der Cryengine umgesetzt aber nie zur Marktreife gebracht, das ist mittlerweile 9 Jahre her.
Implemented ray tracing in sparse voxel octrees gerät sehr schnell an Limitationen, alleine dann schon wenn ein Tag/Nacht System eingeführt werden soll und die Liste der Limitationen ist lang.
Wird sich nie durchsetzen können da der Aufwand ungleich höher ist als wirklich zu pathtracen.
Ohne Aktienanteile ist solch eine Einstellung einfach nur peinlich, mich interessiert nur das bessere Produkt, das ist wie ich schon schrieb mal AMD/ATI mal Nvidia bzw. Intel, die Firmengeschichte können Sie für sich behalten. Ich kaufe doch nicht das schlechtere Produkt, nur weil mir das Wettbewerbsverhalten des Anbieters des besseren Produktes nicht passt, für härtere Verstöße haben wir unsere „Hüter von Recht und Ordnung“. Aber jedem das Seine.
Definiere "schlechteres Produkt". Wenn Du heute zwischen A1 un N1 wählen kannst, Du aber schon genau weißt, dass Du in zwei Jahren A2 und N2 brauchen wirst, weil A1 und N1 überflüssig werden, dann kann es z.B. wie folgt sein:
Wenn Du heute A1 kaufst, bekommst Du 5% weniger L, dafür aber 5% mehr P/L als für N1, in 2 Jahren bleibt es aber so. Wenn Du heute N1 kaufst, erhälst Du aber in 2 Jahren entweder 50% weniger L mit A2 oder aber 50% weniger P/L mit N2.
Bei diesem völlig abstrahierten Beispiel kann man sich dann schon fragen, ob N1 heute das bessere Produkt ist, wenn Du weiter als bis zur Nasenspitze darüber nachdenkst und deine langfristigen Interessen mit einbeziehst. Wenn Du ein Mietshaus kaufst würdest Du ja auch nicht nur auf den jetzigen Stand gucken, sondern auch wissen wollen, ob da in 10 oder 20 Jahren noch jemand drin wohnen wollen würde, bzw. wie sich die Mieteinnahmen entwickeln werden.
Anders ausgedrückt kannst Du dir mit kurzfristiger "Optimierung" langfristig selber schaden. Deshalb ist "schlechteres Produkt" nicht so eindeutig, wie es oft dargestellt wird, denn ein Produkt hat für mich mehr Eigenschaften als Benchmark-Balken, auch wenn die natürlich wichtig sind.
Kannst du mal die Quelle nennen wenn du schon falsch zitierst? Klingt eher als hättest du dir das gerade zusammengereimt. Alleine das „- oder zumindest“ sagt einiges darüber aus. Etwas das so nie gesagt wurde kann man nicht vergessen
Nvidia hat lediglich behauptet, dass Raytracing mit speziell darauf abgerichteter Hardware deutlich besser läuft als mit Softwarelösungen ohne spezielle Hardware, was so auch absolut der Realität entspricht. Selbst AMD sieht das ein und möchte zukünftig spezielle Hardware für Raytracing verbauen, wie ich dir in meinem letzten Beitrag zitiert hatte. Stichwort „aufpassen“ Nur du bist anderer Meinung.
Die Quelle ist doch Jensen Huang auf der Gamescom. Der meinte mit ihren RT-Kernen sei die 2080Ti 10 mal so schnell wie eine 1080Ti. Dann hat jemand eine Titan Volta in BF5 mit RT benutzt und die war ohne RT-Kerne nur 20% langsamer oder so (ich glaub um die 50fps), jedenfalls weit vom Faktor 10 entfernt. Das lässt sich kaum erklären, wenn die Aussage stimmt, dass ohne RT-Kerne nur Diashow möglich sei. Und wenn die CryTek-Demo jetzt nicht zufällig nur auf nem 32-Kern Threadripper läuft, dann das mit der Software auch nicht.
Nachzulesen hier: http://www.pcgameshardware.de/Battl...v-schnellem-Raytracing-ohne-RT-Kerne-1272342/
Ja, das Update von NVidia hab ich gelesen, es erklärt aber nicht die Benchmarks des Users, falls der nicht lügt. Warum das anscheinend noch niemand "offiziell" geprüft hat weiß ich aber auch nicht. Vielleicht kann sich keiner in den Medien eine Titan V leisten.
Finde aber gerade diese Meldung: https://www.golem.de/news/port-roya...t-titan-v-hinter-geforce-rtx-1901-138637.html
Laut dem ist die 2080Ti ca. 2 mal so schnell wie die Titan V, Faktor 2 weicht aber um Faktor 5 vom Faktor 10 ab. Warum ist Volta also ohne RT-Kerne ca. 5 mal schneller als Pascal (angeblich laut Huang wäre) in RT?
Hat Volta RT-Shader oder was?
Was die Graka Klassen angeht gibt es eigentlich 4 = Low end ( Einstiegeklasse ) , Mid Stream , Oberklasse und High End , die Einordnungen der Karten sind im Prinzip fließend , was 2 Jahre zuvor noch Oberklasse war kann durch eine neue Graka Gen um eine Klasse sinken auf Mid Stream .
Dank NV s Abkassier Mentalität muß man für dieselbe Klasse in letzter Zeit immer mehr bezahlen , hat eine 1080 TI noch 800-900 Euro gekostet als High End kostet eine 2080 TI jetzt 1100-1200 Euro .
Crytek benutzt die Definition " aktuelle Main Stream Karten " , leider haben sie nicht gesagt was sie darunter verstehen .... , auf einer RX56 läuft die Demo offensichtlich noch so flüssig das es min. 24- 30 FPS sein müssen unter 4K oder unter FHD ? zur Auflösung hab ich da nichts gefunden , es sollte aber min . FHD sein so wie das Video aussieht wenn man auf HD umschaltet .
Was man auf jeden Fall sagen kann : Cryteks Ansatz braucht weniger Rechenpower und keine dedizierte Hardware , was ein großer Vorteil ist , da die kommenden Konsolen vermutlich 8 Kerne und etwas mehr GPU Rechenpower als eine Vega56 haben , wäre vermutlich der Crytek Ansatz sogar auf den kommenden Konsolen lauffähig , ein großer Pluspunkt würde ich meinen .
Der jetzige Crytek Ansatz ist erst ein Provisorium und muß erst noch in die CryEngine 5.5 voll integriert werden , was im Laufe dieses Jahres passieren soll , es ist zu erwarten das bei kompletter Integration noch mehr Performance übrig bleibt , erst recht in Verbindung mit Vulkan und async. Shadern .
So wie ich das sehe , wird sich der Graben zwischen den NV Game Engines und den übrigen noch vertiefen , während Games die mit NV Game Engines erstellt wurden nur noch mit NV Karten wirklich gut laufen , werden die unabhängigen Game Engines auf allen Karten laufen und auch ohne RTX künftig ein RT Fellling aufkommen lassen können .
Laut dem ist die 2080Ti ca. 2 mal so schnell wie die Titan V, Faktor 2 weicht aber um Faktor 5 vom Faktor 10 ab. Warum ist Volta also ohne RT-Kerne ca. 5 mal schneller als Pascal (angeblich laut Huang wäre) in RT?
Hat Volta RT-Shader oder was?
Das ist ziemlich einfach zu beantworten und wenn man sich die Mühe machen würde Ausserhalb des üblichen Gaming journalismus zu recherchieren relativ klar.
Die rt cores von turing basieren auf der Volta Architektur und sind weiter spezialiserte Volta Einheiten die bestimmte Berechnungen in der renderpipeline bei rt übernehmen.
Das ist auch der Grund warum volta und turing dxr unterstützen. Turing ist darauf einfach noch deutlich spezialiserter als volta.
Darüber gibt es diverse Abhandlungen und Dokumente im Netz, es hilft häufig diese Dinge zu lesen damit man sich fundiert mit einem Thema auseinandersetzen kann.
Googeln musst du das aber selbst!
Ach und zu dem 10 mal schneller, das ist doch Klar das es sich dabei um das bei allen Herstellern übliche Marketinggewäsch handelt, es bezieht sich explizit auf die Berechnungen der spezialisierten rt cores, diese werden 10 mal schneller ausgeführt als eine 1080ti diese durchführen kann.
Mit der Volta Architektur und der titan v hat diese Aussage aber nichts zu tun und wurde so auch nie gemacht.
@ZeroZerp und @KlaraElfer
Ja ist ok. Dreht es euch nur immer weiter solange bis es wieder passt. Alle anderen können und wissen nichts, nur nVidia macht es richtig und ihr seid die einzigen, die alles schon im Vorraus wissen. Irgendwann ist es auch mal gut mit dem missionieren.
In jedem Thread mittlerweile dasselbe gelobpreise von nVidias überlegener RTX Technik. Die leider für alle anderen, die nicht nur durch eine grüne Brille gucken, nur eins bewiesen hat: Die Technik die nVidia da zusammengefrickelt hat in einem halben Jahr (Nicht meine Aussage) ist halt nicht fertig und keiner hat wirklich Lust RTX zu implementieren (außer die, die ein paar $ von nVidia als Unterstützung bekommen). Das sieht man an der Spieleauswahl, das sieht man daran wie komplex es doch am Ende ist RTX ein zu bauen und das sieht man daran, dass es keinen Leistungsvorteil für den Kunden gibt (noch immer nicht).
Ja ist ok, RTX ist das einzig wahre und alle anderen "tricksen" nur, die RT über einen anderen Weg realisieren. Am besten sollte das mal jemand Crytek mitteilen, das sie aufhören den falschen Weg weiter zu gehen. Wäre ja ein frevel, wenn sie ihren Ansatz bis zum Ende fertig stellen und dieser dann noch immer auf jeder Mainstream GPU laufen würde. 😆
Das ist ziemlich einfach zu beantworten und wenn man sich die Mühe machen würde Ausserhalb des üblichen Gaming journalismus zu recherchieren relativ klar.
Die rt cores von turing basieren auf der Volta Architektur und sind weiter spezialiserte Volta Einheiten die bestimmte Berechnungen in der renderpipeline bei rt übernehmen.
Das ist auch der Grund warum volta und turing dxr unterstützen. Turing ist darauf einfach noch deutlich spezialiserter als volta.
Darüber gibt es diverse Abhandlungen und Dokumente im Netz, es hilft häufig diese Dinge zu lesen damit man sich fundiert mit einem Thema auseinandersetzen kann.
Googeln musst du das aber selbst!
Ach und zu dem 10 mal schneller, das ist doch Klar das es sich dabei um das bei allen Herstellern übliche Marketinggewäsch handelt, es bezieht sich explizit auf die Berechnungen der spezialisierten rt cores, diese werden 10 mal schneller ausgeführt als eine 1080ti diese durchführen kann.
Mit der Volta Architektur und der titan v hat diese Aussage aber nichts zu tun und wurde so auch nie gemacht.
Danke für die Info! Das zu googeln hab ich aber tatsächlich keine Zeit, hab schon einen Job und Hobbies. Auch hier wieder, wie an anderer Stelle bereits erwähnt: Dafür gibt es eigentlich eine Fachpresse, damit das nicht 50 Millionen Leute einzeln googeln und lesen müssen, sondern ein Redakteur, der es für alle aufbereitet.
Ich kann mich nicht in jedem Gebiet der Welt einlesen und spezialisieren, dafür reicht meine Lebenszeit nicht.
Daher aber danke für deine Info, das bringt mich ja schon mal weiter.
Das ist eine tolle Art zu "diskutieren". Man wird mit Fakten und wohl begründeten Argumenten widerlegt und reagiert dann eingeschnappt, so wie Du. Anstatt mal zu überlegen, ob man nicht vielleicht selbst falschen Fakten und Annahmen aufgesessen ist und die vorgefertigte Abneigung einen voreingenommen gemacht haben könnte.
Man kann ja durchaus der Meinung sein, dass NV zu viel Geld verlangt, aber in Frage zu stellen, dass das eine technische Innovation ist und zu behaupten, NV würde generell nie innovativ sein, ist schon extrem verblendet. Das hat dann schon die Grenze zur Religion deutlich überschritten.
Nein, das würde zu weit führen. Allerdings hat Volta Tensor Cores und eine auf Compute ausgelegte Architektur. Diese ist z.B. nicht mehr superskalar, hat separierte Integer Cores und überarbeitetes Thread Sheduling.
Naja,zumindest basieren die rt cores auf volta und sind weiter spezialisiert auf bestimmte Berechnungen.
Volta ist für diese Berechnungen aber auch schon deutlich besser geeignet als pascal.
Niemand dreht sich etwas hin, du hast nur den Inhalt des Beitrags von ZeroZerp nicht verstanden.
Ich habe es dir so konkret wie möglich erklärt was mit 10x mehr Performance gemeint ist.
Alle anderen können und wissen nichts, nur nVidia macht es richtig und ihr seid die einzigen, die alles schon im Vorraus wissen. Irgendwann ist es auch mal gut mit dem missionieren.
Hat halt nur niemand behauptet. Nvidia hat Raytracing nicht für sich gepachtet, aber um eine möglichst genaue und korrekte Darstellung ohne Einschränkungen zu erzielen, wird auf Dauer nur der Brute-Force Ansatz erfolgversprechend sein.
Eine Liste der Limitationen:
Und da geht es erstmal nur um SVOGI
Current Limitations
Large scale AO and indirect shadows may be cast properly only by static geometry.
GI is not working on some forward rendering components like particles or water.
Some artifacts like ghosting, aliasing, light leaking and noise may be noticeable in some cases.
Procedural vegetation and merged vegetation do not cast occlusion or secondary shadows.
If the camera is teleported to a completely new location it may take up to a few seconds until occlusion is working properly.
Only objects and materials with enabled shadow map casting may produce proper bounced light.
For dynamic objects indirect light bounce is working only in the areas near voxelized static geometry.
Bounce light may have a noticeable delay of 1-2 frames.
r_Supersampling = 2 makes GI look strange but setting lower LowSpecMode (2X lower) pretty much restores the look and speed. Temporal AA (r_AntialiasingMode 2/3) works just fine.
In jedem Thread mittlerweile dasselbe gelobpreise von nVidias überlegener RTX Technik. Die leider für alle anderen, die nicht nur durch eine grüne Brille gucken, nur eins bewiesen hat: Die Technik die nVidia da zusammengefrickelt hat in einem halben Jahr (Nicht meine Aussage) ist halt nicht fertig und keiner hat wirklich Lust RTX zu implementieren
Einfach nur traurig dass in einem Forum wichtig ist welcher IHV Dinge nach vorne bringt und unterstützt und somit für alle anderen (Intel, AMD) die DXR nicht unterstützen, nur wegen eines Markenfetisch abgekanzelt wird.
Bei dir sieht man dass du nicht die Bereitschaft hast dich etwas in das Thema einzulesen und lieber Stammtischparolen aus der Hüfte schießt.
Ihr könnt schreiben was ihr wollt , muss man eine bestimmte Hardware nutzen um ein Feature nutzen zu können ist das ganz bestimmt kein Vorteil .
Der Anteil der RTX Karten mag mittlerweile leicht angestiegen sein , jedoch glaube ich nicht das sie überhaupt 5 % ausmachen in der Gesamtzahl aller Desktop GraKa und auch nur wenn man es auf den Desktop beschränkt .
Mag Cryteks Ansatz Limitierungen haben und sich auch nur auf Reflektionen beschränken , vollkommen egal , es sieht ganz gut aus , besser als die vorhergehenden Verfahren und wird sich , meiner Meinung nach , eher durchsetzen als ein hardwarelimitiertes Verfahren
Man merkt es doch daran wie schleppend RTX Games rauskommen , die RTX Grakas sind seit 6 Monaten raus und die Anzahl der Games mit entsprechendem RT kan man immer noch mit einer Hand abzählen .... , trotz der NV Liste beim Launch von Games die " bald " verfügbar sein sollten .... https://www.computerbase.de/news/gaming/nvidia-rtx-plattform-21-spiele-raytracing-dlss.64653/
Nvidia RTX-Plattform: 21 Spiele sollen Raytracing und DLSS unterstützen