Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAuch für Radeon: Crytek zeigt Raytracing-Demo für kommende CryEngine
Tolles Demo. Gefällt mir sehr gut. Und das auf einer einfachen RX VEGA 56. Ich würde sagen ab 2020 sollte RT für alle Mid- Highend Grafikkarten umsetzbar sein, egal ob grün oder rot. Dann haben die Spielentwickler auch alle Endkunden im Boot und können somit die Grafikpracht allen anbieten und nicht nur Team Grün.
@ZeroZerp das forum hier ist halt einfach ziemlich fanboyverseucht was sehr schade ist.
Es gibt immer mal wieder gute Diskussionen und gespräche, aber viel zu häufig wird unfundiertes halbwissen verbreitet und Käse erzählt um hersteller x gegenüber y besser dastehen zu lassen.
Der Grund dafür hat sich mir noch nie erschlossen, die wollen doch alle Geld an uns verdienen ob grün blau oder rot... Keiner ist besser als der andere, man muss sich halt die Produkte suchen die den eigenen Ansprüchen genügen. Warum das bei manchen Leuten ne Rolle spielt ob die Packung rot blau oder grün ist hab ich noch nie verstanden.
Ich finds gut was crytek da macht, sieht klasse aus und ist doch top das es als techdemo offensichtlich auf standardhardware läuft.
Die Rtx Technik und kerne werden aber dadurch lange nicht obsolet, wer sich mal vernünftig in das Thema eingelesen hat und weiss was die sogenannten rt und tensor cores eigentlich tun versteht das auch.
Der Rest der Leute darf von mir aus gerne einfach weiter grünen roten und blauen Käse erzählen.
Miningüberschuss hat das nichts zu tun, Vega wurde nicht mit erhöchter produktion laufen gelassen.
AMD hat hier ihre Lektion mit Hawaii schon gehabt.
Das ist halt noch ein richtigen Abverkauf für V10 da V20 da ist und Navi kommt.
NV hats ja einen "Abverkauf" nicht mehr nötig.
Ghostshield schrieb:
Klingt nach mimimi eines Nvidia Fanboys... mimimi meine RT kerne sind besser...
Natürlich sind die das, nur für RT.
Die frage stellt sich aber nach der Verhältnismäßigkeit, im bewegten Bild bei FPS Games geht schon jetzt die Details massiv verloren (werden nicht wahrgenommen), an Photorealismus sind wir dennoch nicht im Ansatz.
Und sollte das hier so wirklich laufen, dazu noch in WQHD auf ner V7 UND wirklich in Konsolen SoCs kommen dann hat NV ein Problem.
Hab mir schon 2018 gedacht das AMD alles in die Konsolen feuern wird was geht um NV das leben von da aus schwer zu machen.
Wobei mir Lieber währe WQHD und 60FPS auf der PS5 zu sehen....so werden das wieder 30FPS Krücken.
Naja, ich denke schon, dass RT Cores insgesamt zu einem besseren Ergebnis (Performance) führen werden, wenn die Hardware sie besitzt. Ich würde dies mit den PhysiX Eigenschaften von Nvidia vergleichen. Das größte Problem ist mMn der aktuell noch relativ hohe Aufpreis für einen noch zu geringen Mehrwert.
@KlaraElfer Die vermeintlich fehlende Begründung, weswegen das Argument „Zeit“ so in dem Maße bei nVidia nicht gelten kann, hat @Aldaric87 sehr wohl geliefert. Allein nämlich schon der Fakt, daß die RT- und Tensor-Cores bei der aktuellen Generation schon nicht einmal beim Top-Modell zu einer entsprechend adäquaten Wiedergabe unter Zuhilfenahme entsprechender Effekte genügen, verbietet selbst schon einen bloß hypothetisch späteren Einsatz aufgrund fehlender Leistungsgrößen ek·la·tant.
Ergo ist man in Folge jetzt schon absehbar gezwungen, entweder die Effekte bei späteren Iterationen aufgrund zu stark einbrechender Leistung ganz zu deaktivieren (weil die Bildwiederholrate derart einbrechend wird, daß an eine flüssige Wiedergabe gar nicht zu denken ist) – oder aber man kauft sich die dann jeweils neuere Generation der RTX-Garten (welche dann hoffentlich deutlich potentere Leistungsgrößen der RT- und Tensor-Kerne mitbringen).
In beiden Konstellationen sind die RTX-Features der aktuellenRTX 20x0-Serie auf jeden Fall aber überteuerter weil toter und damit kapitaler Ballast¹;
In erster Instanz, weil die RTX-Funktionalität mangels Leistungseinbruch ohnehin nicht aktiviert werden wird, da sie keinerlei spielbare Bildraten wird erlauben werden.
In zweiter Instanz, weil die jetzt aktuelle RTX-Karte dann bereits aufgrund Austausch (gegen die dann aktuelle RTX-Generation) aus dem Gehäuse verwunden ist.
Und damit hat der Spieler bei den aktuellen Karten der RTX-Serie (in der Mehrheit) vollkommen überflüssig¹ Technik mit über Gebühr gehypter RTX-Funktionalität eingekauft, finanziert und mitgeschleppt, von dem er de facto gar keinen Vorteil hatte.
Auf der anderen Seite werden dem Argument „Zeitraum der tatsächlichen Nutzung“ aka Einsatzzeit bei den grünen Karten mit dem nVidia-typisch seit jeher gezielt knapp gehaltenen VRAM-Größen ja nicht bloß bei der aktuellen Generation einmal mehr schlicht die Beine gebrochen – in diesem Falle, mit den als Potenz wirkenden Faktor »RTX-Feature«, also gleich doppelt.
Ich vermute bin mir aber sicher, daß nVidia für den Speichergrößen-Faktor VRAM uns auch in Zukunft mit höchst kreativen Lösungen wird bereichern werden, wie sie es seinerzeit schon bei Doom, Hitman, Wolfenstein, Quantum Break, Rise of the Tomb Raider oder The Witcher 3 taten – also der Manipulation der Negative/Positive Mipmap LOD-bias. Damit kann man ja so schön viel zu kleine VRAM-Größen kaschieren, wenn den Karten obschon geschönter Verbrauchswerte bei der Effizienz eher die Puste ausgeht, als jenen der Konkurrenz.
In diesem Sinne
Smartcom
¹ Ich nenne Dinge gerne beim Wort, das Kind für gewöhnlich beim Namen und bin auch sonst ein Freund klarer Worte und kann Verklausulierungen und Neusprech nicht leiden.
@ZeroZerp
Das trifft auf das aktuell eingesetzte RTX ebenfalls zu denn für entsprechend komplexes Raytracing fehlt auch dort die Leistung, weshalb auch das mit Einschränkungen bei der Strahlenverfolgung und deren Anzahl verbunden ist. Gerade die eingeschränkte Strahlenverfolgung sieht man z.B. bei der Raumausleuchtung durch reflektiertes Licht sehr deutlich. Auch wird es gern nur auf spezielle Elemente eingesetzt und nicht den gesammten Inhalt des Bildes.
Damit wären wir dann auf dem Stand das beide Varianten nicht perfekt sind, bei der Voxel Variante aber keine spezielle Hardware erforderlich ist. Damit hast du auch schon den Hintergrund der "Euphorie". Keiner der beiden Ansätze ist perfekt, beide sind gut genug aber der Ansatz hier läuft auch auf Standard Hardware ausreichend performant.
Tolles Demo. Gefällt mir sehr gut. Und das auf einer einfachen RX VEGA 56. Ich würde sagen ab 2020 sollte RT für alle Mid- Highend Grafikkarten umsetzbar sein, egal ob grün oder rot. Dann haben die Spielentwickler auch alle Endkunden im Boot und können somit die Grafikpracht allen anbieten und nicht nur Team Grün.
Ich glaube hier wäre schon vielen geholfen, wenn AMD seinen Karten über den Treiber die DXR Funktionen frischalten würde.
Dann kann jeder wenigstens schon einmal "schnuppern" und sich selbst ein Bild von der ganzen Sache RT verschaffen und sich das in den eigenen 4 Wänden und in Action ohne Videokomprimierungsartefakte ansehen.
Dann erhält man auch eine realistische Einschätzung, was die Compute- Leistung der AMD karten anbelangt und was die in Sachen RT auszurichten vermag.
LG
Zero
Ergänzung ()
Wadenbeisser schrieb:
@ZeroZerpDamit wären wir dann auf dem Stand das beide Varianten nicht perfekt sind, bei der Voxel Variante aber keine spezielle Hardware erforderlich ist.
Durch mehrfaches wiederholen wirds nicht richtiger. Es ist auch bei RT keine spezielle Hardware erforderlich.
Die RT Kerne beschleunigen nur Rechenschritte, die es braucht um die Strahlenverfolgung durchzuführen mit fixed Function Einheiten.
Jeder Grafikkartenhersteller kann jeder x- Beliebige bis zu einem gewissen Grad Programmierbare GPU DXR kompatibel machen.
Deswegen verstehe ich nicht, warum hier von einigen Usern mit aller Gewalt versucht wird, mal wieder einen Systemkrieg vom Zaun brechen zu wollen.
Zur mangelnden Leistung der RTX- Karten. Die RT Cores reichen dicke aus.
Es sind die Shader, die die Folgeberechnungen nicht verpackt kriegen (Hit-/Miss- Shader+ Folgeroutinen), da diese im Normalfall vom Spiel mit Rasterengine ja schon bis an den Rand ausgelastet werden.
Die Spieleentwickler loten also derzeit aus, was der beste Kompromiss in Sachen Shaderleitung für die Rasteriesierung oder Auswertung der Rays ist.
Und ja- Beide varianten sind nicht perfekt. Wo man aber in Sachen RT derzeit mangels Rechenleistung nur einen Kompromiss bei der Darstellungsqualität eingehen muss, muss man bei den anderen Techniken eben genauso noch einige Kompromisse in der Szenengestaltung eingehen, dererwegen man überhaupt auf RT setzt.
Das habe ich aber jetzt so oft wiederholt, dass das inzwischen überall angekommen sein sollte.
Die Problematik ist die, dass hier ein Entwickler auf einem anderen Wege wieder mal was auf Kosten der Flexibilität bereitstellt, was "aussieht als ob".
Das ist ja aber die Essenz von RT, dass das dort eben nicht gemacht werden muss.
Die Hauptsache, warum man RT betreibt, ist die Berechnungen volldynamisch und physikalisch richtig ablaufen zu lassen (egal unter welchen Renderszenarien) und das ohne eben den Einschränkungen zu unterliegen, die die Tricksereien mit sich bringen, was hier in den Kommentaren komplett unter den Tisch gekehrt wird.
Ist ja in Ordnung- Dann können wir aber gleich wieder auf das Prebaked lighting, Lightmaps, Lightprobes, Screenspace Reflections etc. zurückgehen, da diese ja auch schon gut und "richtig" aussehen.
Ich begreife den Hintergrund der Euphorie hier nicht, nur weil man Techniken in zugegebener Maßen hübschen Komposition zu sehen bekommt, die schon länger am Markt eingesetzt werden.
Um das in den richtigen Zusammenhang zu setzen beudeuten einige der Aussprüche hier nichts anderes als:
Wir brauchen kein RT, weil man die mit der Technik moderner rasterbasierter Engines unter Einschränkungen der dynamisierung von Szenen annähern kann.
No shit, sherlock?
Und das lässt nur folgende Schlüsse zu:
1.Es herrscht kein Verständnis dafür, was RT ist, was es macht und warum NVIDIA, Microsoft und der eine oder andere Entwickler überhaupt den Real deal, also diesen rechenintensiven Schritt geht.
2.Der übliche NVIDIA vs AMD Flamewar wird hier ausgelebt.
3.Einigen Usern reicht die grafische Qualität und die Flexibilität der Szenengestaltung moderner Titel aus.
4.Die RT- Technik ist kollateralschaden eines Krieges, der gegen NVIDIAS Preisgestaltung geführt wird.
Denn komischer Weise ist die Aussage der "kritischen" User, wenn man sie mal argumentativ etwas in die Enge treibt, dass sie selbst die RT- Technik für gut halten, aber nicht zu dem Preis.
Hier wird also nur aufgrund des Preises, Markenfetisches und der (darus zu Teilen bestimmt auch ursächlichen) eigenen Mangelinformation (kommt ja hier immer wieder auf, dass DXR proprietär sei und nur von NVIDIA unterstützt werde) einer überlegenen Technik der Tod gewünscht.
Muss jeder für sich selbst bewerten, was das für einen Sinn haben soll.
Soso, also sachliche Diskussion..
1. DXR ist die Schnittstelle, jeder Hersteller kann es implementieren, wie er möchte.
2. Nvidia verwendet kein richtiges Raytracing, auch ihre Version ist angepasst. Man benötigt bei ihrer Implementation weder RT- noch Tensorkerne. RT- beschleunigen lediglich die Berechnung erheblich je nach Szene. Tensorkerne gehören eigentlich nicht dazu, höchstens bei DLLS.
3. Voxel based RT ist auch eine Customlösung, die die DXR Schnittstelle benutzt. Es handelt sich um die erste Demo. Wie wäre es, wenn man der Lösung 1 Jahr lang Zeit gibt, bis man sie richtig evaluieren kann? RTX wurde gerade mal in 2 Spielen teilweise implementiert und das mit Vorentwicklung und Entwicklerunterstützung seitens Nvidia. Software braucht immer länger..
4. Es liegt an der Natur der Sache, dass Kunden ,und nicht irgendwelche Fanboys an einer proprietären Lösung nicht interessiert sein können. Das bringt nur Nachteile dem Verbraucher. Ich mag RT als Feature und wünsche mir schnellst möglichr Verbreitung, aber Vendorlocking und Highendexklusivität würden das Feature langfristig begraben. Die Kritik ist also völlig berechtigt.
@Topic:
Was man nicht vergessen sollte, eine Vega56 hat richtig viel Compute Power, also Brute Force. Ich denke nicht, dass die Lösung auf Nvidia-Karten performant laufen wird, sprich RT auf Pascal. Viel wahrscheinlicher ist es, dass Voxel-RT dank RT Kernen besser auf RTX Karten und schwächer aber passabel auf rechenstarke AMD VGAs laufen wird.
@ZeroZerp
Kommt jetzt wieder der Ignorant in dir durch der die Textabschnitte ausblendet die ihm nicht passen? Ich hebe ihn nochmal extra für dich hervor:
Keiner der beiden Ansätze ist perfekt, beide sind gut genug aber der Ansatz hier läuft auch auf Standard Hardware ausreichend performant.
Bei der RTX Geschichte ist nämlich genau das der Knackpunkt. Natürlich weiss ich dass es auch von den normalen Shadern berechnet werden kann, was allerdings mit erheblichen Leistungseinbußen verbunden ist und damit für die Praxis irrelevant ist weil selbst mit RTX Hardware die Performance bereits heute grenzwertig ist.
Das ist die gleiche Luftnummer wie die beschleunigte Physik beim PhysX Einsatz von der CPU berechnen zu lassen. Möglich ist es aber aufgrund der unterirdischen Performance vollkommen irrelevant.
Der heutige RTX Ansatz erinnert eher an den PhysX Einsatz von bei Batman. Die Leistung der Grafikkarten reichte gerade so um das Cape realistisch wackeln zu lassen (die Animationen für die Auswirkungen des Luftstromes auf die Umgebung waren auch nett), wodurch an einen breit ausgelegten Einsatz nichtmal ansatzweise zu denken war.
2. Nvidia verwendet kein richtiges Raytracing, auch ihre Version ist angepasst. Man benötigt bei ihrer Implementation weder RT- noch Tensorkerne. RT- beschleunigen lediglich die Berechnung erheblich je nach Szene. Tensorkerne gehören eigentlich nicht dazu, höchstens bei DLLS.
Im Entwicklerforum steht, dass die Demo auf einem DX9c derivat aufbaut und jetzt erst einmal auf DX11/12 gehievt werden muss. Somit nein- Zumindest diese Demo hier basiert nicht auf DXR.
Es handelt sich um die erste Demo. Wie wäre es, wenn man der Lösung 1 Jahr lang Zeit gibt, bis man sie richtig evaluieren kann? RTX wurde gerade mal in 2 Spielen teilweise implementiert und das mit Vorentwicklung und Entwicklerunterstützung seitens Nvidia. Software braucht immer länger..
Wie gut dass DXR und Vulcan eben keine Herstellerproprietären Lösungen sind und jeder Grafikkartenhersteller darauf aufsetzen kann.
Ich mag RT als Feature und wünsche mir schnellst möglichr Verbreitung, aber Vendorlocking und Highendexklusivität würden das Feature langfristig begraben. Die Kritik ist also völlig berechtigt.
Leider sind bei Crytek bis jetzt alle Spiele mehr oder weniger Techdemos gewesen, und nach Ryse Son of Rome haben eher Insovenzmeldungen statt Spiele die News geprägt, hoffe, dass da mal wieder etwas gescheites kommt wie Crysis 4 (was wegen EA schwierig werden dürfte).
@ZeroZerp
Kommt jetzt wieder der Ignorant in dir durch der die Textabschnitte ausblendet die ihm nicht passen? Ich hebe ihn nochmal extra für dich hervor:
Sekundenlange Pausen bei Szenenwechsel und 30FPS sind also plötzlich wie durch ein Wunder "ausreichend performant"?
Soll das ein Witz sein- NVIDIA wird seitenweise dafür angefeindet, wenn deren Technik nicht 4K in 60FPS+ erreicht und plötzlich wären max 30FPS ausreichend performant?
Bei der RTX Geschichte ist nämlich genau das der Knackpunkt. Natürlich weiss ich dass es auch von den normalen Shadern berechnet werden kann, was allerdings mit erheblichen Leistungseinbußen verbunden ist und damit für die Praxis irrelevant ist weil selbst mit RTX Hardware die Performance bereits heute grenzwertig ist.
Siehe oben- RTX wird mit seinen um die 50FPS bei 4K als grenzwertig bezeichnet, 30 FPS im Maximum, auf die die Demo begrenzt ist, sind dann aber "ausreichend"?
Der heutige RTX Ansatz erinnert eher an den PhysX Einsatz von bei Batman. Die Leistung der Grafikkarten reichte gerade so um das Cape realistisch wackeln zu lassen (die Animationen für die Auswirkungen des Luftstromes auf die Umgebung waren auch nett), wodurch an einen breit ausgelegten Einsatz nichtmal ansatzweise zu denken war.
Irgendwo muss man ja anfangen, oder? Woher kommt die völlig realitätsferne Anspruchshaltung mancher User hier, die von einer neuen Technik verlangen, dass diese über Nacht erscheint und absolut perfekt und ausgereift funktioniert?
Das war noch nie so...
Ich begrüße den Vorstoß von Crytek. Ich mag die Engine im Gegesatz zu vielen anderen, weil sie eben oft nicht den "einfachen" Weg gehen, sondern auch gern die rechenintensiveren aber überlegene Varianten in ihre Engine packen.
Die Demo macht RT aber nicht obsolet- Und das ist das, was hier immer wieder fälschlicher Weise wiederholt wird. Gerade WEIL sie ja auch auf RT basiert.
Eigentlich steht ja im Artikel wie die tricksen damit es läuft erinnert eher an raymarching oder das System von Unity3d als an echtes raytracing...
Edit: Und an die nvidia vs amd Fraktion es ist schon ein Unterschied ob die CPU einen voxel tree erstellt der die Geometrie representiert oder die Gpu einen Bsp tree erstellt der echtzeit raytracing ermöglicht...
Ich mag die kleinen Paukenschläge Cryteks alle paar Jahre wieder, dieser kommt zum denkbar besten bzw. schlechtesten Zeitpunkt (je nach Standpunkt). Ingenieurskunst aus Deutschland (ob die Gründer Migrationshintergrund haben ist völlig gleich).
@ZeroZerp
Du willst dich endgültig lächerlich machen? Kein Problem!
Wo lief der RTX Ansatz anfangs vollkommen flüssig und wo läuft der heutige RTX Einsatz ohne die Hardware Beschleunigung durch die RT Cores flüssig, also den Modus der mit dem Ansatz hier direkt konkurrieren würde?
Ich hann mich noch lebhaft an Berichte über einen stockenden Bildfluss und unzureichende Frameraten auf highend (nicht enthusiasten) Hardware erinnern.
Stimmt genau, irgendwo muss man ja anfangen um eine Neuerung zu etablieren und dafür muss es 1. für die breite Masse nutzbar sein, 2. ein ausreichendes Ergebnis abliefern und 3. dabei ausreichend performant laufen.
Genau daran ist die beschleunigte Physik gescheitert und genau daran würde auch der RTX Ansatz bei der Durchsetzung eines Features scheitern weil es eben nicht auf der verbreiteten Hardware der Kundschaft ausreichend performant läuft und die Preislage der entsprechenden Produkte mit einer ausreichenden Performance für die breite Masse zu hoch und damit irrelevant ist.
@KlaraElfer
Ja wenn wir @ZeroZerp nicht hätten, dann würden wir alle blind durch die Nacht irren. Weil nur er, der von nVidia mit der heiligen Aufgabe betreut wurde und in ihrem Namen sprechen darf, kennt die einzige Wahrheit.
Und wenn er sagt, das Crytek schummelt, trickst und einfach nichts kann, dann muss dies so sein.
Ähm ja. Eher nicht so.
@ZeroZerp
Sie nutzen einen anderen Ansatz als es nVidia mit ihren RT Kernen macht. Das es für dich natürlich der Falsche weg ist, denn es gibt ja nur den einen wahren Weg und den beschreitet ja dein Heilsbringer nVidia, zeigt halt wie immer, das es dir NOCH NIE um die Technik Ansich geht. Sondern einzig darum, das der Weg den nVidia geht ja der einzig richtige ist.
Du hast es immernoch nicht verstanden und willst immer noch mit aller Gewalt auf eine Markendiskussion raus. Den Gefallen tu ich Dir aber nicht.
Es geht um RT- Und es gibt leider nur eine sehr rechenintensive Möglichkeit richtiges RT durchzuführen.
Der Rest geht über Tricks, die einhergehen mit Beschränkungen in der Szenengestaltung.
Und das macht dich hier und ganz besonders deinen extra aufgemachten Thread zur RT Technik (natürlich nur der von nVidia) komplett obsolet.
Mein Thread ist RTX spezifisch, nicht allgemein auf DXR gemünzt. Das ist einem ganz offensichtlichem Fakt geschuldet, da im Augenblick nur ein Hersteller diese Technik unterstützt.
Denn dir geht es nicht um Techniken allgemein in dem Bereich. Dir geht es klar nur darum allen zu zeigen wie toll doch nVidia ist und du versuchst deinen Glauben allen anderen auf zu drängen mit deinen Posts.
Nein- Mir geht es darum zu zeigen, dass man alles mit Einschränkungen immer ein wenig schneller, dafür aber auch ein wenig schlechter machen kann und dass das die gesamte Basis der Rasterisierungsengines, die wir bisher kennen ausmacht.
Und wenn es dir nicht passt, das man deine "Technische Diskussion" eben nicht ernst nimmt. Dann solltest du dich mal fragen woran das liegen könnte, kleiner Hinweis, sich nur auf eine Technik von nur einem Hersteller zu versteifen und diese als einzig wahre Lösung zu lobpreisen könnte vielleicht damit zusammen hängen.
Da ist aber Deine Voreingenommenheit das Problem und nicht meine Ausführungen. Denn was Du hier tust ist NVIDIA einen Strick daraus zu drehen, dass sie nunmal die einzigen sind, die DXR unterstützen.
Ich würde liebend gerne AMD lobpreisen, dass sie die Unterstützung für die derzeit erhältlichen Karten endlich freischalten Tun sie aber nicht.
Keiner zwingt dich im übrigen deine Sicht immer allen aufzwängen zu müssen.
Ich verstehe nicht, wie Leute aus Techniken, deren Faktenbasierung nicht härter sein könnte (0 oder 1), eine Glaubensfrage oder Religion darin sehen wollen.
Das ist völlig fehl am Platze. Es geht hier nicht um Glauben, sondern Algorithmen, Fixed Function Einheiten, BVH Beschleunigung etc.
Nicht um die Anbetung eines Gottes.
Also du hast dann auch die Freiheit, einfach nicht zu posten und nur zu lesen und mit dem Kopf zu schütteln. Ich zumindest nehme es dir dann sicher nicht übel, wenn du für dich entscheidest das ein posten keinen Sinn macht. Wirklich, ich kann das komplett verstehen und mache das oft auch so. 🤓
Hehe- Ja. Da muss man sich ein dickes Fell zulegen.
Ich bin weder ein Freund von Schnellschüssen, noch muss ich zu jedem Quark noch meinen Senf unterrühren.
Für mich wird es immer dann schwierig, wenn es eine eindeutige Faktenlage gibt, die dann durch diffuse Strömungen, die sich in Foren oftmals aufbauen "verwässert" oder teilweise auch verdreht wird.
LG
Zero
Ergänzung ()
Wadenbeisser schrieb:
@ZeroZerp
Du willst dich endgültig lächerlich machen? Kein Problem!
Was genau meinst Du? Was ist für Dich "flüssig"? Wer bestimmt, was als "flüssig" gilt?
und wo läuft der heutige RTX Einsatz ohne die Hardware Beschleunigung durch die RT Cores flüssig, also den Modus der mit dem Ansatz hier direkt konkurrieren würde?
Mangels Vergleichsmöglichkeit werden wir das jetzt nicht bestimmen können.
Ich hann mich noch lebhaft an Berichte über einen stockenden Bildfluss und unzureichende Frameraten auf highend (nicht enthusiasten) Hardware erinnern.
Worauf beziehst Du Dich? Was lief wo wann stockend auf welcher Software und welcher Hardware?
Stimmt genau, irgendwo muss man ja anfangen um eine Neuerung zu etablieren und dafür muss es 1. für die breite Masse nutzbar sein, 2. ein ausreichendes Ergebnis abliefern und 3. dabei ausreichend performant laufen.
Die beschleunigte Physik ist an der Leistung, breiten Unterstützung und Exklusivität gescheitert.
und genau daran würde auch der RTX Ansatz bei der Durchsetzung eines Features scheitern weil es eben nicht auf der verbreiteten Hardware der Kundschaft ausreichend performant läuft und die Preislage der entsprechenden Produkte mit einer ausreichenden Performance für die breite Masse zu hoch und damit irrelevant ist.
Ja- Wir sehen derzeit die erste Generation an DXR kompatiblen Hardwarebeschleunigern.
Nach Deiner Logik hätten wir überhaupt keine neuen Techniken, keinen Fernseher, keine Handies etc., weil alle technischen Neuerungen in der Einführungsphase mit den von Dir genannten Hürden zu kämpfen haben.
Hab ihn!
Das ist absoluter Unsinn, den du da schreibst.
Was glaubst du eigentlich wieviele Jahre DX12 in der Entwicklung war und wer alles daran mitgearbeitet hat?
Andere Seiten welche die NDA von Nvidia nicht unterschrieben haben berichteten bereits in der Vergangenheit darüber dass RT-Cores nicht notwendig sind um Raytracing mit der GPU darzustellen.
ich finde die demo überaus gefällig. hoffentlich wird es auch in den anderen (verbreiteteren) engines bald analoge features geben, die dann auch in möglichst vielen spielen zum einsatz kommen.
wichtig ist, dass hier keine proprietären bereiche geschaffen werden, sondern standards, die von jeder (modernen) hardware zu nutzen sind.
der lohn wird ein extrem gesteigerter immersionsgrad sein,
- auf in die zukunft ...
Allein nämlich schon der Fakt, daß die RT- und Tensor-Cores bei der aktuellen Generation schon nicht einmal beim Top-Modell zu einer entsprechend adäquaten Wiedergabe unter Zuhilfenahme entsprechender Effekte genügen, verbietet selbst schon einen bloß hypothetisch späteren Einsatz aufgrund fehlender Leistungsgrößen ek·la·tant.
Schön geschrieben, aber wie kommst du darauf das die performance nicht stimmt?
Da wiedersprichst du so ziemlich allen technikjournalisten und Erfahrungswerten.
Das es unter 4k evtl dünn wird stimmt, aber die Performance unter 1440p und 1080p ist durchweg spielbar, vor allem auf den grossen (ab 2080) rtx Karten.
Wo genau ist da bei bf5 beispielsweise das Problem?
Entweder willst du nur provozieren oder bist schlecht informiert.