Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsSystemanforderungen: Resident Evil Village hat erst mit Raytracing Hunger
Hat niemand etwas anderes behauptet. Aus dem Stand heraus auf 3070 Level für die grossen RDNA ist doch nicht übel.. das hatte nämlich auch keiner erwartet, sondern eher Pascal Level.
Früher oder später wird sich die Ausrichtung bzw. Architektur ändern und es wird, wenn entsprechende Leistungsfähigkeit ohne dedizierte fixed- Function Einheiten zu erreichen ist, wieder einen unified Ansatz geben.
Ist bei den Grafikkarten immer so. Neue Technik wird eingeführt. Diese ist dann in den ersten Generationen meist nur durch spezialisierte Einheiten nutzbar.
Die Art und Weise des Renderings entwickelt sich weiter/verschiebt sich+ Die Hardware entwickelt sich weiter.
Dann gehen die Spezialisierten Einheiten meist wieder in flexiblen, integrierte Einheiten auf.
@.Sentinel. @Shoryuken94
ja gut dann etwas anderes ausgedrückt. die gpu hat RT cores und selbst damit frisst es leistung. wozu dann die RT cores? wenn selbst eine 1080ti eine RT leistung einer RTX2060 (quelle such ich noch) auf den tisch bringt, wozu werden dann mehr oder weniger dedizierte ray tracing einheiten genutzt? könnte dies nicht anders/besser gelöst werden?
Grundsätzlich kannst du die benötigten Berechnungen für Ray Tracing auch ohne dedizierte Rechenkerne berechnen. Du brauchst dazu nicht mal eine Grafikkarte. Es ist halt deutlich langsamer. Die RT Cores sind einfach gesagt Einheiten im Grafikchip, die speziell auf die Berechnung der RT Effekte ausgelegt sind.
Du beschleunigst die Berechnung durch den Einsatz dieser Einheiten deutlich. Trotzdem brauchen Sie natürlich Leistung. Diese fixed Function Blöcke sind aktuell der effizienteste Weg, um genug Rrechenleistung bereitzustellen. AMD geht dabei schon den Ansatz diese Funktionen möglichst gut in die Architektur zu integrieren um so den zusätzlichen Aufwand im Chip gering zu halten.
Blöd gesagt, du hast auch nur eine Grafikkarte, weil diese deutlich effizienter die stark parallelisierten Grafikberechnungen ausführen kann. Dein 3900x kann theoretisch auch jedes moderne DirectX 12 Spiel mit Ray Tracing berechnen. Ist im Vergleich zu der speziell auf Grafikberechnung zugeschnittenen GPU Architektur aber quälend langsam. Das gleiche gilt für Ray Tracing. Du kannst das im Software Modus auf den normalen Shakern der Grafikkarte berechnen lassen (sehr langsam) oder du nutzt spezielle Recheneinheiten, die darauf ausgelegt sind. Ohne die RT Cores könntest du auch mit einer 6900XT oder 3090 kaum in 1080p mit RTX spielen. Die 1080Ti schafft beim Einsatz von vielen Rays keine spielbaren Framerates. Nicht mal in 1080p.
AMD gibt beispielsweise an, dass die RT Einheiten ca. um die Faktor 10 die Berechnungen beschleunigen. Statt einem 800 CU Chip mit 3000 Watt (was nicht umsetzbar wäre) hat sich also AMD für den eleganteren Weg entschieden und einen 80 CU Chip mit RT Cores entschiede.
Hört vielleicht nun das Mimimi von wegen "Für nvidia optimierte Raytracing Titel" auf?
Die 6900XT mit RT auf Niveau der 3070 sieht man nämlich in bisher fast allen Raytracing Games genau so. Aber da hieß es ja dann immer, dass das daran läge, dass auf Nvidia optimiert wurde.
Mensch jetzt kannst du endlich gut schlafen und weißt das deine Kaufentscheidung bei Nvidia die richtige war. Gott sei Dank! Und die 6900XT ist ja auch 25% schneller als eine 6800. Da bin ich mal gespannt wenn die Benchmarks kommen.
Jedes Mal der gleiche beschissene Fanboy-Krieg. Der ist so sicher wie das Amen in der Kirche. 🤮
Wir haben hier ein fast gleiches System: 3900x/5900x im ersten steckt eine RTX 3080, im zweiten eine 6900xt. Beide befeuern je einen baugleichen WQHD 144 Hz Monitor.
Es geht, es läuft auf beiden System quasi gleich. Beide sind undervoltet und auf 144 FPS kastriert. Da ist nicht bei einem die unspielbare Ruckelorgie, auch mit RT-ON nicht.
Hört doch bitte auf, eure eigene Kaufentscheidung als DAS Nonplusultra hinzustellen und bis aufs Letzte zu Verteidigen, nur um euch besser/bestätigt zu sehen. Ob ich nun BMW, Lexus oder Benz fahre ist genauso wurscht, alle bringen mich von A -> B.
Das hat nichts mit Raytracing zu tun, wie stark die Effekte "übertrieben" werden.
Das kannst Du mit jedem beliebigen Rasterisierungs- Effekt ebenso an die Spitze treiben (man erinnere Sich an die grauenhaft übertriebenen Motion- Blur, Bloom, fake HDR und chromatic aberration- Orgien).
Da hat er nicht so unrecht! wenn man sich Battlefield 5 mal anschaut mit RTX dann kommt man sich teilweise schon stark wie in einen Spiegelkabinett vor Meister Proper lässt grüßen xD
Also dass Raytracing ordentlich Leistung frisst stimmt ja, aber keinen Unterschied sehen? Sorry, entweder ist man da blind oder man redet sich das sein.
Ich jedenfalls, freue mich, wie Hammer Watch Dogs Legion, Control, Cyberpunk 2077, BF5, The Medium, Shadow of the Tomb Raider, ManEater oder Metro mit meiner RTX 3080 aussehen!
Ich könnte dir jetzt auch Pfützen aus Battlefield 5 zeigen die nicht poliert sind aber so aussehen xD
einfach Stellenweiße zu übertrieben! aber lassen wir das. RTX ist sowieso Geschmackssache, die arme Reinigungsfrau die das polieren muss tut mir leid xD
Ich lese in den verlinkten Beispielen kein AmD fanboygetrolle. Ist doch alles ziemlich gut sachlich dargestellt. NV hat einen zeitlichen Vorsprung und hier und da gesponsert. Das kann Amd noch nicht vorweisen (godfall evtl).. Wo steht dort, das amd ausschließlich aufgrund der NV gesponsorten RT Titel in RT hinten liegt?
Oder willst du etwa behaupten, das Rdna bei den in Zukunft von AMD gesponsorten titeln weniger profitiert als Ampere? Natürlich hat das einbringen eines Herstellers einen positiven impact auf die performance zugunsten seiner hardware. D.h. doch aber nicht automatisch, das AMD in seinen Titeln nun Ampere in RT auf einmal überrennt. Dein kommentar zielte aber genau in diese Richtung. Das stimmt einfach nicht (oder habe ich Tomaten auf den Augen und kan das bei deinen verlinkungen beim besten Willen nicht erkennen). Fakt ist, das die Konsolen der kleinste gemeinsame Nenner sind und sich multi titel danach ausrichten. Bis auf ein paar Leuchtturm Projekte von NV wird die AMD hardware dir kommenden jahre sehr wahrscheinlich ausreichend performant für das bischen RT sein, was die Konsolen in der Lage sind zu stemmen.
Schon witzig. Jahrelang die Comicgrafik gewöhnt, die keine richtigen Materialeigenschaften berücksichtigt und dann meinen, RT wäre "übertrieben".
Wie soll RT übertrieben sein, wenn wir uns wahrscheinlich einig sind, dass CGI bzw. offline gerenderte Bilder der Realität am nächsten kommen. Die sind - Überraschung - mit Raytracing entstanden.
Bei RT Reflexionen werden eben von glatt bis matt sämtliche Materialeigenschaften berücksichtigt. Entsprechend stark oder weniger stark wird das Licht gestreut oder gespiegelt.
Marmor ist nunmal verdammt glatt und spiegelt entsprechend.
Man kann die Entwickler eher darauf drängen, weniger Marmor, Glas und poliertes Holz ins Spiel zu bauen. Aber RT die Schuld daran zu geben ist so, als würde man seinem Spiegel die Schuld geben, dass man sich hässlich fühlt.
Das tolle an RT ist ja jetzt, dass es "einfach funktioniert". Die Entwickler müssen nicht mehr versuchen in Rastergrafik irgendwelche Effekte einzubauen, die "irgendwie so ähnlich" aussehen, wie die Realität. Bei (Full)RT passiert praktisch jeder einzelne der zahlreichen Effekte, die man in der vergangenheit per hand programmieren musste ganz automatisch, da man das Verhalten von Licht im wahrsten Sinne simuliert. Das ist vorher nicht passiert. Man hats nur so aussehen lassen.
Mit RT in Minecraft kann man sogar ne Lochkamera bauen. Und kein Entwickler musste das explizit implementieren. Es passiert einfach automatisch, weil Lichtstrahlen simuliert werden.
Erstmal geht es nicht um eine 3070 sondern um eine 3090 OC. Eine stärkere GPU gibt es aktuell nicht, folglich ist dies auch die GPU, die am häufigsten durch eine CPU ausgebremst werden kann.
Du musst dir nur die CPU Benchmarks anschauen, die hier auf CB sogar nur mit der 3080 gemacht wurden, da trennen den 8700K und den 5900X schon mal 33% bei den average FPS und satte 41% bei den Perzentilen, mit einer 3090 wären es nochmal ein kleines bisschen mehr, der 8700K bremst die 3090 also deutlich ein.
Und zu deinem Setup:
Die 3090 ist mehr als dreimal so schnell wie deine 1070. Nutzt man nun auch noch DLSS in Spielen, die es unterstützen, werden da auch schnell viermal draus.
Ist sein 8700K drei bis viermal so schnell wie dein 3770K, um das Verhältnis zwischen GPU und CPU Load gleich zu halten?
Ergänzung ()
epixxcry3 schrieb:
Ich könnte dir jetzt auch Pfützen aus Battlefield 5 zeigen die nicht poliert sind aber so aussehen xD
Dagegen könnte man sich auch echte Pfützen ansehen^^
Man kann sich bei Battlefield drüber beschweren, dass in den Pfützen sehr viel Dreck drin sein müsste und sie deshalb genau in diesen Szenen nicht so aussehen würden, aber ganz generell können Pfützen eben so spiegeln, es obliegt den Entwicklern, wie stark sie das tun. Und natürlich wird in den Anfängen des RTRT erst mal alles so gestaltet, dass es den Unterschied möglichst gut im Vergleich zeigt.
In ein paar Jahren wird das nicht mehr so sein und alles wird einfach nur "korrekt" aussehen, ohne dass man als Spieler großartig denkt "Wow, welch coole RT Effekte", denn das ist letztendlich das Ziel von RT.