Bericht Radeon RX 7900 XTX & XT: AMD RDNA 3 startet am 13.12. für 999 & 899 USD

Einerseits:
Eli0t schrieb:
Wenn das Spiel so lahm ist, juckt das auch nicht... Und bei welchen Spiel juckt der Lag nicht? Flight Simulator und Schach :D Aber bei Schach brauch ich keine 240fps :D

Andererseits:
Wen juckt das, ob die 5,10 oder 15% langsamer sind?
Jetzt musst Du Dich halt mal entscheiden?

Der Lag Nativ vs DLSS3 ist bei DLSS3 niedriger. Und das bei mit FG erheblich gestiegener Framezahl.
Konntest Du vor dem ganzen DLSS&CO Gedöns keine Spiele spielen, weil alle Laggy waren?

...Das sieht man auch bei der 4090 bei einigen Spielen, wo die brachiale Anzahl der ALUs einfach wenig bringt.
Das wird sich erst bei neuen Spielen richtig zeigen, die dafür auch entwickelt wurden.
So sieht es aus.


Eli0t schrieb:
Auch für Dich: Eher friert die Hölle zu.
...Die Karten werden knapp gehalten, die Leute kaufen Sie trotzdem, egal was sie Kosten.
Ja- Knapp gehalten aber nicht von den Fertigern oder NVIDIA. Das wäre finanzieller Selbstmord, die Produktionsstraßen zu drosseln oder zu stoppen, wenn die Kapazitäten gebucht sind.

Jeden, der sich auch nur annähernd mit Computergrafik und einer weiteren möglichen Zukunft mit Qualitäts- und Geschwindigkeitssteigerung auseinandersetzt. Nebst dem der das einfach in seinen Spielen einschaltet und nicht mehr mit kaputter Grafik zu leben hat.

Es fällt mir auf, dass symptomatisch demjenigen, dem es bei DLSS3+Framegeneration auffält, wenn in einem Frame den Bruchteil einer Sekunde kleine Teilbereiche inkonsistent sind, dann komischweise überhaupt nicht stört oder auffällt, wenn z.B. bei Screenspace- Reflections beim Perspektivwechsel teils der Effekt über große Bildschirmbereiche komplett und über die gesamte Szenendauer wegglitch. Denen fällt komischer Weise auch oftmals nicht auf, dass Objekte beleuchtet scheinen, obwohl sie in einer schattigen Ecke stehen....
Irgendwie merkwürdig, nicht?

Eli0t schrieb:
Das Spiel liegt AMD nicht, weil die PC-Portierung die AMD Optimierungen ENTFERNT hat. Weil Entwickler dumm.
Ja- Ganz, ganz sicher. NVIDIA stand mit dem Geldkoffer vor der Tür und hat die Entwickler dafür bezahlt mal eben einen Teil der bereits erstellten und QA getesteten Renderpipeline wegzuwerfen.
Aluhut bitte absetzen.

mcsteph schrieb:
Für mich zählt Spielspaß und kein RT.
In Metro Exodus Enhanced erhöht RT die Immersion und Atmosphäre -> Höherer Spielspaß.

RT ist ein Hype ähnlich 3D,VR, PhysX oder DLLS usw.
Für die Tester scheint auch nichts anderes mehr zu existieren. Tests in der normalen Auflösung ohne diese Gimmicks werden immer weniger.
Zum Glück nimmt man auf Blockierer des Fortschritts in diese Richtung keine Rücksicht.
Effizienter werden bei realistischerem und qualitativ hochwertigerem Rendern ist angesagt.
Im Nachhinein wird der größte Gegner die Entwicklung sowieso adaptieren und sich dann auch irgendwann einfach über fehlerfreiere und immersivere Grafik freuen können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FiRAS, Sirhaubinger, rumpeLson und 2 andere
mcsteph schrieb:
RT ist ein Hype ähnlich 3D,VR, PhysX oder DLLS usw.
Für die Tester scheint auch nichts anderes mehr zu existieren. Tests in der normalen Auflösung ohne diese Gimmicks werden immer weniger.

Dies ist komplett falsch und erstaunlich, dass dieser Unsinn immer noch wiederholt wird. Ray-Tracing ist kein "Gimmick", sondern die Renderingtechnik der Zukunft, auch wenn dies noch lange dauern wird bis wir so weit sind, dass RT das Rasterizing ersetzen kann.

Um es hoffentlich mal etwas anschaulich zu erklären, auch wenn ich fürchte, dass dies bei Leuten, die RT immer noch für ein "Gimmick" halten, vergebene Liebesmüh ist:

Ray-Tracing ist die Simulation sichtbaren Lichts. Was wir als Menschen sehen, ist sichtbares Licht. Das kann man ganz einfach nachvollziehen, gerade jetzt in der dunklen Jahreszeit, wo es früh dunkel wird.
Stell Dich nachts in ein Zimmer und schau Dich um, dann schalte das Licht aus. Zack. Alles dunkel und Du siehst "nichts" mehr.
Warum? Sind die Gegenstände und der Inhalt des Zimmers magisch verschwunden? Nein. Es strahlt nur kein Licht mehr und es werden keine Photonen mehr von den Gegenständen und der Umgebung auf Deine Netzhaut reflektiert. Das sichtbare Licht ist weg.

Wir Menschen benötigen eine bestimmte Menge sichtbaren Lichts, um Dinge zu sehen. Dieses Licht besteht aus Strahlen (rays), die von der Umgebung -wie beschrieben- reflektiert werden. Wie wir die Dinge sehen, wird durch zahlreiche Faktoren beeinflusst, weil die Strahlen in den seltensten Fällen einfach in einer geraden Linie auf unser Auge treffen. Das ist nur der Fall, wenn man direkt in die Lichtquelle glotzt, was gerade bei der Sonne das Prädikat besonders wenig empfehlenswert verdient :D .

Man könnte nun aber jeden Lichtstrahl von der Entstehung zu dessen Auftreffen auf unser Auge zurückverfolgen (englisch "trace" = Spur/Verfolgung usw.).
Und zack sind wir beim Ray-Tracing, wenn wir nun sichtbares Licht bzw. dessen Strahlen verfolgen und dieses Licht möglichst naturgetreu simulieren.

Es dürfte nun vielleicht klar sein, warum hierin der "heilige Gral" der Grafikprogrammierung liegt. Bisher muss man extrem aufwendig die Realität am Computer nachbilden, sich vieler Tricks behelfen und Lichtquellen manuell setzen usw. etc. pp.
Mit Ray-Tracing wird es irgendwann (dauert vermutlich noch das eine oder andere Jahrzehnt, aber man muss ja klein anfangen wie jetzt :D ) möglich sein, dass man einem Programm einfach bestimmte Variablen vorgibt, z.B. ein Zimmer oder eine Landschaft und eine Uhrzeit und das Programm rendert per Ray-Tracing vollautomatisch dieses Zimmer inklusive der korrekten Beleuchtung, Schattenwurf usw. alles komplett originalgetreu so als ob sich ein menschliches Auge in der virtuellen Realität befinden würde, welches durch das reflektierte Licht diese Umgebung wahrnimmt.

Da die Echtzeitberechnung von sichtbarem Licht, also "rays", extrem rechenintensiv ist, müssen wir uns anno 2022 noch damit zufriedengeben, dass wir Lichtquellen und deren Effekte auf die Umgebung nur sehr partiell abbilden können, z.B. die Reflexion von Licht an spiegelnden Objekten oder der Schattenwurf.

Mit der Zeit und mit zunehmender Rechenleistung wird Ray-Tracing aber immer interessanter und wichtiger werden. Es ist der feuchte Traum eines jeden Entwicklers, wenn man die "global illumination" (also Lichtquellen) durch Ray-Tracing komplett ersetzen könnte, denn das würde pro Spiel alleine schon viele tausende Mannstunden an Arbeit einsparen.

Ich hoffe doch sehr, dass nun eventuell endlich klar geworden sein könnte, warum Ray-Tracing kein "Gimmick" ist und warum es "here to stay" ist. Wenn nicht vorher irgendwelche Wunder mit Quantencomputing passieren, dann wird Ray-Tracing im klassischen Computing eines Tages hoffentlich wirklich der heilige Gral der Grafikprogrammierung werden, den sich die Entwickler seit Anbeginn der Grafikprogrammierung erhoffen (die Grundidee von RT ist ja so alt wie die Programmierung an sich, also die Hoffnung existiert schon seit Jahrzehnten) ...
 
  • Gefällt mir
Reaktionen: Neubauten, av4l, FiRAS und 4 andere
Vitali.Metzger schrieb:
Sehe ich genau so, zumal RTX in der UE5 softwareseitig implementiert werden kann. Daher werden wir unter Umständen das selbe Erleben wie zu seiner Zeit PhysX.
Alle Dinge sind immer Softwareseitig implementiert. Es ist immer nur die Frage, wie schnell und genau das läuft.
 
.Sentinel. schrieb:
Ja- Knapp gehalten aber nicht von den Fertigern oder NVIDIA.
Aktuell leider doch von NVIDIA. Gibt Berichte. Sie haben die 4090 Produktion zurückgefahren zugunsten der Hopper Datacenter GPUs erstmal und auch um in der Weihnachtszeit Leute Richtung 30er Serie zu pushen.
Der Re-Supply von 4090er Karten erfolgt nur in sehr homöopathischen Dosen.

@mcsteph Zum Thema Raytracing und "Gimmick": Ich denke dass das so sein wird wie mit seinerzeit Antialiasing. Damals bei Einführung war das Einschalten der Antialiasing Technologie der Tod für die fps Zahl. Mittlerweile kostet TAA einschalten kaum noch Rohleistung und niemand will mehr mit Treppchenbildung spielen während damals auch Leute gesagt haben "Wer braucht das denn schon?"
Zumal wie der Vorposter es sagte, Raytracing hilft extrem Zeit einzusparen bei der Entwicklung. Es geht aktuell super viel Zeit rein ins baken von Licht, Reflexionen oder Schatten in statischen Umgebungen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85, rumpeLson und .Sentinel.
th3o schrieb:
Aktuell leider doch von NVIDIA. Gibt Berichte. Sie haben die 4090 Produktion zurückgefahren zugunsten der Hopper Datacenter GPUs
Ich dachte das wären Gerüchte.

erstmal und auch um in der Weihnachtszeit Leute Richtung 30er Serie zu pushen.
Der Re-Supply von 4090er Karten erfolgt nur in sehr homöopathischen Dosen.
Man hat halt mal wieder die Nachfrage unterschätzt. 4090 waren zum Launch wirklich in großen mengen verfügbar. Überhaupt kein Vergleich zu den CPU oder GPU Launches davor.

Zum Thema Raytracing und "Gimmick": Ich denke dass das so sein wird wie mit seinerzeit Antialiasing. Damals bei Einführung war das Einschalten der Antialiasing Technologie der Tod für die fps Zahl. Mittlerweile k...it Treppchenbildung spielen während damals auch Leute gesagt haben "Wer braucht das denn schon?"
Genau so ist es... Wollte eigentlich genau dieses Beispiel oben noch anbringen, aber Wall of Text und so.

Zumal wie der Vorposter es sagte, Raytracing hilft extrem Zeit einzusparen bei der Entwicklung. Es geht aktuell super viel Zeit rein ins baken von Licht, Reflexionen oder Schatten in statischen Umgebungen.
Nebst dem muss der Artist auch ständig Regeln befolgen, wie er ein Level zu designen hat, damit die Rasterengine das auch packt.
 
  • Gefällt mir
Reaktionen: Ragnarök88
Zum Schreien lustig finde ich die Tatsache ,dass die gesamte Preisdiskussion hier darauf basiert, dass man eine Einmalinvestition tätigt und man bis alle Ewigkeit mit einer Karte ausharren soll und/oder die Karten anscheinend keinen Restwert haben bei einem Wechsel.

Wenn ich schon so lange mit einer Karte gedenke zu leben dann würde ich mich für die bessere Karte entscheiden zumal wenn der Einstieg eh teuer genug war denn was spielt selbst ein Preisaufschlag von sagen wir 500 Euro eine Rolle über einen Zeitraum von 5 bis 10 Jahren. Für welche Karte würdet ihr euch entscheiden ohne jegliches Preisschild?

Die NV Karten mögen in der Anschaffung teurer sein ,können aber auch mehr,völlig egal ob man das Alles persönlich braucht, und deshalb bekommt man auch bei einem zeitigen Verkauf (bevor eine neue leistungsfähigere eventuell günstigere Gen. erscheint) auch mehr für seine Karte, sodass der preisliche Abstand bei Verkauf zum grössten Teil gewahrt wird, in den niedrigeren Preisklassen besser als in den Höheren.
 
Tornavida schrieb:
und deshalb bekommt man auch bei einem zeitigen Verkauf (bevor eine neue leistungsfähigere eventuell günstigere Gen. erscheint) auch mehr für seine Karte,
Erzähl das mal den Leuten die vor dem Launch der 30er Karte ihre 20er Karten fürn Appel und Ei verkauft haben, dann kam Corona und der Miningboom und dieselben Karten die sie für 600 verkauft haben waren auf einmal 1000 wert.
Außerdem die Karte verkaufen vor Launch der neuen ist nach der Seite merkwürdig weil: Was machst du dann Wochen oder Monate lang wenn du spielen willst aber die neuen Karten ständig weggeniped werden aus den Shops? Ja du hast unter Normalumständen (ohne Pandemie) vielleicht 100-200€ mehr für deine alte Karte bekommen, aber wenn das dann bedeutet dass ich einen Monat lang oder mehr ohne Gaming Karte hier sitze dann sch ich auf diese Mehreinnahmen.
Ein Freund von mir hat das nämlich damals so versucht, der hat seine 2080ti verkauft weil er zum launch eine 3080 holen wollte. Der Junge musste 2 Monate warten bis er wieder spielen konnte. Ungeil.
Dieses frühzeitige Verkaufen lohnt sich für mich jedenfalls nicht wenn man das Gesamtbild betrachtet und nicht nur den Geldbetrag. Wenn ich nicht spielen kann dann habe ich "emotionale Kosten" die ich mitberechnen muss. Gaming ist für einen Gamer Entspannung fürs Hirn, man fühlt sich gut, es ist notwendig um den Stress des Alltags abzubauen, wie für andere Leute eben eine andere Beschäftigung die ihnen hilft im Gleichgewicht zu bleiben. Das einfach abschneiden ist nicht immer schlau nur weil man nen Taler mehr verdienen möchte.
 
Ob man seine Ware zu überhöhten Preisen einkauft oder seine Ware fürn Appel und Ei verkauft liegt an einem selbst. Als Orientierung dient die UVP als Base.

Etwas Glück und Geschick gehört zum Leben und meist hilft auch eine vernünftige Prioritätensetzung um nicht verzweifelt einen Psychiater aufsuchen zu müssen. Mehr fällt mir zu deinem zweiten Absatz und dem Schicksalsschlag deines Freundes nicht ein.
 
.
Oggy666 schrieb:
1200.- für eine GraKa sind kein guter Preis... egal wie man das betrachtet... 👎
Ja, bin auch etwas verwundert, warum der Preis so abgefeiert wird, nicht nur hier. Zeigt, dass solche Preise offenbar als normal angesehen werden und günstiger als die Konkurrenz zu sein ausreicht. Was hier fehlt mMn sind Modelle in den unteren (Preis) Klassen. Dabei zeigte neulich erst die Umfrage, das für die meisten die Schmerzgrenze bei 700EUR liegt.

Eine zusätzliche 16 GB oder gar 12GB Variante mit ein paar TFlops weniger würde es 2023/24 auch noch machen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Matthias80 schrieb:
Wie engsinnig. Was grundlegendes wie 2D und 3D mit einem bildaufhübschenden grimmig zu vergleichen? Dein Text vorher mal auf Realität gegen gelesen?
Keine Ahnung ob du die Zeit damals miterlebt hast. Aber der Schritt von Software-3D auf Hardware-3D war damals auch "nur" eine Aufhübschung der Textur-Filterung und wesentlich höhere FPS. Im Prinzip also das was DLSS heutzutage bringt.
Aber so wie du in diesem Thread gegen Raytracing, DLSS & Co lederst ist da eine weitere Diskussion mit dir vermutlich sinnlos. Es steht dir natürlich frei auch die nächsten dreißig Jahre noch auf volles natives Rasterizing zu setzen und jegliche neuen Entwicklungen zu meiden wie der Teufel das Weihwasser.
Der Vorwurf der Engstirnigkeit gebe ich somit dankend zurück.
Ich persönlich feier auch weiterhin Raytracing, DLSS, Adaptive Sync, HDR und jeden weiteren technologischen Fortschritt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FiRAS und IchBins237
@ThreepQuest64

Günstigere Modelle gibt es doch. Die heißen aber noch RX 6xxx und RTX 3xxx. Unabhängig von AMD oder nVidia werden diese Serien weiter existieren bis die Berge an Überbeständen abgebaut sind. Nur die Boardpartner und nVidia wissen, wie lange das dauern wird.
Zumindest bei nVidia wohl sehr lange, da auf der Folie zum Launch der RTX 4090/4080 ausdrücklich die RTX 3080/3070/3060 unterhalb des RTX 4000er "Premiumsegments" aufgeführt waren, d.h. man geht offenbar von einer längerfristigen Koexistenz aus.

Ergo: Wer es billig(er) will, muss/soll RX 6000er bzw. RTX 3000er kaufen.
 
  • Gefällt mir
Reaktionen: Mr_Cenk und IchBins237
Tornavida schrieb:
Etwas Glück und Geschick gehört zum Leben und meist hilft auch eine vernünftige Prioritätensetzung um nicht verzweifelt einen Psychiater aufsuchen zu müssen. Mehr fällt mir zu deinem zweiten Absatz und dem Schicksalsschlag deines Freundes nicht ein.

Menschen teilen nicht einen gleichen Charakter, deine Prioritäten sind die deinen und so funktioniert dein Leben auch gut. Andere haben andere und so funktioniert deren Leben gut. Einfach zu sagen: Ja mach halt anders, ist von einem intellektuellen Standpunkt aus gesehen sehr faul.
Meine Argumentation war so aufgebaut dass ich gesagt habe: Es lohnt sich aus meiner Sicht nicht die Karte im Vorfeld schon zu verkaufen nur weil man nen schnellen Taler zusätzlich machen will. Die Einnahmen überwiegen hier nicht die Kosten für mich. Und da braucht keiner dafür nen Psychiater aufsuchen.
 
xexex schrieb:
Die Engines unterstützen doch allesamt RT, das ist an dieser Stelle gar kein Thema. Was sollen die Entwickler aber machen?

Einfach Lichtquellen hinstellen und RT alles erledigen lassen? Ein Wunschdenken, weil man Konsolen und GPUs hat die kaum Leistung dafür haben. Die Entwickler dürfen also alles doppelt machen und optimieren, kein Wunder wenn es nicht zum "Mainstream" wird.

Das ist letztlich nicht anders wie früher T&L, da dauerte es auch viele Jahre bis 3DFX endlich starb und es überall implementiert wurde. Heute würde kaum noch einer auf die Idee kommen Lightmaps von Hand zu zeichnen.
Nett was du da zusammengetippt hast.

Dein Antwort hat nur leider nichts mit meinem Beitrag zu tun...
 
Flynn74 schrieb:
Aber der Schritt von Software-3D auf Hardware-3D war damals auch "nur" eine Aufhübschung der Textur-Filterung und wesentlich höhere FPS.
Sehr sehr oberflächlich betrachtet...

Es ist kein Ledern gegen... Es ist nur meine Meinung. Ich akzeptiere deine. Du musst noch lernen andere zu akzeptieren.
Das Gesamtpaket ist bei RT nix was mich vom hocker reißt.

Hdr und jegliche Art von Monitor Sync check und hab ich! Weil es abgesehen vom Spiel... immer funktioniert. Sync sogar auf dem Desktop wenn ich nen Fenster schnell hin und her bewege, wie Hdr sowieso. Ich weiß nicht sinnvoll. Aber nur um zu zeigen das ich nicht wie bei RT auf einen Entwickler warten muss, der es in einen gutes, am besten geiles game sinnvoll integriert. Zum Bsp. Control. Ein Rotz game. Aber das Prestige Projekt. Geilstes game. Metro! Aber wegen einem Spiel?? Really?

Wer so verblendet ist, der bekommt das nächste Feature von nvidia hoffentlich hinter einer Abo paywall gedrückt!

Ohne amd wärt ihr vielleicht schon keine pc gamer mehr! Gier Frist Hirn! Da ist die lederjacke ganz weit vorne mit dabei!

Du bist überzeugt von nv. Ok. Kann ich verstehen. Aber was bringt es dir amd schlecht zu machen? Niemandem zu "erlauben" amd zu benutzen. Wenn jemand eine amd vorschlägt, will ect. Aggro dageben zu schießen? Warum?
 
Matthias80 schrieb:
Du bist überzeugt von nv. Ok. Kann ich verstehen. Aber was bringt es dir amd schlecht zu machen? Niemandem zu "erlauben" amd zu benutzen. Wenn jemand eine amd vorschlägt, will ect. Aggro dageben zu schießen? Warum?

Wie bitte? Wo habe ich AMD schlecht gemacht? Und aggro war ich auch? :D Du legst mir hier Worte in den Mund - das ist mit Verlaub der größte Blödsinn.

Ich hätte sicher keinen Ryzen im System wenn ich was gegen AMD hätte. Im Gegenteil. Ich bin Opportunist und kaufe die Hardware von dem Hersteller der das beste Technologie-Paket liefert. Bei der CPU war es vor zwei Jahren AMD, bei der GPU heute Nvidia, beim TV Samsung und beim Mini PC Apple. Ich bin weder pro, noch kontra AMD, Nvidia, Intel, whatever. Ich bin aber immer "pro neue Technologien".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso und xexex
RT hin oder her, es ist wie mit jeder neuen Technik, irgendwann hat man sich dran satt gesehn, oder man hat je nach Spiel keine Zeit RT zu genießen, und Grafik trägt nicht unbedingt zum Spielspaß bei, gibt genug Beispiele. Sound wird zu sehr vernachlässigt.
 
  • Gefällt mir
Reaktionen: Malustra und Matthias80
Matthias80 schrieb:
Gewinnt man mit Masse. Die 4090 ist von allem 4000er nv Karten über die Zeit gesehen die am wenigsten gekaufte! Das war schon immer so. Nur färbt der Glanz nach unten hin ab...

Die Käufer der 3060 12g Krüppel Karte dachten ja auch oh geil nvidia! 12 GB! Aber puste Kuchen! Sinnlose 12gb auf so einem dulli Chip. Ne 3070 durfte mit 8gb versauern. Nv plant das von vorne bis hinten durch. Jeder der nicht aufpasst tritt in eine der fallen.

Mfg
Hast du den Aluhut noch auf? Sonst kann Nvidia sogar deine Gedanken lesen.
Ergänzung ()

frankyboy1967 schrieb:
RT hin oder her, es ist wie mit jeder neuen Technik, irgendwann hat man sich dran satt gesehn, oder man hat je nach Spiel keine Zeit RT zu genießen, und Grafik trägt nicht unbedingt zum Spielspaß bei, gibt genug Beispiele. Sound wird zu sehr vernachlässigt.
Rt hilft doch auch Zeit zu sparen und mehr Zeit in gameplay zu investieren.
 
  • Gefällt mir
Reaktionen: Matthias80
Matthias80 schrieb:
Wo hab ich das geschrieben? Bitte genau lesen!
Es fällt null auf beim spielen.
Für mich ist story 100 mal wichtiger.
Es gibt viel zu wenig Spiele wo RT so geil ist, daß man es haben will. Von daher ist die Gruppe die RT als prio 1. Hat einfach verblendet. Es gibt so viel mehr plus Punkte für eine nvidia. Auch abseits von RT und dlss ist nvidia spitze. Woher kommt die Angst und damit die Verteidigungshaltung? 🤨
Ergänzung ()
Oh man, das war Ironie! Wie soll man das nicht sehen? Mir fällt es auf. Das wäre wie wenn man sagen würde, dass 4k nicht auffällt gegenüber 2k.

Und wieso Verteidigungshaltung? Hä? Was redest du für Zeug? Ich sag nur, dass man das einfach sieht. Weil man sonst wohl nicht hinschaut. Hatte selbst ne 6900xt und hab jetzt ne 3080Ti. Und vielleicht wechsle ich wieder auf die neue.. ich bin alles, nur kein Fanboy aber sehen tu ich es. Weil Augen im Kopf.
 
ALDeeN1982 schrieb:
Hä? Was redest du für Zeug?
Ich meine beim spielen. Im Eifer des Gefechts z. B. Da "sieht" man es eben nicht. Bei Metro oder 2077 die gesamte immersion klar. Da immer! Das sind aber Ausnahmen. Noch kann ich aber locker drauf verzichten. Wie gesagt Performance Verlust steht in keinem Verhältnis zum Optik Gewinn. Kommt jetzt bitte nicht mit DLLS! Wenn du keine top Grafikkarte hättest! Wie die 3080 ti. Dann würde ich klatschen wenn du damit in spielbare fps Bereiche kommen würdest. Ne 3080 ti braucht das aber nicht! Bzw. Bei den Preis erwarte ich das auch!
Ergänzung ()

Adzz schrieb:
Rt hilft doch auch Zeit zu sparen
Na das ist bei den Entwicklern noch nicht angekommen... 😅
 
Zurück
Oben