Test Gaming-Grafikkarten 2024 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

TigerherzLXXXVI schrieb:
Auf der anderen Seite ist die "Standardbeleuchtung" in dem Spiel auf keinen Fall "kacke". Das wäre wieder einmal nur die Aussage der Nvidia-Marketingabteilung, die unbedingt teure RTX-Grafikkarten verkaufen möchten.
Für mich war die Beleuchtung deutlich hinter teils älteren Raster Spielen, daher hab ich es mit meiner 6800XT damals auch nicht lange gespielt weil ich das Spiel nicht so erleben wollte.
Man merkt hier deutlich dass der Fokus auf RT lag
 
Zuletzt bearbeitet:
Discovery_1 schrieb:
Die RX 7700 XT macht in meinen Augen in 1080P eine sehr gute Figur, wenn sie doch nur endlich im Preis fallen würde. So bleibt mir die Karte rund 75€ zu teuer. Aber ich möchte eigentlich auch nicht (mehr) in die ältere RX 6700 XT investieren. Einfach blöd, zurzeit.
Wenn du planst auch in Zukunft mit 1080p zu spielen, macht die RX 7700 XT auf jeden Fall Sinn. Mit 12GB bist du in dieser Auflösung zukunftssicher ausgestattet und die Rohleistung der Karte ist richtig gut.
Ergänzung ()

Taxxor schrieb:
Für mich war die Beleuchtung deutlich hinter teils älteren Spielen, daher hab ich es mit meiner 6800XT damals auch nicht lange gespielt weil ich das Spiel nicht so erleben wollte.
Man merkt hier deutlich dass der Fokus auf RT lag
Das kann durchaus sein. Aber glaubst du nicht, dass dein persönlicher Anspruch an Spielegrafik schon sehr nerdig ist. Was du als unschön betrachtest ist für den "normalen" Gamer noch kein Grund das Spiel nicht genießen zu können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: marakuhja und Wowka_24
TigerherzLXXXVI schrieb:
Was du als unschön betrachtest ist für den "normalen" Gamer noch kein Grund das Spiel nicht genießen zu können.
Er kann es ja auch gern genießen, nur dass es besonders gut aussieht, insbesondere genau so gut wie mit RT, sogar ein Paradebeispiel dafür wäre, wie wenig RT bringt, ist halt trotzdem falsch
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und MrHeisenberg
Taxxor schrieb:
Er kann es ja auch gern genießen, nur dass es besonders gut aussieht, insbesondere genau so gut wie mit RT, sogar ein Paradebeispiel dafür wäre, wie wenig RT bringt, ist halt trotzdem falsch
Wenn sich diese Aussage auf das gleiche Spiel bezieht, dann ja. Wenn es um das Duell "Cyberpunk 2077 mit Path-Tracing vs Avatar: Frontiers of Pandora" geht, ist es nicht mehr so eindeutig.
 
TigerherzLXXXVI schrieb:
Wenn es um das Duell "Cyberpunk 2077 mit Path-Tracing vs Avatar: Frontiers of Pandora" geht, ist es nicht mehr so eindeutig.
Die Aussage war RT vs Raster, da kann das ja kein Duell sein, weil beides RT hat^^

TigerherzLXXXVI schrieb:
Auf der anderen Seite erreicht selbst eine RTX 4080 mit DLSS Quality in 4K "nur" 60 FPS bei "RT Lite". Die Qualität "RT Ultra" ala Cyberpunk 2077 würde die Bildrate noch einmal deutlich senken. Zum Schluss könnte man Avatar nur noch mit einer RTX 4090 einigermaßen vernünftig spielen...
Du kannst doch weiterhin bei RT Lite bleiben, wenn dir die Bildraten dann zu gering werden oder du mit der DLSS Stufe nicht runter möchtest.

Du bist doch der Meinung, dass es mit RT Lite schon hervorragend aussieht, also muss doch niemand auf RT Ultra stellen, warum sollte man dann also eine 4090 brauchen um es "einigermaßen vernünftig" spielen zu können?

Andersrum, diejenigen mit entsprechender Hardware können die Optik bei Bedarf auch noch weiter verbessern.
Mein Target mit FG sind 80FPS, die 4090 erreicht in UWQHD mit DLSS Quality ca 100FPS, also ~160FPS mit FG vmtl. Da ist noch einiges an Luft drin, die ich gerne in bessere Optik investieren würde.
 
  • Gefällt mir
Reaktionen: Quidproquo77, MrHeisenberg und Apocalypse
Taxxor schrieb:
Die Aussage war RT vs Raster, da kann das ja kein Duell sein, weil beides RT hat^^
Nicht unbedingt. Es geht hier um das Duell "schlechtere Rasterizing-Qualität + Path-Tracing vs bessere Rasterizing-Qualität + RT Lite". Also welche Philosophie (Nvidia oder AMD) einem optisch besser gefällt. Es ist bei Avatar reine Geschmackssache.
 
TigerherzLXXXVI schrieb:
Nicht unbedingt. Es geht hier um das Duell "schlechtere Rasterizing-Qualität + Path-Tracing vs bessere Rasterizing-Qualität + RT Lite". Also welche Philosophie (Nvidia oder AMD) einem optisch besser gefällt. Es ist Geschmackssache.
Lies noch mal den Kommentar auf den ich geantwortet habe, darum ging es

RT ist für mich nach wie vor eine kaufentscheidungsirrelevante Pioniertechnologie, die bestenfalls 2% zur BQ (Bildqualität) beiträgt.
Dann hab ich Cyberpunk erwähnt
Grade Cyberpunk ist das Primebeispiel, das RT völlig überbewertet ist, da es ohne RT zu 99% so gut aussieht, wie mit RT, ohne zu berücksichtigen, das ich mit RT Texturpanschupscaling einshcalten muß.

Sorry, deine Argumentation ist ein Eigentor!

RT vs kein RT, darum ging’s

Keine Ahnung warum du da schon wieder ein Nvidia vs AMD Ding draus machen willst.
 
  • Gefällt mir
Reaktionen: Wowka_24, Quidproquo77, MrHeisenberg und eine weitere Person
Taxxor schrieb:
Du bist doch der Meinung, dass es mit RT Lite schon hervorragend aussieht, also muss doch niemand auf RT Ultra stellen, warum sollte man dann also eine 4090 brauchen um es "einigermaßen vernünftig" spielen zu können?
Weil Avatar bei qualitativ hochwertigeren Raytracing (z.B. RT Ultra wie in CP2077) selbst bei einer RTX 4080 einen deutlichen Performanceeinbruch zur Folge haben würde. Wenn sie bereits mit "RT Lite" in 4K + DLSS Quality "nur" knapp 60 FPS erreicht, dann wäre es mit "RT Ultra" wohl nur etwa 30 FPS oder so ähnlich.
 
  • Gefällt mir
Reaktionen: marakuhja
TigerherzLXXXVI schrieb:
Wenn sie bereits mit "RT Lite" in 4K + DLSS Quality "nur" knapp 60 FPS erreicht, dann wäre es mit "RT Ultra" wohl nur etwa 30 FPS oder so ähnlich.
Erneut, dann stelle es halt nicht auf RT Ultra und es ist auch mit dieser Karte weiterhin vernünftig spielbar.

Wer in 4K auch mit DLSS Balanced auskommt(dürfte bei den meisten der Fall sein), kann auch mit der 4080 dann RT Ultra mit ~50FPS haben, wenn er die Optik möchte.
FG kommt ja auch noch dazu, sodass auch eine 7900XTX hier genug FPS erreichen würde
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse, Quidproquo77 und MrHeisenberg
Norebo schrieb:
Texturen, Texturqualität, Farbbrillianz und Auflösung sind die Träger der BQ!
Heutige Spiele würden ohne anständige GI, Umgebungsverdeckung, Verschattung und Co fürchterlich aussehen. Auch auf niedrig bieten Schatten immer noch eine halbwegs annehmbare Qualität, genauso auch Texturen. Das ist mit vielen Grafikreglern so.

Eine Textur kann noch so detailliert sein. Ohne Geometrie und der richtigen Beleuchtung fehlt die Plastizität des Gesamtbildes.

Solange Spieler es nicht verkraften, dass Spiele mit ihrer Hardware nicht auf Ultra und 60 FPS in 4K laufen, werden Entwickler den Spielern auch nicht die maximale Qualität anbieten, sondern es wie das Unoptanium Setting verstecken oder erst gar nicht anbieten, weil es dann wieder heißt: Das ist schlecht optimiert.
Norebo schrieb:
Upscaling für 1080p und 1440p lehn ich ab - das zeugt nur von mangelnder Hardwareentwicklung, oder Spieleoptimierung!
Eine 6700XT kommt irgendwann an ihre Grenzen. So wie jede andere GPU auch.
Mit schlechter Optimierung hat das nichts zu tun.
Norebo schrieb:
FG lehn ich entschlossen unbeirrbar ab!
Die 6700XT kann das in Pandora, abgesehen von ein paar Problemchen mit transparenten Anzeigen, äußerst gut. Mit einer Radeon Karte würde ich es immer aktiviert lassen.
Norebo schrieb:
Die weitentwickelten Dampfloks waren leistungsfähiger, als die ersten Diesel-/Elektroloks!
In dem Bereich sind wir beim RT auch immer noch!
Nur kann ein rasterbasierter Ansatz das gar nicht mehr darstellen, wie etwa die Diesellok nur auf Schienen fahren und nicht auf dem Asphalt oder zu Luft und wenn dann nur mit extremem Aufwand, wie etwa die Lok per Seilen durch die Luft zu fliegen.
 
  • Gefällt mir
Reaktionen: Cohen und Apocalypse
Taxxor schrieb:
RT vs kein RT, darum ging’s

Keine Ahnung warum du da schon wieder ein Nvidia vs AMD Ding draus machen willst.
Ich habe die Fragestellung erweitert. Cyberpunk 2077 setzt den Fokus auf Raytracing, Avatar im Gegensatz dazu auf Rasterisierung. Meiner Meinung nach ist dieses Duell sehr interessant, wenn es um das Thema "aktuelle Spielegrafik" geht. Und dies ist letztendlich auch ein Duell: Nvidia vs AMD (bzw. zweier unterschiedlicher Philosophien)

Für dich ist die Sache klar: Path-Tracing ist dir deutlich wichtiger. Auch wenn ich Path-Tracing ebenfalls toll finde, so brauche ich bei Spielen nicht unbedingt eine äußerst realistische Beleuchtung, wenn es dafür wiederum andere optische Vorteile bietet.
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
Zum einen lassen sich gewisse ältere "weniger anspruchsvolle" Titel mit einer RX 6800 XT in 4K spielen, wo eine RTX 3080 10GB bereits nachweislich Probleme bekommt.
Und auf der anderen Seite lassen sich Titel spielen, in denen die 6800XT Probleme bekommt.
Das Ding ist, du kannst RT abschalten oder reduzieren und bei der 3080 V-RAM fressende Settings wie die Ultra Textur Stufe reduzieren.
Die eine hat den knappen Speicher, die andere die fehlende Rohleistung. Die Karten nehmen sich nicht viel.
Warum du diese Diskussion immer wieder erneut vom Zaun brichst, verstehe ich nicht. Dein Fokus liegt permanent nur auf der Speichergröße, anstatt alle Faktoren zu beleuchten.
TigerherzLXXXVI schrieb:
Es wird noch gefühlte Ewigkeiten dauern bis wir heutige "Raytracing Ultra" Qualität oder gar Pathtracing standardmäßig in jedem Spiel bekommen.
Standardmäßig in "jedem" Spiel haben wir heute nicht einmal Directx10. In den aktuellen größeren Games kann ich mir das in 2 bis 3 Jahren durchaus als Ultra-Standard vorstellen.
Du trittst in jedem Thread als pauschaler RT Gegner und AMD Fan auf und äußerst Dinge die sachlich falsch sind und auch schon mehrmals mit Quellen widerlegt wurden. Sinn?
TigerherzLXXXVI schrieb:
Bei Avatar: Frontiers of Pandora hat man daher bewusst nur auf permanentes "RT Lite" gesetzt. Ansonsten wäre das Spiel zum Schluss nur mit einer 1000+€ RTX-Grafikkarte spielbar gewesen. Wenn überhaupt.
Und diese Behauptung belegst du wie? Man hat in Avatar noch nicht mal alle Reflektionen mit RT umgesetzt, was zwar annehmbar aussieht, wenn man nicht auf Auflösung und SSRs achtet, aber einen großen Teil der Reflektionen einfach aus dem Bild wischen kann, bzw. die Umgebungsverdeckung teilweise gar nicht funktioniert. Die Unoptanium Settings kaschieren das noch etwas, aber um einen RT-Ansatz kommt man einfach nicht mehr drum herum, wenn die Beleuchtungen und Reflektionen gut aussehen sollen.
Deshalb ist die Grafik insgesamt meines Erachtens durchaus noch auf dem Niveau von Alan Wake.
TigerherzLXXXVI schrieb:
Stell dir vor Ubisoft hätte bei Avatar exklusiv mit Nvidia kooperiert. Man hätte auf jeden Fall RT Ultra und vielleicht auch Pathtracing im Spiel gehabt, das perfekt für RTX 4000 optimiert worden wäre.
Ja, das wäre natürlich besser für alle gewesen. Die Radeon Nutzer spielen mit reduzierten RT Settings und die GeForce Nutzer können es ausreizen. Mal davon abgesehen, dass die 7900XTX mit FSR3 FMF sicher auch die maximalen Settings mehr oder weniger gepackt hätte. --> Win Win Situation für alle.
TigerherzLXXXVI schrieb:
Zeitgleich hätte man andere grafische Downgrades hinnehmen müssen, die auch auf Nvidias fragwürdige Speicherpolitik zurückzuführen wären.
Ich habe noch bei keinem Spiel das von Nvidia unterstützt wurde schlechte Texturen gesehen.
Alan Wake hat ausgezeichnete Texturen, Cyberpunk ebenso.
Cyberpunk ist ein Spiel von Ende 2020, also bald 4 Jahre alt.
Damals gab es quasi nur 8GB Karten, heute gibt es fast durch die Bank 12 oder 16GB. Das ist nicht vergleichbar und absurd.
TigerherzLXXXVI schrieb:
Aber auf keinen Fall würde jeder Gamer immer gleich "Hurra!" schreien, wenn ein aktuelles Spiel Raytracing (bezogen auf dem aktuellen Stand der Technik) vollkommen ausreizt und dabei andere ebenfalls wichtige Grafikdetails vernachlässigt werden.
Das ist eben ein erneutes Narrativ deinerseits, um die Implementierung von Raytracing in irgendeiner Form zu kritisieren. Das ist aber völlig ohne Substanz. Denn RT und Texturdetails hängen nicht unmittelbar zusammen. PT braucht zudem überhaupt nicht mehr Grafikspeicher.

Wenn ich deine Beiträge lese dann bleibt mir nur in Erinnerung: Nvidia doof, AMD toll und dann wird dieser Grundeinstellung durch irgendwelche Geschichten und Stories vermeintliche Substanz verleiht, anstatt unabhängig von irgendwelchen Firmen zu denken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse, H6-Mobs und Taxxor
Norebo schrieb:
Die Frametimes sollten regelmässig sein und flüssige 60Hz reichen mir für alles, was ich spiele!
Und mir reichen 60fps nicht.

Die Schatten auf Medium ist katastrophal schlecht weil Schatten und Ambient Occlusion das Bild viel echter wirken lassen...
 
Wolfgang schrieb:
Weil, ganz gleich was manche immer von sich geben, dies alles implementiert werden muss, was Manpower, Zeit und damit Geld benötigt.
Nein, der Aufwand sinkt sogar. RT, Spiegelungen und GI ist in Avatar bereits integriert.
Es ist nur eine Sache des Presets, Cullings und LoD, welche Geometrie gespiegelt wird und welche nicht, wie viele Strahlen verschossen, wie viele Bounces etc. pp. Das kann man in der Unreal Engine mit Lumen ganz plakativ gesagt einfach an und abschalten.
Wolfgang schrieb:
Und wenn man es ordentlich machen will, dann sind dies auch nicht gerade wenig Ressourcen.
In Avatar müsste man für besseres RT keinen Aufwand betreiben.
Wolfgang schrieb:
Einfach wie bekloppt mehr Strahlen zu verschießen weil man es kann oder die RT-Auflösung zu erhöhen ist halt allerhöchstens Bruteforce, wirklich sinnvoll aber wohl nur selten. Und dann wird es eben kompliziert.
Ich glaube nicht, dass dein Beitrag in dem Kontext Sinn macht. Das mag auf ein Spiel zutreffen, dass über keine RT Implementierung verfügt. "Einfach mehr Strahlen verschießen" bringt 0.
Wolfgang schrieb:
Optional baut dir daher keiner "mal eben" RT Ultra oder gar Pathtracing ein, wenn dies aus welchen Gründen auch immer nicht ein integraler Teil deines Spiels sein soll.
Pathtracing nicht, aber höhere RT Optionen sind kein Hexenwerk, im Gegenteil viel einfacher als zwischen SSR´s und RT die Balance zu finden, sprich neben dem Unoptanium Setting ein experimentielles RT Ultra Setting anzubieten wäre gar kein Problem.
Ergänzung ()

TigerherzLXXXVI schrieb:
Ich habe die Fragestellung erweitert. Cyberpunk 2077 setzt den Fokus auf Raytracing, Avatar im Gegensatz dazu auf Rasterisierung.
Beide Spiele haben RT vergleichbar integriert. Avatar nutzt es lediglich vom Preset her stiefmütterlich. Die Gründe dafür werden wir nicht erfahren, spekulativ liegt es an AMD´s Partnerschaft. Wobei es dennoch überraschend ist, dass zumindest Hardware RT mit dabei ist.
TigerherzLXXXVI schrieb:
Für dich ist die Sache klar: Path-Tracing ist dir deutlich wichtiger.
Es bietet mit Abstand die beste Optik, egal ob man eine AMD Intel oder Nvidia Karte besitzt und Fan von was auch immer ist. Schon immer, seit den 90er Jahren.
TigerherzLXXXVI schrieb:
Auch wenn ich Path-Tracing ebenfalls toll finde, so brauche ich bei Spielen nicht unbedingt eine äußerst realistische Beleuchtung, wenn es dafür wiederum andere optische Vorteile bietet.
Diese anderen, optischen Vorteile gibt es nicht. Sie existieren einfach nicht. Du musst das sagen, weil du mit irgendetwas Nvidias RT Vorteil schmälern möchtest, ich nehme mal an, weil du dich selbst als AMD Fan und Nvidia Hater bezeichnest und das auf die Technologie an sich abfärbt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse und Taxxor
Quidproquo77 schrieb:
Du musst das sagen, weil du mit irgendetwas Nvidias RT Vorteil schmälern möchtest, ich nehme mal an, weil du dich selbst als AMD Fan und Nvidia Hater bezeichnest.
Nein, weil er damit eine Reaktion von anderen provozieren möchte, um sie dann als Nvidia-Jünger zu bezeichnen zu können, weil sie direkt auf jede in seinen Augen berechtigte Kritik an Nvidia reagieren.
 
  • Gefällt mir
Reaktionen: Apocalypse und MrHeisenberg
Quidproquo77 schrieb:
Cyberpunk ist ein Spiel von Ende 2020, also bald 4 Jahre alt.
Damals gab es quasi nur 8GB Karten, heute gibt es fast durch die Bank 12 oder 16GB. Das ist nicht vergleichbar und absurd.

Das ist eben ein erneutes Narrativ deinerseits, um die Implementierung von Raytracing in irgendeiner Form zu kritisieren. Das ist aber völlig ohne Substanz. Denn RT und Texturdetails hängen nicht unmittelbar zusammen. PT braucht zudem überhaupt nicht mehr Grafikspeicher.
Cyberpunk 2077 wurde damals auch mit Hinblick auf die bald erscheinende RTX 3000 Generation entwickelt. Oder was glaubst du? Anders wäre RT Ultra in der Breite auch gar nicht realisierbar gewesen. Und selbstverständlich musste CDPR bei der Spieleentwicklung auch auf die geringe Speicheraustattung der Ampere-Grafikkarten Rücksicht nehmen. Dass dich persönlich die vergleichbar eher maue Texturqualität nicht weiter stört tut nichts zur Sache. Man kann ruhig ein Texturvergleich sämtlicher in diesem Zeitraum erschienenen Spiele anstellen. Da wird Cyberpunk nicht mehr so gut da stehen. Übrigens hatten beinahe sämtliche AMD-Grafikkarten von damals (bis auf die x600er Serie) mindestens 12GB... VRAM-Mangel ist ein exklusives Geforce-Problem. Wenn man es ganz genau nimmt ein reines Geldgierproblem.

Und zu deiner Aussage, was denn alles Videospeicher benötigt: Geometriedetails, Texturqualität, eine höhere Auflösung, RT/PT, DLSS/FSR, FG/FMF und vielleicht noch weitere Dinge.

Meine Kommentare mögen dir nicht gefallen und auch ich liege nicht immer komplett richtig, aber im Gegensatz zu dir ist meine Auffassung, trotz meiner AMD-Affinität, deutlich objektiver und vernünftiger als deine deutlich grün eingefärbte. Ich habe mittlerweile schon genügend Diskussionen mit dir geführt um zu wissen, dass es fast ausschließlich Zeitvergeudung wäre.
 
  • Gefällt mir
Reaktionen: Wowka_24
duskstalker schrieb:
ein paar wqhd Ergebnisse von der a770 einzupflegen?
Was die Intel Arc Grafikkarten generell angeht, würde ich Dir doch eher die Tests der PCGH nahelegen, da diese seit Beginn deutlich regelmäßiger und ausführlicher die erste Intel Gaming dGPU-Generation testen/behandeln als ComputerBase, wo man das Gefühl hat, dass diese hier nur mitgeschliffen wird, weil man muss (diese nicht ganz weglassen kann).

Irgendwie muss ich schon schmunzeln, wenn Leute hier klagen, dass die aktuellen Einsteiger- und Mittelklassenkarten alle nicht mehr einen Kauf lohnen sollen, weil angeblich selbst in Full-HD nicht mehr genügend fps dabei herum kommen, nur wird oft vergessen, dass das Testszenario hier alle Regler auf (oft unsinnigen Ultra-) Maximaleinstellungen vorsieht und man das i.d.R. nicht braucht, um beim spielen glücklich zu sein bzw. Spaß zu haben (aber darum geht es hier evt. auch nicht vordergründig).

Für die Kartenhersteller (nVidia und AMD/RTG) ist das natürlich ideal(e Werbung), denn es suggeriert natürlich Kaufbedarf bei einigen, auch wenn das mit der Realität wenig zu tun hat, wie die Steam Hardwareumfrage eindrucksvoll gezeigt hat.

Die ComputerBase Hardwaretests richten sich (leider) überwiegend an Early Adopter und Hardware-Enthusiasten, die Ihr Geld gerne für oft überdimensionierte Gaming Grafikkarten (CPUs, Mainboards, usw.) ausgeben, denn die meisten Spieler haben gar nicht dauerhaft den Bedarf, aber hier werden auch wieder Extrembeispiele - wie Alan Wake 2 und Cyberpunk 2077 bspw. - herangezogen und als Durchschnittsszenario - was eher z.B. ein Counterstrike 2, League of Legends oder Rocket League wäre der Höhe der Spielerzahlen nach - mitinterpretiert, was nicht wirklich stimmig ist, denn dazu bräuchte es mehr anspruchslose Mainstreamtitel im Test-Parcours).

Ja klar, PC Hardware will gefordert werden (um zu sehen, was diese maximal im Stande ist zu leisten), dagegen ist auch nichts einzuwenden, aber dennoch sollte es dann nicht auf eine Folgerung hinaus laufen, dass immer Maximaleinsstellungen (in jeder Auflösung) nötig sind und darunter nichts mehr geht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Millennial_24K
TigerherzLXXXVI schrieb:
Cyberpunk 2077 wurde damals auch mit Hinblick auf die bald erscheinende RTX 3000 Generation entwickelt. Oder was glaubst du? Anders wäre RT Ultra in der Breite auch gar nicht realisierbar gewesen.
Ändert doch auch nichts an der Tatsache, dass >90% des Marktes zum geplanten Releasezeitpunkt im April 2020 8GB oder weniger VRAM hatten, natürlich ist das Spiel auf 8GB hin optimiert worden.
 
Taxxor schrieb:
Ändert doch auch nichts an der Tatsache, dass >90% des Marktes zum geplanten Releasezeitpunkt im April 2020 8GB oder weniger VRAM hatten, natürlich ist das Spiel auf 8GB hin optimiert worden.
Das wäre aber die gleiche Diskussion wie fehlendes "RT Ultra" in Avatar. Man hätte doch in Cyberpunk 2077 eine noch höhere Texturqualität für RX-6000-Karten anbieten können. Ähnlich wie in Far Cry 6. Im Gegensatz zum Ubisoft-Titel hat man bei CP2077 jedoch keine zusätzliche Auswahlmöglichkeit bekommen.
Ergänzung ()

Quidproquo77 schrieb:
Diese anderen, optischen Vorteile gibt es nicht. Sie existieren einfach nicht. Du musst das sagen, weil du mit irgendetwas Nvidias RT Vorteil schmälern möchtest, ich nehme mal an, weil du dich selbst als AMD Fan und Nvidia Hater bezeichnest und das auf die Technologie an sich abfärbt.
Und wieder einmal hast dich als waschechter Nvidia-Jünger geoutet. Es muss einen Grund geben, warum ausgerechnet bei Digital Foundry, die Grafikenthusiasten schlecht hin, Avatar: Frontiers of Pandora auf Platz 1 und CP2077 mit Path-Tracing auf Platz 3 in Sachen Spielegrafik steht. Gewonnen hat Avatar jedenfalls nicht aufgrund der RT-Implementierung. Das sollte dir zu denken geben...

Nochmal zum Mitschreiben für dich: Avatar hat gegen CP2077 gewonnen, weil das Spiel die deutlich besseren Texturen und Geometriedetails hat. Diese "Vorteile" gibt es also doch...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wowka_24 und Chismon
Taxxor schrieb:
Was bringen mir die besten Texturen, wenn die Beleuchtung kacke ist?
Aus deinen bestenfalls 2% würde ich so z.B. in Cyberpunk mal locker 50% machen, die PT hier zur Bildqualität beiträgt, ohne kann ich mir das Game nicht mehr anschauen, wenn man es einmal mit gespielt hat.

Willst du jetzt tatsächlich diskutieren, ob Texturen oder Beleuchtung für die Grafik eines Spiels wichtiger ist?
 
  • Gefällt mir
Reaktionen: Hardwarious, Wowka_24 und Millennial_24K
Zurück
Oben