• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Cyberpunk 2077 Patch 1.2 im Test: Raytracing auf AMD Radeon RX kostet bis zu 75 Prozent FPS

.Sentinel. schrieb:
.... Aber die liebe Kompatibilität....
Was sagst Du als Dev denn zu dem Problem wave64 vs wave 32?

Hätte net CP2077, entsprechend der Empfehlung von AMD im Whitepaper, nen wave32-Pfad für RDNA2 gebraucht?
https://twitter.com/JirayD/status/1369203058589249536
In der UE4-Implementation droht auch so ein Problem wenn wave64 priorisiert wird!
(soviel zu dem Vorschlag, jeder 0815-Dev kann ganz einfach mal schnell RT)


In Games mit RT wäre Es natürlich auch günstig, einzelne Features separat ON/OFF schalten zu können.
Gerade bei der UE4-Demo ist Transluceny+RTX-Illumination mit RDNA2 net zu empfehlen.

Beides@OFF schaut aber ganz gut bei mir aus: ... RT kostet dann auch rel. wenig W
 

Anhänge

  • Showcase1080p_2548@953mV.jpg
    Showcase1080p_2548@953mV.jpg
    745,1 KB · Aufrufe: 321
  • ME better than UE4.JPG
    ME better than UE4.JPG
    59,9 KB · Aufrufe: 312
Zuletzt bearbeitet:
#raytracing... ich habe spaßeshalber ein bisschen mit "ray traced global illumination" aka RTGI in version 0.20 für reshade herumgespielt, siehts teils hervorragend aus bei moderaten fps einbußen, allerdings verursacht es in anderen situationen/belichtung/winkel etc. weniger ansehnliche glitches... weiß jmd, ob man dem mit für cp2077 optimierten settings in der reshade config beikommen kann, oder sind RTGI (weiterhin wip/beta stadium) und cp2077 einfach derzeit nicht zureichend kompatibel?
die standardeinstellungen von RTGI funktionieren ziemlich ordentlich mit anderen games, gta5 oder shadow of the tomb raider z.b. ... jemand pro/nerd genug um plan zu haben? ;)
 
GerryB schrieb:
Was sagst Du als Dev denn zu dem Problem wave64 vs wave 32?
Das ist nur ein Faktor von vielen Stellschrauben, mit welchen man im Augenblick noch wahrlich einen Eiertanz hinlegen muss.
Derzeit ist es aufgrund der Unterschiede in den Architekturen schlichtweg nicht möglich mit EINER Renderpipeline ohne Vendor/Typabfrage und entsprechend dedizierten Pipelines ausgeglichen für alle RTRT- Fähigen Architekturen das Optimum rauszuholen.

...und alles andere ist derzeit für Firmen, die von Titel zu Titel denken müssen auch einfach nicht wirtschaftlich.

Der normalo- User sieht in RTRT nicht mehr als ein par nette Zusatzeffekte und die Community ist bezüglich dieses Themas gespalten, weil es seit langer Zeit mal wieder eines der Features ist, bei dem man nicht mitspielen kann, wenn man nicht ordentlich investiert.

GerryB schrieb:
Hätte net CP2077, entsprechend der Empfehlung von AMD im Whitepaper, nen wave32-Pfad für RDNA2 gebraucht?
https://twitter.com/JirayD/status/1369203058589249536
In der UE4-Implementation droht auch so ein Problem wenn wave64 priorisiert wird!
(soviel zu dem Vorschlag, jeder 0815-Dev kann ganz einfach mal schnell RT)
Der Twitter- Kommentar stellt es treffend dar. Es ist situationsabhängig und es gibt dort, je nachdem wie der Raster- Teil der Engine funktioniert unterschiedliche Flaschenhälse und Implementationen die dann entsprechend zu bevorzugen sind.

GerryB schrieb:
In Games mit RT wäre Es natürlich auch günstig, einzelne Features separat ON/OFF schalten zu können.
Gerade bei der UE4-Demo ist Transluceny+Illumination mit RDNA2 net zu empfehlen.
Genau das ist eines der durchschlagenden Vorteile der UE4. Du hast letztendlich in Engine schon viele Fallback- Ebenen, die Du ohne Schwierigkeiten aktivieren kannst.

So sind RTRT Effekte tatsächlich als Feature- Toggle möglich.
GerryB schrieb:
Beides@OFF schaut aber ganz gut bei mir aus: ... RT kostet dann auch rel. wenig W
Ich kann garnicht oft genug darauf hinweisen, dass es ein Trugschluss ist, zu meinen, dass durch RTRT alles automatisch mehrfach besser aussieht.
Die Rasterisierung hatte Jahrzehnte Zeit sich zu entwickeln und macht durch Raytracing- Vorberechnung inzwischen viele Dinge möglich, die man noch vor einiger Zeit nicht für Umsetzbar gehalten hat.

RTRT Raytracing hat maßgeblich den Vorteil, dass es in allen Beleuchtungsszenarien und unter allen dynamischen Einflüssen physikalisch korrekt bleibt und zudem, dass die Performance ab einer gewissen Geometriedichte und Berechnungsgenauigkeit der Rasterisierung überlegen ist.
Ergänzung ()

reservoirDog schrieb:
weiß jmd, ob man dem mit für cp2077 optimierten settings in der reshade config beikommen kann, oder sind RTGI (weiterhin wip/beta stadium) und cp2077 einfach derzeit nicht zureichend kompatibel?
Wenn Du global Illumination aus dem Screenspace berechnest, wirst Du um ein Warpen des Effekts mit Bewegung und erheblichen Ungenauigkeiten nicht drumrum kommen.

Gerade bei indirekter Beleuchtung ist der Einfluss offscreen bzw. im realen Leben außerhalb des aktuellen Blickwinkels bedeutend.
Du hast Schatten, die von hinten kommen und eigentlich die Szene verdunkeln müssten. Vielleicht hat das Gebäude hinter Dir gelbe oder orangefarbene wände, so dass die Szenerie vor Dir in einen entsprechenden Farbton getaucht sein müsste.

Große Gebäude/Geometrie rechts und links außerhalb des Blickfeldes tauchen die Szenerie in eine andere Farbe....

Die Screenspace- Lösungen wirken auf Standbildern toll, offenbaren aber gerade in Bewegung z.B. bei Sichtwinkelverschiebungen eben dann ihre Schwächen die bis zum Totalausfall des Effektes gehen können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: k1xxlikeamule, Colindo und GerryB
.Sentinel. schrieb:
Ich kann garnicht oft genug darauf hinweisen, dass es ein Trugschluss ist, zu meinen, dass durch RTRT alles automatisch mehrfach besser aussieht.
GerryB schrieb:
Beides@OFF schaut aber ganz gut bei mir aus: ... RT kostet dann auch rel. wenig W
Sieht gut aus war gemeint bzgl. Perf./Watt und net bzgl. Optik.(bin eher der Engineer und net der Artist)
Hätte wohl schreiben sollen "schneidet gut ab" bzw. "performed normal".
 
  • Gefällt mir
Reaktionen: .Sentinel.
RT an oder aus....ich finde das Game befindet sich selbst bei aktuellem Stand in keinem aktzeptablem Zustand und entspricht bei weitem nicht dem was ich nach Witcher 3 erwartet hätte.
Von der schlechten KI und immernoch reihenweise Bugs sind die Grafik und performance finde ich das geriningste Problem.
Ja, es hat ne coole Story und auch intressante sidequests aber es haakt zwischendurch irgendwie immer wieder.
Das meine ich jetzt nicht auf die fps bezogen. Man wird immer irgendwie aus der Story gezogen und die Quests sind teils etwas unglücklich verteilt.
Die generelle Stimmung von Nightcity ist nicht sehr gut eingefangen und bei Vielen Dingen lässt sich das auch mit einem Ptach wahrschienlich nicht behben.
Wenn man schon ein Spiel macht was einen Mix aus GTA, Deus EX uns Splintercell nahe kommt sollte man sich hier auch an deren Stärken bedienen. Ob das jetzt Zeitmangel geschuldet ist oder einfach der Überheblichkeit nach den letzte Erfolgen sei dahingestellt....aber ich hatte mehr erwartet.
 
@.Sentinel. das klingt logisch und leuchtet ein, somit ist RTGI als performance-schonende alternative zu hardware raytracing, zumindest für cyberpunk, ausser evtl. für screenshots kaum zu gebrauchen...

habe es gerade nochmal in shadow of the tomb raider gegen getestet, auch da hat es seine macken, die rays durchdringen offenbar auch wasseroberflächen ohne an intensität zu verlieren, was die wasserpflanzen etc. alles andere als realistisch erscheinen lässt^^ ... im dschungel mit 360 grad waldpanorama funzt es aber recht ordentlich...

fazit: für weniger bunte games mit halbwegs gleichmäßiger beleuchtung von allen seiten evtl brauchbar?
die settings in reshade scheinen keinen großen einfluss auf das bild zu haben, drücken nur die performance weiter oder führt zum crash...

war spaßig für die wissenschaft, für gameplay aber weniger, findet auch oder vor allem meine betagte gtx 1080 :)
 
reservoirDog schrieb:
habe es gerade nochmal in shadow of the tomb raider gegen getestet, auch da hat es seine macken, die rays durchdringen offenbar auch wasseroberflächen ohne an intensität zu verlieren, was die wasserpflanzen etc. alles andere als realistisch erscheinen lässt^^ ...
Das hat den Hintergrund, dass die Systeme, die sich auf DirectX Ebene zwischen das Spiel und das Rendertarget, also das Zielframe schalten, den Zustand der Objekte nicht kennt, welchen es zusätzliche Schatten oder eben eine Aufhellung verleiht.
Reshade weiss nicht, dass sich die Pflanze z.B. unter Wasser befindet und deshalb diverse mechanismen nicht zum Einsatz kommen dürfen. Selbiges gilt für transparente Effekte, wie z.B. Nebel.

Da versagen die üblichen Reshade, ENB usw. Das ist aber kein systemisches Problem von Global Illumination SSAO oder SSIL. Würde man das in Engine anbieten, kann das sehr gut funktionieren.

Ich finde dort auch den Unreal 4 Engine Ansatz ganz brauchbar. Habs in einigen Spielen mal testweise aktiviert und es funktioniert ganz gut....
 
  • Gefällt mir
Reaktionen: k1xxlikeamule
das ganze thema^ ist bislang nicht gerade mein fachgebiet, insofern hab ich das problem nur identifizieren, aber nicht begründen können... aber klar, woher soll ein post process shader injector wissen was zusätzlich verschattet oder beleuchtet werden soll, abhängig von mehreren (?) faktoren (spielerposition, blickrichtung, ingame beleuchtungsquellen sowie dem dazugehörigen schattenwurf?)...

SSIL via reshade funktioniert meiner erfahrung nach sehr bescheiden, MXAO dagegen etwas besser; was sinnig scheint, da es nur verschattet und nicht beleuchtet und somit vermutlich weniger probleme umschiffen muss bzw. fehlerhafte schatten weniger auffallen als belichtung an falschem ort und stelle...

ich bin allerdings kein großer fan von starkem AO, zwar wirkt alles etwas plastischer, wird mir aber schnell zu dunkel an stellen wo dunkelheit keinen sinn ergibt... ingame HBAO+ oder SSAO tuts für meinen geschmack, ENB und Reshade presets übertreiben es häufig maßlos (imo), vom performance drop und teils stark erhöhter leistungsaufnahme der GPU mal ganz abgesehen...

@THreAD /offtopic: bis zu 75% performance loss in CP mit Radeon RX sagt eigentlich schon alles zur sinnhaftigkeit RT in CP überhaupt verwenden zu wollen, ich mein, 25% wär schon kriminell viel, aber bis zu 75%!? come on...
 
  • Gefällt mir
Reaktionen: .Sentinel.
reservoirDog schrieb:
/offtopic: bis zu 75% performance loss in CP mit Radeon RX sagt eigentlich schon alles zur sinnhaftigkeit RT in CP überhaupt verwenden zu wollen, ich mein, 25% wär schon kriminell viel, aber bis zu 75%!? come on...
25% wäre eigentlich sehr gut, bei Nvidia sinds ~40-50% wobei man dann den Großteil dieses Verlustes direkt wieder durch DLSS aushebeln kann und am Ende nur 10-15% langsamer ist.

Selbst wenn AMDs FSR so gut wird, dass wir sagen wir 50% mehr Performance bekommen, ohne allzuviel bei der Optik zu verlieren, dann rettet das die Leute wie mich, die in CP mit der 6800XT durch RT in 1440p von ~90 auf ~20fps fallen, auch nicht wirklich, sind dann eben knappe 30 und damit immer noch 66% Verlust.
 
Vielleicht wird der Treiber von AMD noch weiter optimiert oder Cyberpunk, und wenn nicht sieht das Game soweit für mich ganz gut aus, komme von einem Notebook E7450 und da lief Anno 1800 in niedriger FullHD Auflösung schon mit max. 25 FPS. Von daher bin ich mit dem Setting von meinem PC ganz zufrieden, war eh zuteuer der shit. Der Laptop reicht noch zum arbeiten..

Nagut ein Upgrade auf eine GeForce 3080 Ti wär schon nice :D
 
Zuletzt bearbeitet:
Taxxor schrieb:
Les Dir erstmal die Posts #341+#343 durch.

Nach m.E. liegt das Problem net bei AMD sondern den Kollegen von CD Projekt, die wahrscheinlich das Whitepaper von AMD net kennen (wollen).

Es braucht nen wave32-Pfad für RDNA2!
und
Translucency+RTX-Illumination müssen abschaltbar sein.
Dann hätte man ähnliche Verhältnisse wie in PR+UE-Showcase.

Vermutlich wird man sich aber net einigen können(wollen dürfen) und hat am Ende
ein 2. verhunztes Control.
Das erscheint mir auch sehr wahrscheinlich, denn Zeit war genug, um beide Architekturen
sinnvoll zu behandeln.

Ansonsten ist die Rasterperformance auch ausreichend ohne Superresi.
AMD soll SR mal in Ruhe und ordentlich für alle Plattformen fertigstellen.
Für dieses Game würde ich mir kein Bein ausreißen.(=keine Referenz)
 
Zuletzt bearbeitet:
cunhell schrieb:
@.Sentinel.

1.)Das Feature läuft auf der CPU auf einem Kern und ist extrem lahm.
https://www.tomshardware.com/reviews/nvidia-physx-hack-amd-radeon,2764-5.html
Contrary to some headlines, the Nvidia PhysX SDK actually offers multi-core support for CPUs. When used correctly, it even comes dangerously close to the performance of a single-card, GPU-based solution

cunhell schrieb:
2.)Ich kann die PhysX-Karte sowohl mit AMD, Nvidia und Intel nutzen und nicht nur mit Nvidiahardware
Ja- Zwangsweise, weil der PhysX Beschleuniger auf die Grafikkarten eines Drittherstellers angewiesen waren.

cunhell schrieb:
3.)Die Tessellation-Werte waren absolut übertrieben und konnten nicht im Menü eingestellt werden.
...weil sowohl der Hersteller der Software als auch AMD schlichtweg vergessen haben, einen entsprechenden Regler einzubauen.
Das wurde ja dann relativ schnell nachgeholt. Das ist aber keine Nachlässigkeit seitens Nvidia, da dies z.B. in der Hairworks SDK sauber dokumentiert war. Da hat beispielsweise beim Witcher schön CDPR und AMD versagt und dann wurde versucht, sich gegenseitig den schwarzen Peter unterzuschieben.
Jämmerlich.

Dass für die Markenfetischisten das ganze dann natürlich auch ein gefundenes Fressen war, war abzusehen.
Dass aber nach all den Jahren, wo schon längst bekannt war, wer hier Mist gebaut hat, immernoch versucht wird Nvidia einen Strick zu drehen, zeigt wieder, dass Urban Myths sich äußerst hartnäckig halten.

Gibt ja auch immernoch diejenigen, die meinen, dass bei Crysis 2 damals irrsinnige Tesselationsfaktoren benutzt wurden und selbst das unsichtbare Wasser unterhalb der Oberfläche tesseliert worden wäre.
Wurde zwar alles schon längst richtiggestellt, aber es bleibt halt doch bei der überwiegenden Mehrheit nur der erste Aufschrei und die Empörung im Gedächtnis.
cunhell schrieb:
4.) Kaufte ich mir einen Gsync-Monitor weil ich gerade eine Nvidia-Karte habe konnte man bei einem Grafikkartenwechsel das Feature nicht nutzen und was noch erheblicher ist, auch Freesync nicht nutzen.
So etwas nennt man Wettbewerb und Segmentierung. Deswegen gibt es solche Firmen wie AMD und NVIDIA.
Gewinn erwirtschaften, Innovationen anbieten, Alleinstellungsmerkmale herausarbeiten.
Das MUSS so sein und ist keinem Unternehmen vorzuwerfen, esseidenn man lebt in einem Paralleluniversum.

Die Firmen brauchen die Kundschaft, aber eben die Kundschaft auch die Firmen, die eine entsprechende Nachfrage bedienen. Das Spiel ist keine Einbahnstraße.
cunhell schrieb:
5.) Klar können sie mit ihrem Zeug machen was sie wollen. Allerdings widerspricht das nicht meiner Aussage, dass Nvidia properitäres Zeug produziert.
Natürlich ist das alles proprietät. Genauso wie die Hardware von AMD, deren Treiber und was weiss ich noch.
Deswegen existieren unterschiedliche Firmen erst überhaupt.
cunhell schrieb:
Sie erzeugen eine künstlich eine technische Markenbindung die nicht nötig wäre. Das es eben nicht nötig wäre zeigten die Notebooks.
Natürlich ist sie nötig. Und zwar um die Wirtschaftlichkeit der Unternehmung zu stützen. Du musst ja irgendwie Deine Mitarbeiter bezahlen. Und wenn diese entwas tolles entwickelt haben, willst Du, dass diese im speziellen davon profitieren und nicht die Konkurrenz.
cunhell schrieb:
6.) z.B World of Warcraft Shadowlands konnte von anfang an DXR auf AMD. Weitere Spiele suche ich jetzt nich noch raus, da alleine schon WoW SL zeigt, dass DXR schon von Anfang an (Nov 2020) mit AMD RT kann.
Das es erst jetzt mit AMD RT gibt wil sie es nicht gebacken bekommen haben, ist damit widerlegt.
Ist es nicht, da mehrere unabhängige Tests gezeigt haben, dass AMDs Treiber eben fehlerhaft waren und nicht so weit, DXR in vollem Umfang zu unterstützen (siehe Watchdogs).

cunhell schrieb:
7.) Und schön das Du immer brav Nvidias hang zu DX11 verteidigst. Nvidia hat so lange DX11 mit ihrer Marktmacht gepuscht, bis sie selbst DX12 für DXR, ach nein, für Dich heisst es vermutlich RTX, brauchten.
Da muss man nichts verteidigen. Das ist der normale Verlauf einer Entwicklung. API kommt auf den Markt. Je nach Notwendigkeit wird diese adaptiert oder nicht.
Es liegt doch an jedem Hersteller selbst, wie er seine Produkte auf einen entsprechenden Bedarf hin optimiert.
Wie man da auch noch etwas schlechtes hineininterpretieren will, dass NVIDIA seine DX11 Leistung optimiert hat, ist mir wirklich ein Rätsel.
cunhell schrieb:
So und nun hab ich keinen Bock mehr. Für Dich ist Nvidia der heilige Gral
Das hast nicht Du zu entscheiden, was NVIDIA für mich ist.
Für mich ist NVIDIA, wie AMD auch ein Konzern mit Gewinnabsichten. Das ist in meinen Augen Legitim.
Beide Firmen versuchen durch unterschiedliche Methoden ihre Kundschaft an sich zu binden.
Keiner der beiden Firmen hat etwas zu verschenken.

Für mich zählt nur Technik und Innovation und da hat derzeit NVIDIA die Nase mit ihren Produkten vorn.
Ist ja nicht so, als dass AMD nicht auch schon tolle Konzepte parat hatte, die der Konkurrenz voraus waren.
Leider wurden die guten Ansätze auch manchmal durch schlechten Software- Support zunichte gemacht (z.B. primitive shaders).
cunhell schrieb:
der mit seinem Schein alles kritische überstrahlt. So soll es sein.
Nein- Nur ist es im Gegenteil so, dass Du aus Deiner Sicht z.B. alle positiven Errungenschaften, die NVIDIA mit seiner RTX Plattform erreicht hat, in ein negatives Licht rücken willst bzw. den Wert/Impact/Nutzen der Innovation kleinreden. Da trifft dann der Spruch:"Wer im Glashaus sitzt..."
cunhell schrieb:
Wenn Du Dir Nvidias Firmenphilosophie so verinnerlicht hast, macht es eh keinen Sinn weiter zu schreiben.
Was ist denn Nvidias Firmenphilosophie?

Ich bewerte immer nur Produkte und deren Technik.
Mich hat die Firma, die dahintersteht noch nie sonderlich interessiert, denn wenn man tiefer schürft dürfte man moralisch gesehen bei keiner mehr einkaufen. Aber da greift oft der klassische Selbstbetrug bzw. der Rechtfertigungsversuch ganz nach dem Motto "meine Lieblingsfirma ist zumindest weniger schlecht als Deine".
 
Zuletzt bearbeitet:
Fighter1993 schrieb:
Ja dem deady1000 darfst nix glauben, man könnte meinen er bekommt Geld von Lederjacke für sein gebrabbel...
Ne, ich bekomme nix, außer der Genugtuung deinen Cherrypicking-Müll zu widerlegen. Ganz davon ab, kann ich im Gegensatz zu vielen anderen wenigstens behaupten, eine solche Karte zu besitzen. Wieviele RX6900er gibt es denn und was kosten sie? In der Steam-Nutzer-Statistik tauchen die RX6900er, 6800/XTs und 6700er nicht einmal auf, weil die Anzahl die Schwelle nicht überschritten hat, dass sie aufgeführt würden.
Fighter1993 schrieb:
Warten wir erstmal FSR ab, es soll ja auch anders ablaufen als DLSS, die werden das schon machen.
Ja, warten wir es ab.
Popcorn, sowie Bild- und Leistungsvergleiche stehen bereit.
Fighter1993 schrieb:
Wer hätte vor 3 Jahren geglaubt das eine RX 6900XT die schnellste Grafikkarte am Markt sein wird.
Ist sie ja nicht.
In deiner lächerlichen Traumwelt vielleicht.
:schluck:

In den 3DMark Bestenlisten taucht ne 6900X quasi nie auf.
Wo ist denn bitte diese schnellste Grafikkarte?
Ich sehe da fast ausschließlich RTX3090er.
Hm, komisch.

https://www.3dmark.com/hall-of-fame-2/timespy+3dmark+score+extreme+preset/version+1.0/1+gpu

Naja... dann müssen wir eben in die Benchmarks gucken:

1619013521985.png
https://www.pcgameshardware.de/Graf...s/Rangliste-GPU-Grafikchip-Benchmark-1174201/


1619013545698.png
https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html


1619013668955.png
https://www.gpucheck.com/de-eur/gpu-benchmark-graphics-card-comparison-chart


1619013734095.png
https://benchmarks.ul.com/compare/best-gpus


1619013802156.png

https://www.computerbase.de/artikel...#diagramm-performancerating-avg-fps-3840-2160

1619013858727.png


1619013957738.png
https://www.gamestar.de/artikel/radeon-rx-6900-xt-test,3364864,seite2.html


1619014060838.png
https://www.chip.de/bestenlisten/Bestenliste-Grafikkarten-PCIe--index/index/id/733/


1619014101324.png
https://www.hardwareschotte.de/magazin/welche-grafikkarte-brauche-ich-a41503


1619014158141.png
https://gpu.userbenchmark.com/

Soooo... und jetzt kannste ein Video von Hardware Unboxed verlinken und dann vor deinem Computerbase-1080p-Ranking-Wandposter beten gehen oder so. Viel Spaß.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: imation7
deady1000 schrieb:
Ne, ich bekomme nix, außer der Genugtuung deinen Cherrypicking-Müll zu widerlegen....
In deiner lächerlichen Traumwelt vielleicht.
:schluck:
In den 3DMark Bestenlisten taucht ne 6900X quasi nie auf.
guckste Du hier: L!me im Luxx oder die kleine 6800xt von Gurdi bei PCGH
https://www.hardwareluxx.de/community/threads/radeon-rx-6000-3dmark-time-spy-rangliste.1294520/
https://docs.google.com/spreadsheet...ZXBRa2WnzW6mJ0Dlgsv9UX_-zPKvA7ivt84n/pubhtml#
(alles normale OCing Ergebnisse ohne Chiller oder LN2)

Poste doch mal bitte Deinen Score zum Vergleich.

Ich finde die Scores vgl. zum Launch net schlecht!
(der 21.3.2 hat aber auch ein mue gebracht ggü. den Launchreviews)
 

Anhänge

  • L!me_TS.JPG
    L!me_TS.JPG
    55,9 KB · Aufrufe: 305
  • Gurdi_TS.jpg
    Gurdi_TS.jpg
    386 KB · Aufrufe: 304
  • 6700xt_TS@Launch.PNG
    6700xt_TS@Launch.PNG
    49,6 KB · Aufrufe: 293
Zuletzt bearbeitet:
@GerryB

Gurdi ist jemand, der gefühlt jede GPU jeder Serie besessen hat und ganz zufällig immer ausgerechnet den goldenen Chip der jeweiligen GPU. Man könnte fast unterstellen er bestellt immer gleich 10 Grafikkarten und behält nur die beste. Ist natürlich ne böse Mutmaßung, aber es fällt halt irgendwann auf, dass er immer die schnellsten Chips mit der krassesten UV-Toleranz besitzt. Vielleicht ist es auch nur Glück. Aber ich glaube es gab sogar mal ein Video von IgorsLab, wo Igor Gurdi erwähnt hatte und meinte "selbst meine wassergekühlte 6800XT kommt nicht an die luftgekühlte 6800XT von Gurdi heran". Also da weißte eigentlich schon bescheid. ;)

Wenn du einen Benchmark von Gurdi heranziehst, kannst du prinzipiell schon mal 10% abziehen und dann bist du ungefähr auf einem realistischen Niveu, was andere Nutzer mit der selben Karte erreichen.

Ganz davon ab, habe ich nur ein X470-Board, keinen 5900X und bin kein erfahrener Benchmarker bzw Hardcore-Optimierer. Als ob ich mich da auf so einen Vergleich einlasse. Hab ich überhaupt nicht nötig mit meiner, zur UVP gekauften, RTX3090FE. :p

Geh halt selbst in die 3DMark-Bestenlisten und vergleiche den Score von Gurdi mit entsprechenden RTX3080ern und RTX3090ern. Da wäre der Vergleich wohl etwas realitätsnäher.
 
Du hast Recht!

Gurdi hat ne Strixx-LC@240er original AiO und nur mit LM etwas aufgebrezelt, sprich bessere Hotspot-Temps.
dito L!me

Aber vermutlich gibts in den Ampere-Listen auch Leute mit besserer WLP/LM.
Würde man automatisch beim Umbau auf Fullcover eh beachten.

Insgesamt kann ich allen Usern beider Colours nur raten, die Gehäuselüftung und Graka-Lü.kurve
ordentlich einzustellen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Hab's dann jetzt doch mal getestet.

Sage aber vorab, ich habe kein PCIe4.0 und nur ein X470er-Board, sowie nur einen R9 3900X. Des Weiteren ist meine FE nicht so ein Powerlimit-Monster, wie andere Custom-Modelle. Und zu guter Letzt ist mal festzuhalten, dass der normale TimeSpy (ohne Extreme) nur ein WQHD-Benchmark ist und eigentlich der TimeSpy Extreme herangezogen werden müsste, da er dank 4K eine deutlich höhere GPU-Last erzeugt. Also wenn man den normalen TimeSpy nimmt, ist es eigentlich ein Vorteil für BigNavi, die ja ab ca 4K ordentlich zurückfallen. ^^ Aber egal. Ich habe es ja jetzt erwähnt und wir wissen das sowieso alle.

TimeSpy.PNG

Verglichen mit der wassergekühlten RX6900XT von IgorsLab kann sich meine Karte sehen lassen.


igor.PNG

IgorsLab RX6900XT - Wasser:
20710 Punkte

Meine RTX3090FE - Wasser:
21516 Punkte (+3,9%)

Obwohl Igor ein X570-Board, PCIe4.0, SAM und einen 5900X nutzt.


Schneller als Gurdis RX6800XT (21447 Punkte) bin ich mit dem Score auch, trotz bereits genannten Vorteilen seinerseits, wenn auch zugegebenermaßen deutlich knapper. Aber meine FE macht halt auch nur ca 2GHz und ist eher fürs Undervolten als fürs Overclocken geeignet, während Gurdi wieder mal den goldenen Chip erwischt hat und seine Karte gefühlt mit 2.75GHz taktet. Wie stabil das im Alltag ist kann ich nicht beurteilen.

Die RX6900XT von L!me kann meine Karte nicht schlagen. Um diesen Benchmark müsste sich mal jemand mit einer Asus Strix o.Ä. kümmern und nicht ich mit der Founders Edition. ^^ Seinen Score jedoch als Referenz zu nehmen finde ich schon frech, da er 12,7% schneller ist als Igor mit seiner wassergekühlten RX6900XT. Also WTF ist das denn bitte? :freak: Sehr realitätsnah jedenfalls... sein Ergebnis fällt komplett aus der Reihe. Cherrypicking. :D

Letztendlich sind die BigNavis schon sehr gute Rasterization-Karten. Die hohe Effizienz und die niedrigere UVP sind hier definitiv Pluspunkte. Trotzdem wäre mir das Fehlen vieler Features (DLSS, brauchbares RT, NVBroadcast/RTXVoice, NVENC, CUDA, usw) ein Dorn im Auge und in Anbetracht der Tatsache, dass diese Karten sich in normalen Spielen im Grunde gar nichts mehr nehmen, kommt es eben gerade auf diese Nebenfeatures an, wenn man ein Preis-Leistungs-Verhältnis ermitteln will.

Und wenn wir über begehrte Spiele, wie Cyberpunk2077 sprechen, dann sind das auch keine kleinen Gimmicks mehr, sondern entscheidende Features bzw buchstäblich Gamechanger.
 
Zuletzt bearbeitet:
Ruhig Brauner!

Du hattest geschrieben das nie die 6900(6800xt) in Score-Listen ne Rolle spielt.
Wollte Dir nur zeigen, das man nur in die richtigen Listen anschauen muss.
https://docs.google.com/spreadsheet...ZXBRa2WnzW6mJ0Dlgsv9UX_-zPKvA7ivt84n/pubhtml#
Bei pcgh hat man auch noch die Watt-Angaben falls Es interessiert. Und ab und zu mehrere Ergebnisse mit
unterschiedlich viel Schmackes: im Anhang Gurdi@255W asic=ca. 293W
(finde ich ne recht effiziente Einstellung)
Bzgl. TS= WQHD kann ich nur Jein sagen, weil durch das AsyncCompute auch größere Chips Ihre Vorteile haben.


btw.
Die HWBOT-Listen sind glaube auch nochmal nach CPU getrennt möglich/einsehbar.
(die Reviewer nehmen nach m.E. nur die original Spannungs/Taktkurven = net optimal)
 

Anhänge

  • Gurdi@255W_asic.png
    Gurdi@255W_asic.png
    750,6 KB · Aufrufe: 273
Zuletzt bearbeitet:
Ich habs aufgegeben mit dem spiel, die werden nie fertig und oft nur halbherzige patches. Die kennen sich selbst nicht mehr aus.
 
Moin, wieso wird den da weiter gebastelt. War doch alles gut noch. Marketing Mist immer. Aber anscheint Arbeiten über all nur noch Fuscher . Erst testen und dann geht es in die Öffentlichkeit. Wird kein Update gemacht, wollte in nächster zeit wieder es aus packen. Hab es ja bereits lange durch (war auch nicht schwierig). Zu minderst 2 Jahre soll meine 5700XT noch genügend sein, ohne das es ruckelt. Gönne mir die alten RETRO Games :love: ob GameBoy mit neuen Display oder Emulator ... das ist Hot.
 
Zurück
Oben