• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Assassin's Creed Shadows im Test: Benchmarks mit 22 Grafik­kar­ten von Nvidia, AMD und Intel

Wolfgang schrieb:
Da es sich um FSR 3.1 in dem Spiel handelt, ist FSR FG völlig entkoppelt von FSR Super Resolution.

Ok das ist schon mal gut. Taugt denn das tauu (upscaling) etwas im Vergleich zu fsr uns xess?
In SW Outlaws waren beide katastrophal, dafür ging das taa einigermaßen klar.

Ohne vernünftige Kantenglättung spiele ich das nicht. :)
Ergänzung ()

SonyFriend schrieb:
Das kann doch gar nicht sein! So viele schreiben hier seit Monaten, das 12 GB heutzutage einfach nicht mehr ausreichen.
Wem kann ich noch trauen?

Du kannst entweder drauf vertrauen, dass ab diesem Spiel wie von Zauberhand alle Studios das so schaffen, oder schaust dir vergangene Spiele an und gehst lieber auf Nummer sicher. Dein Ding.
 
Zuletzt bearbeitet:
@SKu Da hast du nicht ganz unrecht. Natürlich ist da auch nicht wenig "pie mal daumen drinn" Auch weiß man nicht wie schlecht und gut die Treiber sind. Noch ein Problem was so ein früher Test mit sich bringt.

Aber sowohl die 3060ti wie auch die b580 performen unterirdisch. Mal angenommen es sind nicht die Treiber, beide haben ja mehr als 8GB speicher, oder, daher sollte es nicht am Speicher Setting liegen. Gerade das überrascht mich dann doch extrem. Denn man darf ja nicht vergessen, QHD + Scaller = praktisch 1080p ohne scaller... pie mal daumen...

Klar gehts da noch nach oben. Aber denkst du wirklich man kommt mit irgendwelchen Settings ohne Scaller noch auf 60 FPS?! Und das konnten halt schon GPUs für 300€ vor 10 Jahren.

@xexex
Mein einzigster Mindestanspruch sind 1080p nativ, 60 fps. Kein 4k. kein RT. Das sehe ich hier halt nicht. Aber vieleicht unterschätze ich was auf Low Seting unten rumkommt. Also nativ 1080p, aber alles auf low. Aber dann sieht es vermutlich nicht merh schöner aus als KCD! Und nur darum geht es! Es habe meine zweifel das die Engine, das Spiel nach unten rum gut skalliert. Nicht was ich persönlich möchte ooder erwarte. Sondern einfach was die Engine untenrum anbietet. Denn das nennt sich Effizens. Etwas was nur auf nem NASA-PC gut aussieht begeistert mcih halt nicht mehr.
 
Zuletzt bearbeitet:
K1LL3RC0W schrieb:
Was dagegen spricht, ist dass die AMD-Karten sehr gut mithalten und selbst die 7000er noch sehr gut mithalten... vor allem die 7900XTX

Sehe ich nicht so, dass das dagegen spricht. Der Titel läuft ja auch auf PS5 und XBox mit entsprechender AMD HW. Da hat AMD wahrscheinlich auch mitgeholfen, wenn die ein ähnlichen Service anbieten wie Nvidia. Da die Konsolen ja im Prinzip Computer sind kann der Code sicherlich auch auf PC angewandt werden mit ggf. kleineren Anpassungen des Frameworks da dieser auf dem PC wahrscheinlich noch mal anders ist als auf Konsole.
 
Czk666 schrieb:
Du kannst entweder drauf vertrauen, dass ab diesem Spiel wie von Zauberhand alle Studios das so schaffen, oder schaust dir vergangene Spiele an und gehst lieber auf Nummer sicher. Dein Ding.

Die neuesten Techniken um VRAM zu sparen sind mittlerweile auch für uns Endnutzer seit Jahren bekannt und wurden häufig beworben.
z.b. Direct Storage und Sampler Feedback Streaming was quasi Virtualisierte Geometrie und Virtualisierte Texturen sind. Gibt auch andere Implementierungen die ähnlich funktionieren z.B. in der UE5.

Künftig stehen auch Neural Texture Compression und Neural Materials in den Startlöchern.

Die Frage ist nur, WANN die Entwickler die Techniken nutzen und wie groß der VRAM bedarf bis dahin anwächst.

Auf der einen Seite kann man bei gleicher Optik die VRAM Auslastung deutlich reduzieren, auf der anderen Seite eröffnet das aber Wege für immer detailliertere und komplexere Welten bei gleichem VRAM Bedarf.

Letztendlich erhöht sich aber die Effizienz, womit man auch bei redutzierten Settings oder geringeren VRAM kapazitäten künftig immer bessere Grafik sehen sollte. Das Problem ist nur, dass viel zu wenige Entwickler die Techniken implementieren.


Wenn dann solche Ausreißer Engines wie die in Indiana Jones um die Ecke kommen, die einen fixen Texture Pool reservieren und auch abseits davon extrem verschwenderisch mit dem VRAM umgehen, weil die zu grundeliegende Umsetzung von streaming und Speichermanagement veraltet ist, dann hast du eben deinen VRAM fresser.

Ob so ein Spiel dann repräsentativ für die Anforderungen künftiger Spiele ist, ist natürlich höchst zweifelhaft. Solche unoptimierten VRAM fresser mit teilweise veralteter Technik brauchen natürlich wenn sie veröffentlicht werden tendenziell immer mehr und mehr VRAM. Aber andererseits werden die Titel mit top modernen Engines, allen voran UE5 immer effizienter mit dem Speicher.


Daher ist es nur logisch, dass Hersteller wie Nvidia mit dem VRAM geizen, weil sie darauf setzen, dass Entwickler entsprechende Technologie zum VRAM sparen in ihre Engines implementieren und zum anderen hast du dann aber trotzdem steinalte unoptimierte Technik, häufig irgendwelchen asiatischen Spielen, die dir mit gefühlt PS3 Grafik 24 GB VRAM voll müllen.

Und da sagen natürlich dann viele user "mit weniger als 16 GB brauchste gar nicht anfangen"und extrapolieren dann dass es in den nächsten Jahren noch viel mehr wird, während das aber tatsächlich nicht so sein muss, weil die Möglichkeiten, die Entwickler hätten, um VRAM zu sparen, sehr, sehr effektiv wären. Sie müssten nur implementiert werden, was eben Entwicklungsaufwand bedeutet.


Aufs einfachste heruntergebrochen kann man Spielen mit hohem VRAM Hunger also mittlerweile tatsächlich "schlechte optimierung" vorwerfen, weil kein modernes Streaming und Speichermanagement implementiert wurde.
 
  • Gefällt mir
Reaktionen: Vigilant
Wolfgang schrieb:
Die Unterschiede die du beschreibst hat nichts mit DLSS zu tun, sondern mit dem dynamischen Wettersystem. Da ich das Spiel nach dem Update auf DLSS 4 in der Nvidia-App ja neu starten musste, ist das Wetter automatisch anders. Deswegen die unterschiede, die du beschreibst.

Ist das wirklich der Fall? Als ich DLSS4 bei Witcher 3 getestet habe, ist mir auch aufgefallem, dass DLSS4 das Bild kühler macht und auch die Schattierungen und Vegetation etwas anders aussehen.

Interessant wäre also der Vergleich zwischen nativ und DLSS4 mit absolut gleichen Bedingungen. Also ohne das Spiel verlassen zu müssen.
 
Geil ist das die 7800 XT die selbe Leistung hat wie die 4070 für 700 (auch mit RT)😆
 

Anhänge

  • Screenshot_20250319-122318.png
    Screenshot_20250319-122318.png
    211,4 KB · Aufrufe: 17
  • Screenshot_20250319-122238.png
    Screenshot_20250319-122238.png
    314,2 KB · Aufrufe: 17
  • Gefällt mir
Reaktionen: SweetOhm
Stoney schrieb:
Interessant wäre also der Vergleich zwischen nativ und DLSS4 mit absolut gleichen Bedingungen. Also ohne das Spiel verlassen zu müssen.
Das geht halt bei dem Spiel nicht, weil es in den Spieleinstellungen kein DLSS 4 anbietet, sondern nur DLSS 3. DLSS 4 bekommt man da nur per Override in der Nvidia App (oder per DLSS Swapper) und das kann man eben nicht im laufenden Betrieb umschalten.

In Cyberpunk 2077 könnte man es aber direkt vergleichen, da man dort ingame zwischen alten und neuem KI-Modell, also zwischen DLSS 3 & 4, wechseln kann. Hogwarts Legacy hat mit dem letzten Patch ja auch DLSS 4 bekommen, da weiß ich aber gerade nicht, ob man im Spiel auch zwischen alt und neu umschalten kann.
 
Mimir schrieb:
Aufs einfachste heruntergebrochen kann man Spielen mit hohem VRAM Hunger also mittlerweile tatsächlich "schlechte optimierung" vorwerfen, weil kein modernes Streaming und Speichermanagement implementiert wurde.

Lustigerweise braucht die andere ubi engine snowdrop sogar mehr als 16 in SW Outlaws, je nach Szenario:

Frame Generation lässt den Bedarf halt anscheinend auch steigen.
 
mibbio schrieb:
Das geht halt bei dem Spiel nicht, weil es in den Spieleinstellungen kein DLSS 4 anbietet, sondern nur DLSS 3. DLSS 4 bekommt man da nur per Override in der Nvidia App (oder per DLSS Swapper) und das kann man eben nicht im laufenden Betrieb umschalten.
Klar, das Spiel bietet nur die Option DLSS an oder eben aus. Wenn man aber in der NVidia App immer "latest" bei DLSS stehen hat, wird ja beim aktivieren von DLSS im Spiel immer das neuste (in dem Fall das K-Modell) aktiv, also DLSS4.

Klar, man kann nicht DLSS3 gegen DLSS4 vergleichen, ohne das Spiel zu verlassen. Aber immerhin nativ gegen DLSS4.
 
lynx007 schrieb:
Die 3060 Ti hat nur 8 GB Speicher. 😉
Was du meinst ist die i.d.R. schwächere 3060 12 GB.

Vorsicht, die 3060 gibt es auch noch als abgespeckte 8 GB/128 Bit Variante.
 
@Fresh-D stimmt da war auch noch etwas. ja sry... bisl verwirend bei NV ja die k*ppel-x variante ist mir auch noch bekannt. Ne 3060 würde ich mir ohnehin nicht mehr holen. DLSS4 oder FSR4 werden bei mir es werden. sprich 4060/5060 oder halt 9060, wen die dort nicht son MSRP Zirkus machen... was ich aber nicht wirklich glaube.
 
Abrexxes schrieb:
Warte mal bis du älter wirst, dann ersparst du dir und uns so einen pubertären Bullshit Post? Du weist nicht was ich meine? Gut so!
Ich habe 24" FHD 165Hz. Aber HiEnd. Ich tausche das gestimmt nicht gegen einen 27" Asia Müll. 400 bis 600 darfst du schon ansetzen. Ja, werde ich auch tun, aber nicht jetzt und der Grund ist so Scheiß banal. Ich habe denn Platz nicht und müsste 2 Monitore ersetzen.
Darf ich jetzt schwimmen gehen? Büdö!
Was hat das mit Alter zutun? Ich bin Ende 30 und meinen letzten FHD Monitor habe ich vor 7 Jahren in Rente geschickt.

Ich will jetzt nicht rechtfertigen oder richten wer wie und welchen Monitor zu nutzen hat, aber es wurde vor einiger Zeit hier von CB in einem Artikel ausführlich dargelegt, warum man welche Auflösungen testet. Mit FHD bist du da nun einmal nicht mehr am Puls der Zeit, zumindest bei der Leserschaft hier auf CB. Das ist auch völlig in Ordnung - jeder soll das nutzen, was er möchte. Dennoch kann CB nicht auf jeden Rücksicht nehmen und orientiert sich da, absolut gerechtfertigt, an den Trends am Markt.

Zu AC:S selbst:
Sieht für mich bisher eigtl. sehr nice aus. Ich bin großer Fan der Serie, habe aber aus Verdruss keines der letzten Titel gespielt - letztes war Origins. Shadows sieht tatsächlich mal wieder interessant aus, auch wenn die Performance auf Blackwell doch eher ernüchternd ist...
 
  • Gefällt mir
Reaktionen: lordZ
Wolfgang schrieb:
Der Abstand beträgt 4 Prozent und nicht 3 Prozent (dein Text bezieht sich auf die RT-Benchmarks, dein genannter Abstand aber auf die Raster-Benchmarks) und irgendwo muss man eben seine Grenze setzen. 50 FPS wollte ich haben, die RTX 4080S liefert 50,1 FPS, die RX 7900 XTX 48 FPS. Ist nur knapp daneben, ist aber eben nun einmal daneben. 0,5 bis vielleicht 1 FPS lasse ich bei sowas immer gelten, mehr aber eben auch nicht.
Mein Text bezieht sich auf die Raster Benches. Da liegt die XTX 3 % vor der Super und in RT 4% dahinter.
Wenn RT bei Dir also ausschlaggebend ist, weshalb testest dann überhaupt noch in Raster ?!? :rolleyes:
Demnach wäre die 5070Ti mit 49 FPS laut Deiner Definition auch noch eine UHD Karte.
 
Für FG braucht es zwingend hvci akä gpu Planung das aber ist massiv instabil glückspiel mit dem Treiber kann sogar bsod haben.
Da ist ein whql win certified driver Pflicht und das vom OS build da dieser definitiv stabil ist bei rtx40 wäre das der um okt 2024 rum 560 series
Ohne hvci läuft alles stabil darum ist fg unbrauchbar.
achja das gilt nur für neu install wer den 22h2 installiert hatte ist noch weiter zurück bei den 520 series zu release von ada 2022
 
@lynx007 Kommt die 5060 überhaupt mit mehr als 8 GB?

Die 9060 kommt ja leider auch wieder als 8 GB Variante, was kein Problem wäre, wenn sie nur ~200€ kosten würde. Aber das kommt wahrscheinlich nicht und aktuell wildert da die B570 (10 GB - 220€).
 
lynx007 schrieb:
Das was AMD noch nicht hinbekommen hat... und das finde ich schon irgendwie fail... sry...
AMD kann FSR4 mangels passender Hardware nicht in älteren Grafikkarten anbieten, wie auch Nvidia DLSS nicht auf GTX-Karten anbieten kann.
 
  • Gefällt mir
Reaktionen: lynx007
@Fresh-D Nein. Aber DLSS4 ist gut und läuft auf jedem Spiel und ich werde den Markt nicht ändern können. Auch wen es bitter ist, von einer RX480 mit 8gb auf eine GPU upzugraden die nicht ein bit mehr speicher hat...

Und Intel kommt für mich als AM4 Zen2 benutzer nicht infrage. Und wen die 9060 wirklich nur in 8gb kommt, dann wüsste ich keinen Grund, außer den Preis, nicht zu einer 5060 zu greifen. Dort gibts immerhin über treiber aktivierbares DLSS4. Weis ja nicht ob das zumindest irgendwan für FSR4 geplannt ist. Sonst wäre Speicher das einzigste argement für AMD, neben den Preis. Inkompatibles FSR4 ist schon nen Krähenfuss.
 
syfsyn schrieb:
Für FG braucht es zwingend hvci akä gpu Planung das aber ist massiv instabil glückspiel mit dem Treiber kann sogar bsod haben.
HVCI ist die Hypervisor-geschützte Codeintegrität. Meintest du vielleicht HAGS oder rBAR/SAM? Zumindest letzteres ist afaik für Frame Generation notwendig.
 
N0Thing schrieb:
AMD kann FSR4 mangels passender Hardware nicht in älteren Grafikkarten anbieten, wie auch Nvidia DLSS nicht auf GTX-Karten anbieten kann.
True! FSR4 erfordert wie NVs DLSS "Tensor" Kerne. Darum wird ja RDNA4 auch die letzte RDNA Gen werden. Dannach folgt CCNA, was praktisch eine "verschmelzung von RDNA und CDNA bedeutet. Korrigiert mich gern wen ich unsinn rede, aber den Schritt den NV schon vor einem Jahrzent gegangen ist? Falls sie es überhaupt mal getrennt haben.
 
syfsyn schrieb:
Für FG braucht es zwingend hvci akä gpu Planung...
Ist HVCI nicht Speicherintegrität und GPU Planung Hardwarebeschleunigung, das ist doch nicht das gleiche oder?^^

Das die GPU-Planung instabil sein kann würde ich bestätigen, hatte zumindest damit BTD in Spielen, nachdem ich diese deaktiviert hatte nicht mehr.^^

Aber ist schon länger her und ich glaube mittlerweile das es auch vom Spiel selbst abhängt.^^
Ergänzung ()

@N0Thing Dein Name ist ziemlich schwer adressierbar Ach das ist eine Null, ich hatte zumindest mal gelesen das aktiviertes HAG die Vorrausetzung für FG war, aber ob es das immer noch ist keine Ahnung.^^
 
  • Gefällt mir
Reaktionen: N0Thing
Zurück
Oben