• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Warhammer 40K Darktide: Für Raytracing wird bereits eine RTX 4080 empfohlen

"Für Raytracing wird bereits eine RTX 4080 empfohlen" ist halt auch so eine Überschrift. Klingt erstmal nach großem Aufreger. Dann aber im Detail: "In 4K bei einem Target von 100 fps". Ja, ok, DAS ist dann natürlich weniger überraschend. Ohne RT und in geringerer Auflösung sind's halt nur sehr normale Anforderungen.

Aber ich schätze, sowas in der Art wird man bei den meisten zukünftigen Spielen dazuschreiben können. Also zumindest bei AAA Titeln. In 4K mit Raytracing wird man für über 100 (!) fps sehr oft eine 4080 (bzw. 7900 XTX) brauchen. Das ist aber weder überraschend, noch sonderlich aufregend.
Ergänzung ()

DenizcanCB schrieb:
Wenn die Entwickler nicht mehr ihre Spiele polishen und eine highend Karte gerade so „ausreicht“. Optimierung ist denen mittlerweile ein Fremdwort.

4K Raytracing 100 fps ist doch nicht "gerade so ausreicht".
 
FU_long schrieb:
Ohne RT und in geringerer Auflösung sind's halt nur sehr normale Anforderungen.
Irgendwie wird ständig übersehen, dass selbst bei 1080p ohne RT auch schon eine RX 6800 XT (also RTX 3070 bis 3080 Niveau) verlangt wird, wohingegen von Nvidia dafür selbst eine RTX 2060 ausreicht (gerade mal halb so schnell wie eine RX 6800 XT). Das würde ich nicht als "normal" bezeichnen.
 
  • Gefällt mir
Reaktionen: s1msala
Kleinwagen oder Raytracing bei 60fps. Ihr entscheidet
 
  • Gefällt mir
Reaktionen: Illithide
Also die Systemanforderungen von Fatshark sind leider totaler Bullshit. Als 6800XT Besitzer kann ich sagen: High 3440x1440px RT off + ohne FSR = 55-85 FPS - also nichts was man mit dem genannten "medium 1080p" Setting und Gefilden um ne 3060 vergleichen könnte.

Desweiteren gefällt mir die Implementierung von FSR2.0 sehr gut - IMHO wird das Bild sogar etwas besser bzw. Unterschiede sind bei dem Gameplay nicht wahrnehmbar. Mit FSR2 Quality läuft es dann übrigens zwischen 90 und 120 FPS.

Nach dem ersten Schock ist das für mich fine, zumal im Freundeskreis auch 3080 und 2080Ti User schlechte Frames haben. Ich denke hier haben alle die gleiche Arschkarte gezogen, keiner kann hier mit mehr FPS glänzen nur weil er ausm anderen Lager kommt. Alles in allem ist es aber trotzdem ein gutes Spielerlebnis trotz der grottigen optimierung... Man musste sich eben kurz mit den Settings auseinandersetzen.

Ergänzung: High Preset bedeutet hier auch max Settings, wie vom Developer vorgesehen. Volumetric Fog geht beispielsweise auch auf "Extrem" aber das hat keinen wirklich sichtbaren Effekt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Melu76 und Ragnarök88
mibbio schrieb:
Da dort die RTX 2060 und RTX 3060 aus ausreichend genannt werden, dürfte DLSS 3.0 (mit Frame Generation) als Grund für den Unterschied zur 6800 XT auch rausfallen, denn das gibt's ja erst mit den RTX 4000ern.
Ja, da die 3060 ja kein DLSS 3.0 kann, ist es definitiv irritierend.
Es könnte Werbung sein, um die alte 3000er Generation noch zu verkaufen.
 
Ja aber das Spiel läuft dann auf einem 4700S der PS5 und Xbox SX
 
Illithide schrieb:
FSR1 und 2 soll laut Artikel ja ebenfalls implementiert sein. Dann brächte "nur" framegeneration per DLSS3 einen proprietären Vorteil für nV. Ändert ja dann nichts an Deiner ersten Aussage außer, dass auch nV-Nutzer bis Ampere die Veralberten sind. Vielleicht kein genereller RTX-Showcase, aber ein DLSS3-Showcase. Machts doch aber jetzt irgendwie nicht besser, eher ím Gegenteil.

nee, ich habe schon DLSS gemeint. sonst wären die 2060 und 3060 ja nicht bei medium settings on par mit der 6800 XT
 
thermalpaste schrieb:
Also die Systemanforderungen von Fatshark sind leider totaler Bullshit. Als 6800XT Besitzer kann ich sagen: High 3440x1440px RT off + ohne FSR = 55-85 FPS - also nichts was man mit dem genannten "medium 1080p" Setting und Gefilden um ne 3060 vergleichen könnte.
Sooo. Habe gerade auch nochmal kurz mit RT auf der 6800XT getestet. Bei max RT und High(est) Preset bekomme ich im Prolog etwa 60-80FPS+FSR2 Quality... Ist doch eigentlich alles im Rahmen

Den Unterschied mit RT sieht man schon - trägt auch zur Stimmung bei - aber bei echtem Gameplay brauche ich das nicht.
 

Anhänge

  • 20221118154618_1.jpg
    20221118154618_1.jpg
    761,7 KB · Aufrufe: 193
  • Gefällt mir
Reaktionen: Geringverdiener, Illithide und Melu76
thermalpaste schrieb:
Also die Systemanforderungen von Fatshark sind leider totaler Bullshit. Als 6800XT Besitzer kann ich sagen: High 3440x1440px RT off + ohne FSR = 55-85 FPS - also nichts was man mit dem genannten "medium 1080p" Setting und Gefilden um ne 3060 vergleichen könnte.

dachte ich mir schon, die angaben ergeben wenig sinn.
(vielleicht haben die auch 6800XT mit 6600XT verwechselt)

da kam für mich nur als erklärung DLSS infrage und alles andere verkackt.

aber gut, das es nicht so ist.
 
Melu76 schrieb:
dachte ich mir schon, die angaben ergeben wenig sinn.
(vielleicht haben die auch 6800XT mit 6600XT verwechselt)
Ich vermute eher, dass sie sich für die Tabelle bei AMD in der Generation vertan haben. Bei Steam wird neben der RTX 2060/3060 nämliche eine RX 5700 XT genannt.
Die empfohlene Hardware bei Steam entspricht ansonsten 1:1 denen für 1080p aus der Tabelle, eben bis auf die AMD Grafikkarte. Da vermute ich einfach mal einen Schreibfehler seitens des Entwicklers in der Tabelle, die hier als Bild im Artikel ist.
 
  • Gefällt mir
Reaktionen: thermalpaste
Melu76 schrieb:
dachte ich mir schon, die angaben ergeben wenig sinn.
(vielleicht haben die auch 6800XT mit 6600XT verwechselt)
Bei Steam steht ja auch 5700XT - Ich dachte mir auch - 6600XT ergibt einfach mehr Sinn - die ist zwar nicht besonders stark, aber immerhin "modern" genug.

Ich finde es gerade tatsächlich aber dubios dass RT so gut bei mir läuft
 
thermalpaste schrieb:
Bei Steam steht ja auch 5700XT - Ich dachte mir auch - 6600XT ergibt einfach mehr Sinn - die ist zwar nicht besonders stark, aber immerhin "modern" genug.

auf FHD ist die 6600 XT stärker als 3060 und sowieso stärker als die 2060, sogar in Cyberpunk wo ja Team Grün deutlich besser dasteht im Durchschnitt.

also stimmt mit den angaben was nicht, weil sie keinen sinn ergeben
 
  • Gefällt mir
Reaktionen: Illithide und thermalpaste
TKessel schrieb:
Das haben wir bei der 30er Serie eben auch gedacht, der Sprung war jetzt doch wieder gigantisch.
Habe ich bei der 2000er nicht gedacht und bei der 3000 erst recht nicht.
Deswegen habe ich mir bis Heute auch nichts gekauft und arbeite noch mit einer 1080.
Einzig und alleine ein zweiter Monitor mit geringere Auflösung ist dazu gekommen, um die Leistung der 1080 besser kompensieren zu können.
Mein Sweet Spot ist 4k nativ und dafür waren die 2000-3000 zu langsam.

Die 4090 ist insofern interessant für mich.
Weil die 5000er Karten keinen großen Leistungssprung mehr machen und schaffen werden.

Ähnlich wie es bei der 1000 auf 2000 und später 3000 der Fall war.
DLSS hält statt dessen zur Kompensation zukünftiger Leistungsteigerung hin.

Die 4090 ist teuer, keine Frage.
Aber selbst bei 1000€ oder 1500€ mittelklassen Karten, überlege ich nicht lange, ob ich wegen 15%-25% mehr Leistung zur nächsten Generation wechsel und massiven Wertverlust + das was ich für so wenig Mehrleistung drauf zahlen darf, kaufe soll. Ich kaufe es auf jeden Fall nicht.

Einzig und alleine ein DLSS 4.0 könnte Nutzer einer 4000 Reihe zu einem Wechsel animieren, wenn die Rohleistung keine großen Sprünge macht und man alle Karten auf KI gesteuertes DLSS setzt.
 
Zuletzt bearbeitet:
AahhFreshMeat schrieb:
Optimierung ist mittlerweile ein Fremdwort.

Zocke gerade A Plaque Tale: Requiem mit Hardware die in der Sig ist. Fühlt sich an als wenn ich mit Zeug aus 2015 zocken würde....
Zweifelsohne sieht die Grafik schon super aus, aber das tut bei anderen Games auch, und da schiebe ich die Regler immer ganz nach Rechts ohne Ruckler zu haben.
Der Ryzen 3600X ist etwas schwach für RX 6800 XT. Ein CPU-Upgrade könnte da nachhelfen.
Ergänzung ()

Creeper777 schrieb:
Mein Sweet Spot ist 4k nativ und dafür waren die 2000-3000 zu langsam.
Ähm, dann ist es kein Sweet Spot. Das wäre WQHD.
 
Für mich klingt das einfach nur schlecht optimiert.... Wenn Spiele mit Unreal Engine 5 oder der neuen Unity Engine genauso Hardware hungrig wären dann gute Nacht.
 
Hirschschnaps schrieb:
Uff, da bin ich raus. Wenn das mit einer 6700 schon zum Gekrebse wird, brauch ich das nicht. Da tuts dann auch der verschenkte Vorgänger. :D

Edit
Auch seltsam, auf Steam wird es noch recommended mit:
"Graphics: NVIDIA GeForce RTX 3060 / RTX 2060 OR AMD Radeon RX 5700 XT"

Wie kommt es plötzlich zu der Aufstufung, welche nur die AMD Karten betrifft?
oh, der Titel auf Epic ?
Stimmt ja, danke.
Gleich mal reingucken, ich war mir nicht sicher was ich von dem Spiel halten soll und ob das wirklich etwas mit der Reihe zu tun hat.
 
Tom_111 schrieb:
Der Ryzen 3600X ist etwas schwach für RX 6800 XT. Ein CPU-Upgrade könnte da nachhelfen.
Ergänzung ()


Ähm, dann ist es kein Sweet Spot. Das wäre WQHD.
Zocke in 1440 mit einem 3600er ohne X und mit einer 6800 ohne XT. Die beiden ergänzen sich da ganz gut ;)
In 1080 würde ich dir Recht geben. Da würde der 3600er die GraKa ausbremsen. Aber für 3-5% mehr FPS würde ich mir jetzt kein Upgrade holen.

Ich hab natürlich ein wenig übertrieben. Habe auf Ultra bei WQHD zwischen 70 und 80 FPS. Die ganzen "Bildverbesserer" wie Bewegungsunschärfe und Chromatische Aberation sind ausgeschaltet.
 
Du meinst eher, es schleicht auf einer Intel iGPU ;)
 
  • Gefällt mir
Reaktionen: Geringverdiener
970 min aber empfehle schon eine 4080 ?

Das nenne ich mal "all over the place".

So eine detailierte Auflistung sieht man selten. Würde es deshalb als wage Anhaltspunkte nehmen was zu erwarten ist.
Eine Favoritisierung gegenüber NV ist ja schon zu prognostizieren. Oder Briefumschläge haben Besitzer gewechselt. Werbung kostet eben 🤑
 
Zurück
Oben