2070 Super ist effizienter als die 3090?

Soweit ich Reviews gelesen habe, hat das Spiel wie so viele Spiele die in letzter Zeit riesige Performance Problem, vor allem im Co-Op.
 
  • Gefällt mir
Reaktionen: DaysShadow
PinkyPink schrieb:
Ist der i9-12900K zu schwach für die 3090?
Nein, das Spiel ist potenziell so bescheiden programmiert, dass beide CPUs nicht in der Lage sind der GPU mehr Zeit zum rendern zu geben. Du kannst in solch einem Fall also schlichtweg nicht mehr FPS bekommen.

Deswegen die Frage nach anderen Spielen. Fragen zu ignorieren und nur auf das einzugehen auf das du Bock hast ist ziemlich daneben.
 
  • Gefällt mir
Reaktionen: acidarchangel und Aduasen
Du vergleichst ne Mobile GPU mit ner Desktop GPU?
Die hat 115W vs die 350W
 
Zuletzt bearbeitet:
Wenn ich DLSS ausmache, sonst die Einstellungen auf Hoch habe und nur rum stehe dann bekomm ich diese werte
 

Anhänge

  • DLSS off.jpg
    DLSS off.jpg
    66,3 KB · Aufrufe: 114
CloudConnected schrieb:
Du vergleichst ne Mobile GPU mit ner Desktop CPU?
Mobile GPU mit Desktop GPU, nicht CPU. Darf man das nicht oder warum die Frage? Besonders wenn beide die gleichen FPS liefern wirft das ja erstmal zurecht Fragen auf.

Edit:
CloudConnected schrieb:
Die hat 115W vs die 350W
Lies doch erstmal den Thread komplett bevor du irgendwas schreibst...meine Güte...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aMMo
DaysShadow schrieb:
Nein, das Spiel ist potenziell so bescheiden programmiert, dass beide CPUs nicht in der Lage sind der GPU mehr Zeit zum rendern zu geben. Du kannst in solch einem Fall also schlichtweg nicht mehr FPS bekommen.

Deswegen die Frage nach anderen Spielen. Fragen zu ignorieren und nur auf das einzugehen auf das du Bock hast ist ziemlich daneben.
Sorry, Ich hab zur zeit nur grad das Spiel auf diesem Rechner, da ich heute neu Aufgesetzt habe, um dir da eine Richtige Antwort zu geben, muss ich zuerst was installieren und dann auf beiden Rechnern genau gleich Einstellen, das ich es vergleichen kann, mir ist das halt in diesem Spiel extrem aufgefallen da ich es eben nicht alleine spiele, also geb mir einige Minuten das ich dir dann Eine Antwort geben kann.
 
  • Gefällt mir
Reaktionen: ergibt Sinn
PinkyPink schrieb:
also geb mir einige Minuten das ich dir dann Eine Antwort geben kann
Du sollst ja nicht direkt Ergebnisse liefern, aber eben ein "Hab noch keine anderen Spiele getestet" ist auch eine Antwort.

Teste nach Möglichkeit etwas das gut optimiert ist von einem großen Studio und nicht irgendeiner Indiebude.
 
Wie ist der LOD Bias im Game eingestellt? Wenn der zu niedrig ist (unter 1), soll das zu einem extremen CPU Limit führen.
 
  • Gefällt mir
Reaktionen: Aduasen
DLSS schönt die Werte der 2070S halt enorm. Sehr wahrscheinlich. Wie sind denn die DLSS-Einstellungen? Die exakt gleichen? Wenn ich mir die Frames der 3090 anschaue, dann zeigt das doch ganz deutlich, dass auch die 3090 die 60 FPS gar nicht stabil halten kann. Könnte natürlich auch am CPU-Limit liegen...
Aber im letzten Screenshot sind wir ja dann auch schon bei 85% Auslastung der 3090.

Aber ich habe halt vor allem Zweifel, dass wirklich EXAKT die gleichen Settings anliegen. Darüber hinaus dürfte die 2070S sowieso ordentlich gedeckelt sein.
 
Zuletzt bearbeitet:
Nie im Leben sind das die gleichen Settings bei der Performance und Leistung die die Karte aus der Dose zieht, GeForce Experience an das in den Settings fummelt?
 
  • Gefällt mir
Reaktionen: kachiri
Da muss schon was gewaltig schief laufen oder die 3090 nicht auf vollen Lanes laufen dass da so derartig Strom gezogen wird wenn es die 2070 Super "locker" schafft.
 
das Spiel… dürfte wohl nur um die 4 threads belasten, zumindest wenn meine Prozentrechnung hinhaut (12 x 0,35 = 4,2; 24 x 0,16 = 3,84 mit etwas toleranz für die effizienz kerne)


btw: was sagen denn die Temps der 3090? haste nebenbei schonmal hwinfo laufen lassen?
 
Bescheiden programmiert oder nicht, es sollte dann ja trotzdem für beide Karten gelten. Die 2070s Mobile ist bestimmt beschnitten, aber auch das ändert nichts beim Vergleich. Die Frage ist, ob die ausgelesene Werte den Tatsachen entsprechen. Ich hätte gesagt, es liege an der vergleichsweise gigantischen Anzahl an Shadern, aber die 3090 ist nicht voll ausgelastet und zieht trotzdem das Maximum.
 
Mach mal ein Benchmark als Basis, ob nun User Bench oder 3D Mark oder Heaven Bench. Damit weißt du erstmal ob die Karte richtig funktioniert. Ist das gegeben muss man weiter schauen wo es Probleme auf der Software Seite geben könnte.
 
  • Gefällt mir
Reaktionen: DaysShadow
nicK-- schrieb:
Mach mal ein Benchmark als Basis, ob nun User Bench oder 3D Mark oder Heaven Bench. Damit weißt du erstmal ob die Karte richtig funktioniert. Ist das gegeben muss man weiter schauen wo es Probleme auf der Software Seite geben könnte.
Hab mal einen 3DMARK gemacht

gidra schrieb:
Die Werte von HWiNFO wären besser und auch eher glaubwürdiger.
HWiNFO lass ich laufen und spiel dann mal einige Minuten um da Daten zu bekommen
 

Anhänge

  • 3DMARK.png
    3DMARK.png
    878,3 KB · Aufrufe: 105
PinkyPink schrieb:
nur das die 2070S nur grad an die 100W braucht die Temperatur sich so bei knapp 60-65 einpendelt und meine 3090 im durchschnitt 320W saugt
Wo hast du denn den Verbrauch her? Ist das eine errechnete Ingame Anzeige von einem Tool, ein gemessener Wert inklusive/exklusive die restliche Hardware?
 
@PinkyPink Der Wert ist absolut in Ordnung. Wenn du den Benchmark genauso auf deinem Notebook durchführst solltest du sehen, dass der Wert dort deutlich geringer ausfällt. Es ist einfach das Spiel das nicht gut performt, mit deinen Computern ist alles i.O.
 
Zurück
Oben