• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Starfield im Test: 24 Grafikkarten und 12 Prozessoren im Benchmark

cyberpirate schrieb:
Gut zu wissen das es im Arsch einer Katze so aussieht. Schaust du dort öfters rein? Ein Witz ist dein so brillianter Post!
Du tust so, als hätte ich Dich persönlich angegriffen.
Mach den Hals eng und scroll einfach weiter.

Ganz nach dem Motto:
 
  • Gefällt mir
Reaktionen: Snoop7676
W4RO_DE schrieb:
Wieso soll die Unreal Engine ein "Krüppel" sein? Hat sie schwerwiegende Bugs oder was ist damit gemeint?
Primär das stuttering der letzten Spiele. Jedi survivor zum beispiel.
 
BassCatBall schrieb:
Du tust so, als hätte ich Dich persönlich angegriffen.
Mach den Hals eng und scroll einfach weiter.
Und wieder ein super Post.
BassCatBall schrieb:
Ganz nach dem Motto:
Eben sehe zu und nerv nicht mit deinen sinnlosen Posts.
 
RogueSix schrieb:
Die meisten Webseiten (inklusive CB) sind halt stark pro-AMD.
Alter 😂😂. Mir fehlen die Worte. Vor nicht all zu langer Zeit hiess es noch „Nvidiabase“….
 
  • Gefällt mir
Reaktionen: MiroPoch, AssembIer, Seko und 17 andere
Cleanor schrieb:
Zudem ist diese CPU Situation ja vollkommen unwesentlich, da mit guter Hardware wohl kaum auf 1080p gespielt wird
Wenn ich nicht 90 FPS bekomme, egal in welcher Auflösung, weil die CPU in meinem Fall auf 30 min-FPS limitiert. Ja, klar brauch ich dann auch nicht auf 1080p runter. Wäre aber halt trotzdem schön wenn ichs könnte, damit ich zumindest 90 FPS average bekomme.
Ergänzung ()

Lamaan schrieb:
Ich könnte mir vorstellen, dass in diesem Game erstmals die DualissueShader genutzt werden.
Dann wäre die Sortierung der Karten auch korrekt.
Das Potenzial der RDNA3-Karten würde sich damit nahezu verdoppeln.
Das klingt nach einer tollen Idee, aber verhalten sich RDNA2 Karten denn entsprechend und bringen dann so schlechte Leistung im Vergleich zu RDNA3 wie man dann erwarten würde? ;-)
 
BloodReaver87 schrieb:
Alter 😂😂. Mir fehlen die Worte. Vor nicht all zu langer Zeit hiess es noch „Nvidiabase“….

Ja, vermutlich weil CB es gewagt hat, in irgendeinem Artikel mal die Wahrheit zu sagen. Da sind natürlich dann all hier ausgeflippt als mal versehentlich etwas Positives über nVidia berichtet wurde.

Aber sind wir doch ehrlich: Im diametralen Gegensatz zu den Marktanteilen, sind doch mindestens 80% der Community hier AMD-Fans und/oder nVidia-Hasser.

Das ist doch unübersehbar. Ebenso unübersehbar ist es, dass die Auswahl der News und der "Ton" in den Artikeln hier eine klare Sprache spricht, in welchem "Camp" sich die Redaktion befindet. Alles fest in roter Hand! :D
 
cyberpirate schrieb:
Und wieder ein super Post.

Eben sehe zu und nerv nicht mit deinen sinnlosen Posts.
Du hast mich doch angelabert und machst es nun schon wieder. Ist Cyberkevin verwirrt oder was ist los?
Wenn Du mit meinen Posts Probleme hast, dann ist das DEIN Problem und interessiert mich kein Stück.
Pack mich doch einfach auf die Igno-Liste und fertig ist die Sache.
 
  • Gefällt mir
Reaktionen: bluna und Snoop7676
BassCatBall schrieb:
Du tust so, als hätte ich Dich persönlich angegriffen.
Mach den Hals eng und scroll einfach weiter.

Ganz nach dem Motto:
Noch echte Gangster im Forum, holy!
 
  • Gefällt mir
Reaktionen: MiroPoch
RogueSix schrieb:
Die meisten Webseiten (inklusive CB) sind halt stark pro-AMD. Da das Benennen der Wahrheit AMD als negativ ausgelegt werden könnte, wird eben lieber das Deckmäntelchen des Schweigens darüber ausgebreitet, dass mit Starfield erneut (nach Jedi Survivor) ein AMD-sponsored Titel offenbar mit voller Absicht beim Erkennen von nVidia-Hardware ausgebremst wird.

Kann ich mir nicht vorstellen, dass Bethesda oder irgendeine andere Software Firma in so eine Richtung
entwickelt. Man wird es sich wohl kaum mit dem Großteil der Spieler absichtlich verscherzen, sondern eher
geht´s in Richtung Unvermögen oder halt fehlende Optimierung.

Aber wie gesagt, bei mir läufts in 1440p mit max. Einstellungen ohne Upscaling ohne Probleme. In der
Frontier aktuell um die 70fps, ansonsten um die 80-90fps. Grafikkarte hat knapp 58-60 Grad bei knapp
98% Auslastung. Laut HWInfo lag die max. Temp. bei 62 Grad. CPU max. Temp bei 71 Grad. Also von
Hardware "rösten" kann nicht die Rede sein.

Treiber Version 537.13 - RTX 4070 - Allerdings ist mein Windows 10 relativ frisch installiert
 
  • Gefällt mir
Reaktionen: cyberpirate
Linmoum schrieb:
Welche denn? Wohlgemerkt dann aber auch mit passender .dll und Preset C. Denn das ist oftmals nämlich das Problem und nicht DLSS selbst.

Nutzt man die passende .dll und Preset C (was in den allermeisten Fällen das beste Resultat liefert), dann dürfte DLSS in so ziemlich 98% aller Fällen besser als nativ aussehen.
Wieviele User abseits dieses Forums tauschen bitte selbst eine DLL aus?
Keine Ahnung was du mit Preset C meinst..

Letztes Beispiel: wccftech.com/immortals-of-aveum-dlss-3-ghosting-fix-found-though-performance-remains-disappointing
 
  • Gefällt mir
Reaktionen: rentex
0ssi schrieb:
Wozu ? Es hängen doch eh Alle im GPU Limit !? Oder zockt Jemand in 720p low.
Text nicht gelesen? Bei der Amd xtx limitiert die CPU. Außerdem reagiert das Spiel stark auf die CPU. Z.b. wer einen 5800x3d hat wird keine 70fps erreichen mit einer 7900xtx. Mit einem 13600k spiele ne aber schon 90fps drin (in 720p)
https://www.pcgameshardware.de/Star...benchmark-requirements-anforderungen-1428119/


Ein 13900k ist 35% schneller als ein 7800x3d. Von daher währe es sehr interessant wie das Spiel z.b. auf schnelleren Arbeitsspeicher reagiert.
 
  • Gefällt mir
Reaktionen: MiroPoch
ben12345 schrieb:
Ich finde das auch extrem auffällig und sehr schwach von Computerbase das nicht anzuprangern. Hier wurde ganz offensichtlich und mit voller Absicht Nvidia ausgebremst und dlss verhindert
Haben wir hier Quatsch? Yes we have!
 
  • Gefällt mir
Reaktionen: MiroPoch
Es ist schon bezeichnend das hier Nvidia wieder ein mal suckt und das trotz keinen VRam Problemen, der höherer CPU Verbrauch des Treibers ist auch nicht erst seit Heute bekannt und jegliche Verschwörungstheorien das dies irgendwie extra eingebaut wurde um AMD gut aussehen zu lassen weise ich daher zurück.

Es macht für mich total Sinn das eine Alte Engine aufgebohrt mehr CPU Last erzeugen wird wie eine neue die direkt darauf optimiert frisch gebaut wurde.

Und es gibt auch bei anderen Spielen schon Anzeichen das CPU Limit nicht nur hier relevant ist.
 
  • Gefällt mir
Reaktionen: _NeXuz_
Taxxor schrieb:
Trotzdem 97% GPU Load bei aber gerade mal ~200W Verbrauch
Gefühlt scheint der Verbrauch auf meiner 4090 auch sehr niedrig zu sein.
Ich habe nur "mittelwarme Abwärme" in meinem System, und die GraKa-Lüfter drehen nicht besonder hoch.
Bei Forza Horizon 5 hab ich zumindest viel mehr Wärme und Lüftereinsatz -> also vermutlich auch höhere Leistungsaufnahme.
[Stock KFA2 4090]
 
Hier sieht man wieder wie beschissen AMD Titel optimiert sind. Vor allem wie das Spiel auf NVIDIA Karten läuft ist eine Frechheit schlechthin.
 
  • Gefällt mir
Reaktionen: RogueSix
RogueSix schrieb:
Die meisten Webseiten (inklusive CB) sind halt stark pro-AMD. Da das Benennen der Wahrheit AMD als negativ ausgelegt werden könnte, wird eben lieber das Deckmäntelchen des Schweigens darüber ausgebreitet, dass mit Starfield erneut (nach Jedi Survivor) ein AMD-sponsored Titel offenbar mit voller Absicht beim Erkennen von nVidia-Hardware ausgebremst wird.
Haben wir hier Quatsch? Yes we have! Computerbase offene Korruption bei einem selbst gekauften Titel vorzuwerfen ist daneben. Der Trend war ja sonst eher pro NVIDIA.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz, MiroPoch, F4711 und 6 andere
ben12345 schrieb:
Hier wurde ganz offensichtlich und mit voller Absicht Nvidia ausgebremst und dlss verhindert
Bitte Beweise dafür dass das auch wirklich so ist ansonsten einfach solche Behauptungen unterlassen.

Das es hier wieder so ausartet war klar.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz, MiroPoch, InvalidTexture und 3 andere
0ssi schrieb:
Wo ist da der Zusammenhang ? Auch wenn man nativ in 4K z.B.120FPS schafft oder wenn man bei z.B.100FPS
im CPU Limit hängt, aktiviert man DLSS weil es das bessere Anti Aliasing liefert und den Stromverbrauch senkt.
4K nativ ist reine Energieverschwendung und mit TAA ist der Schärfe Vorteil von 4K eh nicht mehr zu erkennen.
Der Zusammenhang ist das je niedriger Auflösung desto höher die CPU Last.
Hat man ein CPU lastiges Game und reduziert von von WQHD auf 1080p erhöht man die CPU Last noch mehr, dann hat DLSS kaum einen FPS Steigerungs Effekt oder im schlimmsten Fall eine leichte Verschlechterung.

Der Stromverbrauch der GPU sinkt ja, im CPU Limit würde aber Upscaling wie gesagt die CPU Last steigern und damit auch den Stromverbrauch der CPU. Was den Spareffekt der bei der GPU relativiert.

Der einzige Nutzen wäre dann das AA und dafür kann ich auch DLAA nutzen und brauche kein DLSS.

Das Argument 4k Monitor haben aber nicht nativ nutzen weil Energieverschwendung und deshalb immer DLSS einsetzen enzieht sich mir. Dann kann ich auch gleich einfach auf WQHD gehen und fertig.
 
Zurück
Oben