• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Starfield im Test: 24 Grafikkarten und 12 Prozessoren im Benchmark

mibbio schrieb:
Nur geht es bei CPU Test in Spielen nicht darum, mit welchen Einstellungen man spielt. Da geht es darum, wie schnell eine CPU das Spiel maximal berechnen kann. Und dieses Maximum findet man nun mal schlecht in 4K Ultra Settings raus, wo die Grafikkarte sich dann mit 100% Auslastung 40 FPS rausquält und die CPU dabei halb im Idle ist.
ja eben nicht!
ich will das Spiel spielen, und nicht wissen welche CPU in der Theorie schneller ist. Ich will wissen welche CPU bei welcher Auflösung besser ist bzw. ob es sich lohnt eine schnellere zu haben/kaufen.

Das ist hier kein CPU review sondern ein Technik Test zu dem Spiel Starfield, von daher sollte es auch nicht um theoretische Tests gehen die völlig sinnlos sind.

Was bringt es jemanden zu wissen, dass CPU X in 720p schneller ist, aber dieser Vorteil dann schon bei 1080 und 1440p gar nicht mehr existiert.

Ich hab das heir schon öfter erklärt, weil jedes mal diese jämmerlichen 720p kommen und man dann auf anderen Seiten vernünftige Tests gucken muss... aber naja, man muss schon einen ziemlich hohen IQ haben um das zu verstehen, vielleicht bin ich deshalb manchen hier gegenüber ein bisschen unfair.
Ergänzung ()

Atnam schrieb:
Glückwunsch wieder jemand der nicht versteht wie man einen CPU Test macht...
Glückwunsch, viel Spaß beim spielen in 720p.



1694015848999.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: scryed, sebbolein und nightreven
Chris007 schrieb:
Was bringt es jemanden zu wissen, dass CPU X in 720p schneller ist, aber dieser Vorteil dann schon bei 1080 und 1440p gar nicht mehr existiert.
Ob der Vorteil dann noch existiert, siehst du ja an den Werten des GPU Benchmarks.

Ein CPU Test in höheren Auflösungen wäre in vielen Fällen einfach nur noch mal eine Wiederholung eines Ausschnitts der GPU Benchmarks und da ja dann mit einer 4090 getestet wird, hat es auch keinen Mehrwert für dich, wenn du nicht auch selbst eine 4090 nutzt.

CPUs sollten außerhalb des GPU Limits getestet werden(also Auflösung runter und möglichst schnelle GPU nutzen), GPUs sollten außerhalb des CPU Limits getestet werden(also möglichst schnelle CPU nutzen und die Auflösungen durchgehen, die für die GPU Sinn machen)

Du hast nun aus dem einen Test die FPS, die die CPUs liefern können, darauf hat die Auflösung keinen Einfluss.
Die Auflösung beeinflusst nur, wie viel FPS die GPUs liefern können.
Also schaust du, CPU A kann 80FPS liefern und CPU B kann 100FPS liefern.

Dann schaust du in deiner Auflösung mit deiner GPU wiw viel sie hier bringt.
Siehst du da dann z.B. 70FPS, würdest du nicht von einem Wechsel auf CPU B profitieren. Siehst du da 100FPS, schon.

Ist wirklich keine Raketenwissenschaft aber naja, man muss schon einen ziemlich hohen IQ haben um das zu verstehen, vielleicht bin ich deshalb dir gegenüber ein bisschen unfair.


Problematisch in diesem speziellen Fall ist nur, dass @Wolfgang für die CPU Tests das Ultra Preset genutzt hat, während er bei den GPU Benchmarks das Hoch Preset genommen hat, daher funktioniert der Abgleich zwischen den beiden hier nicht gut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: M@tze, Razorex, Wintermute und 4 andere
Wenn ich hier so die Posts überfliege..... eigentlich werden PC User im Gaming Kreisen gerne als "Master Race" bezeichnet. Man müsste es so langsam in "Mimimi Race" umbenennen! :D
 
  • Gefällt mir
Reaktionen: bluna, Dai6oro, Seliador und 7 andere
Raucherdackel! schrieb:
Außerdem ist mein 2400G maxed out:
3,95GHz Allcore
DDR4 3333 CL14 mit scharfen subtimings
1700MHz GPU Takt.
McFritte schrieb:
Also wenn man daran noch Spaß hat: STARFIELD on a RYZEN 5 2400G - Vega 11 iGPU
Da kommt richtig Retrofeeling auf...Grafik von vor 20 Jahren, kombiniert mit 20 FPS-Geruckel

Anhang anzeigen 1394410 Anhang anzeigen 1394411
Der 5700g dürfte auch ohne HT ca. 50% mehr cpu leistung haben als der 2400g maxed.
Also bei meinem Test mit 3400g gegen 5700g hat der 5700g wesentlich besser abgeschnitten in 11 Games und ich hatte auch HT deaktiviert, weil nicht nötig auf dem 5700g.
Ausgehend von meinen Test könnte ich mir jedoch vorstellen, dass ein gut optimierter 5700g die p1 30 fps in 720p schaffen könnte mit FSR.
Allerdings sehen die Screenshots von McFritte wirklich nicht besonders gut aus, auch nicht mit dann 30fps+.
Schade das ich kein MB mehr mit vga anschluss habe, der 5700g würde hier noch rumliegen um ihn auf starfield loszulassen .
 
NoFSRschmutzUltra1440p.png

Alles in ULTRA, RX6900XT Rockt <3 (95er springt zwischen 5&11) NO UPSCALE ⛔

mfg
 
@Mimir

Leider nein, ich verstehe es nicht.
Wenn meine GPU zwischen 70 und 130 frames feuert und damit im Gysnc Bereich liegt sollte jedes ausgebene Bild am Monitor komplett sein und damit tearing unterbunden.

Erst wenn ich über oder unter der Spezifikation lande sollte es Probleme geben die ich mit vsync bzw Limits beheben kann.

Liest sich auch überall genau so:

Spiele für G-Sync konfigurieren, fps limitieren

Nun gilt es, auch die Spiele für G-Sync zu optimieren, das ist jedoch denkbar einfach, denn es beschränkt sich lediglich auf eine Option:

Deaktiviert die vertikale Synchronisation (VSync) in Spielen. Schaltet auch Double- oder Triple-Buffering ab.
Die Kollegen von Blur Busters haben sich intensiv mit der Bildsynchronisationstechnik G-Sync beschäftigt und ihr erlangtes Wissen in dem ausführlichen Guide: G-Sync 101 festgehalten.

#gamestar

Conclusion

Much like strobing methods such as LightBoost & ULMB permit “1000Hz-like” motion clarity at attainable framerates in the here and now, G-SYNC provides input response that rivals high framerate V-SYNC OFF, with no tearing, and at any framerate within its range.

https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/14/

###
Wikipedia:

Vertikale Synchronisation oder Vertikale Synchronisierung, kurz VSync, ist ein Begriff aus der Computertechnik. Eine vertikale Synchronisierung verhindert bei Grafikkarten eine Aktualisierung der Bilddaten, während der Bildschirm das Bild aufbaut.
---
G-Sync ist eine proprietäre Adaptive-Synchronisation-Technologie für Bildschirme, die von Nvidia entwickelt wird. Sie soll sogenanntes Screen Tearing vermeiden. Im Gegensatz zu V-Sync wird die Synchronisation hardwareseitig über die im Bildschirm verbauten Komponenten und den Grafikprozessor im PC übernommen.

Bei G-Sync wird die Bildwiederholfrequenz des Monitors an die des ausgebenden Gerätes angepasst[1]. Das sorgt auch für weniger Ruckeln des Bildes sowie eine geringfügig höhere Reaktionszeit[2]. Für die Nutzung ist zwangsläufig ein Grafikprozessor von Nvidia erforderlich
 
das sollte eher ein Witz sein ^^ Ich kauf mir sicher keine RTX400 irgendwas wenn ich eine RTX3080 habe. ich hab bisher immer eine oder zwei Generationen ausgesetzt weil ich es nicht einsehe noch mal 1400 Euro zu zahlen alleine für eine Graka was echt zu viel war und ist. EDIT bisher läuft das Game auf meinen System OKAY. ich hab meistens so 50-80 FPS. hab aber nicht alles auf Ultra. ich hab es erstmal so gelassen wie es ist. das meiste ist auch Hoch bis Ultra Schatten mittel und andere dinge die ich nicht brauche sind auf Niedrig. Ich merke aber das DLSS fehlt. das FX zeug ist halt einfach nicht gut in meine Augen. Ich überlege mir Mods die das Game besser machen zu instalieren aber erstmal wollte ich warten. es gibt zum jetzigen Zeitpunkt zwar gute Mods aber das wird sicher noch geiler und daher will ich das Game erstmal so spielen wie damals bei Skyrim.
 
  • Gefällt mir
Reaktionen: C4rp3di3m
Valanx schrieb:
Wenn meine GPU zwischen 70 und 130 frames feuert und damit im Gysnc Bereich liegt sollte jedes ausgebene Bild am Monitor komplett sein und damit tearing unterbunden.
Korrekt, das Problem bekommst du eben dann, wenn du auf 144FPS limitieren würdest, weshalb ja schon immer gilt, mindestens 2-3 FPS unterhalb zu bleiben, um eine Streuung nach oben abzufangen.

Hast du aber ein Spiel, wo die Frametimes stark streuen, können auch mal 140FPS als Limit zu hoch sein.
Willst du trotzdem dein FPS Limit in dieser Höhe haben, hilft nur, VSync zusätzlich zu aktivieren
 
  • Gefällt mir
Reaktionen: NMA und Mimir
DocWindows schrieb:
Dass AMD die eigene Technologie für alle verfügbar macht um keinen Wettbewerb aufkommen zu lassen ist deren Sache. Aber andere Marktteilnehmer durch Ausschluss ebenfalls zu null Wettbewerb zu zwingen ist nicht mehr Ok.

Der andere Wettberwerber hat es halt nicht für nötig erachtet ein besseres Angebot zu machen, musst dich also eher bei Nvidia beschweren, dass sie ihre Einnahmen nicht in Starfield reinvestiert haben und AMD das Feld hier überlassen haben...

Kommt mir so vor wie auf den Auktionator schimpfen, weil man überboten wurde...

BTT:

Mit aktivieren von rBAR und hinzufügen zur Game Bar, läuft das Spiel gefühlt besser.
 
Chris007 schrieb:
Ich hab das heir schon öfter erklärt, weil jedes mal diese jämmerlichen 720p kommen und man dann auf anderen Seiten vernünftige Tests gucken muss... aber naja, man muss schon einen ziemlich hohen IQ haben um das zu verstehen, vielleicht bin ich deshalb manchen hier gegenüber ein bisschen unfair.

Glückwunsch, viel Spaß beim spielen in 720p.
Schaue Dir einfach an, wie viele FPS Deine (Wunsch)CPU (in Deinen Settings) maximal stemmt, und dann schaue Dir an wie viele FPS Deine (Wunsch)GPU in Deiner Auflösung stemmt. Der CPU ist die Auflösung egal, solange sich die Seitenverhältnisse nicht ändern.

Wo ist das Problem?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Razorex, Wintermute, mibbio und 2 andere
Richtig - und deswegen ist eben die Angabe, wieviel eine CPU in 720p stemmt so wichtig.
Bei der Auflösung ist die Grafikkarte nämlich egal.

Und wenn eine CPU in der Auflösung nicht mehr schafft, dann geht auch mit einer noch so tollen GPU auch nicht mehr.
 
  • Gefällt mir
Reaktionen: Wintermute und NMA
Neuer AMD Treiber bringt bei mir einige Prozent mehr fps.
 
Chris007 schrieb:
Was bringt es jemanden zu wissen, dass CPU X in 720p schneller ist, aber dieser Vorteil dann schon bei 1080 und 1440p gar nicht mehr existiert.

Zukünftige GPUs, wie beispielsweise eine 5090, werden das GPU Limit weiter nach hinten verschieben und dann wird genau die CPU die heute in 720p schneller ist, in Zukunft mit einer 5090 auch schneller sein.

Oder andersrum gesagt: In 1440p limitiert die GPU schon so sehr das es heute "fast" egal ist welche (moderne) CPU du hast, aber mit einer noch besseren GPU würde derjenige Prozessor mehr FPS liefern der heute in den 720p Tests ganz vorne ist.

720p Tests zeigen einfach das Potential der CPU indem man die GPU so weit wie möglich aus dem Spiel rausnimmt (durch Reduzierung der Auflösung).
 
  • Gefällt mir
Reaktionen: Aduasen, Wintermute und NMA
Chris007 schrieb:
Glückwunsch, viel Spaß beim spielen in 720p.

Anhang anzeigen 1394419
Wieso verlinkst du dann eigentlich einen Benchmark bei dem zum einen die GPUs im CPU-Bottleneck stecken, wie ja von CB hier dargelegt und zum anderen der im Prinip genau das gleiche macht und eben mit 1080p eben auch ganz bewusst eine niedrige Auflösung zum testen nimmt, eine bei der normalerweise GPUs eben auch nicht in ein CPU Bottleneck rennen. Verstehe ich nicht.


Der "viel Spaß beim spielen in 720p" Seitenhieb war aber gut. So mancher mit einer 3080 wird das wohl wirklich so machen. DLSS wird es schon richten. ;-)
 
  • Gefällt mir
Reaktionen: Tzk
Taxxor schrieb:
Ist wirklich keine Raketenwissenschaft aber naja, man muss schon einen ziemlich hohen IQ haben um das zu verstehen, vielleicht bin ich deshalb dir gegenüber ein bisschen unfair.

So ein bisschen kann ich Ihn aber schon verstehen. 720p ohne CPU Limit schön und gut, aber man sollte darüber nachdenken, ob man diesem Faktor in Tests noch diesen hohen Stellenwert beimisst.
 
  • Gefällt mir
Reaktionen: Vitec
  • Gefällt mir
Reaktionen: Gesualdo
McFritte schrieb:
Also wenn man daran noch Spaß hat: STARFIELD on a RYZEN 5 2400G - Vega 11 iGPU
Da kommt richtig Retrofeeling auf...(...)
McFritte schrieb:
Ja dann, das reißt es bestimmt raus :smokin:
Also mal ernsthaft. Ich bin schon sehr genügsam, aber das würde ich mir nicht mehr antun.
Es geht nicht darum, wie es aussieht. Die Frage war, läuft es. Und das tut es.

Ich werde doch nicht 500€+ ausgeben, nur um das Spiel in besser spielen zu können. Die Frage ist: kann ich es spielen, ohne irgendwelche Nachteile zu haben ( was schon beantwortet wurde), dann kaufe ich es mir, oder kann ich es nicht spielen.

Ob du dir das antuen willst, habe ich ja gar nicht gefragt 😉

Trotzdem vielen Dank für das Video, du hast mir sehr geholfen bei meiner Entscheidung!
Ergänzung ()

GerryB schrieb:
doll, das es überhaupt startet

Bin mal gespannt wie es auf dem Steamdeck wird.
In etwa so wie in dem Video. Mein frisierter 2400G bringt leicht bessere Leistung. Ca. 30-40% GPU Power kannst zum Standard 2400G dazurechnen, dann bist du auf Steam Deck Leistung.
 
  • Gefällt mir
Reaktionen: GerryB
Chris007 schrieb:
Ich will wissen welche CPU bei welcher Auflösung besser ist bzw. ob es sich lohnt eine schnellere zu haben/kaufen.
Die Auflösung hat keinen Einfluss auf die Leistung, die eine CPU erbringen muss.
Die CPU berechnet immer die gleiche Szene, ob 320x200 oder 16000x16000.

Der Unterschied ist nur, dass die CPU statt des Befehls an den Treiber "Zeichne eine Linie von Pixel X1 Y1 zu X50 Y50" bei höheren Auflösungen "Zeichne eine Linie von Pixel X1 Y1 zu X500 Y500" schickt.

Beide Befehle werden gleich schnell abgearbeitet, obwohl zweiter Befehl dann auf der Grafikkarte die 10- Fache Pixelmenge zeichnet. Die Last liegt auf der Grafikkarte, nicht der CPU.

Ich habe dazu auch schon einen Praxisnachweis geführt:
https://www.computerbase.de/forum/t...t-eine-frage-des-limits.1946885/post-24153414
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gesualdo und alberts2
Zurück
Oben