• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Starfield im Test: 24 Grafikkarten und 12 Prozessoren im Benchmark

Serandi schrieb:
Ok...
Zwar würden mir saubere 80 FPS für das Spiel vollkommen reichen aber, dass der 5800X3D da schon am Limit ist, ist verdammt traurig. Hoffe da wird noch nachgeholfen.
Aktuell geht zumindest Buildzoid von einer hohen Arbeitsspeicher Bandbreitenbenutzung aus.

Dazu sein Video:

Somit bringt laut seiner Aussage hier Arbeitsspeicher OC und Timings schärfen überdurchschnittlich viel.
Zum Glück hab ich das bei meiner CPU auch alles gemacht.

Theoretisch könnte ich da mal ein kleine Test fahren, ob an dem Thema was dran ist.

Also 3200MHz "Stock/Standard" Timings zu 3800MHz "scharfe" Timings.
New Atlantis würde ich da nehmen und mit Capframes dann aufnehmen.

Denke dann aber nur in 720p! Also im maximalen CPU Limit, alles andere macht keine Sinn.

Wenn ich dazu komme liefere ich dazu Daten dann im "Starfield Sammelthread".
Link in der Signatur!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McFritte, FallDown75 und Serandi
Hylou schrieb:
Ist es nicht. Nur weil er schreibt er habe keine Einblicke in Starfield, kann es trotzdem sein das es stimmt.
Ist es. Denn es gibt keine tatsächlichen Beweise das es stimmt, keine offiziellen Aussagen die es bestätigen.

Nur Vermutungen und Alu Hut Theorien.

Das es DLSS als Mod gibt ist zwar schön für die Welche es möchten und brauchen aber auch kein Beweis.

Die Mod auch wenn sie scheinbar ganz gut funktioniert, kommt ohne Irgendwelche Optimierungen der Entwickler oder Nvidia daher. Zudem muss man ausser für die DLSS2 Variante, bezahlen. Muss jeder selber wissen ob sowas einem das Wert ist.

Während sich hier noch einpaar Nerds and Enthusiasten die Köpfe einschlagen spielen 230.000 Spieler im Early Access und Stream Only einfach das Game und haben Spaß.
Egal ob Sie eine Nvidia GPU haben, es DLSS gibt oder nicht.
Ergänzung ()

Hylou schrieb:
Seit einigen Stunden ist die Mod cracked und somit erhältlich für alle die PureDark nicht bei Patreon unterstützen.
Okay. Eine inoffizielle Modifikation die man dann händisch implementieren muß und noch dazu aus unsicheren Quellen gecracked ist/werden muss um Sie kostenlos zu nutzen. Ist für den normalen Gamer abseits von CB unr Co sicherlich relevant. NICHT.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Eller
Alesis schrieb:
Na dann hast du sicherlich eine Liste zur Hand, die deine Aussage bestätigt.
Dazu gab es hier und überall anders zwar schon mehrere News mit entsprechenden Listen, aber wenn du hier auch noch mal welche haben möchtest
1693806187515.png


Ohne GoodGuy Sony sähe es bei den AMD Sponsored Spielen noch übler aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RogueSix, Schokolade, MrHeisenberg und eine weitere Person
Schlimm wenn Hardwarefirmen bei der Spieleentwicklung mitwirken. Sieht man wieder was bei einem eigentlich so tollen Spiel raus kommt. Ich meine wirklich Ultimativ hammer ist die Grafik nicht. Das Spiel sollte mit doppelter Framerate laufen.

Hat man damals schon gesehen beim Nokia n900. Das Maemo lief schnell. Der Nachfolger das Meego war total lahm. Damit man eine neue CPU bzw neues Handy braucht.
 
  • Gefällt mir
Reaktionen: Grestorn
_NeXuz_ schrieb:
Okay. Eine inoffizielle Modifikation die man dann händisch implementieren muß und noch dazu aus unsicheren Quellen gecracked ist/werden muss um Sie kostenlos zu nutzen. Ist für den normalen Gamer abseits von CB unr Co sicherlich relevant. NICHT.
Wer wenn nicht die Spieler von Bethesda Games ist denn Großkunde für Mods?
Man muss sich nur mal anschauen, wie viele Downloads alleine die SR Variante auf Nexusmods bereits nach 3 Tagen hat (60.000)
 
  • Gefällt mir
Reaktionen: cyberpirate und _NeXuz_
Grestorn schrieb:
AMD sind doch die guten, die würden sowas ja niemals tun.
Das impliziert ja, dass Intel und Nvidia nicht die Guten sind.
Es sind alles AGs, die sich in erster Linie nur den Menschen verpflichtet fühlen, welche die Aktien halten. Und wenn du solch eine Aussage in den Raum wirfst, AMD seien ja die Guten, dann kann ich nur sagen, du hast das System nicht verstanden.
Wäre AMD 2017 nicht mit Ryzen zurückgekommen, weil zudem Intel bei den 10nm komplett versagt hat, hätte dich dein 13900K mindestens 800€ gekostet.
Und würde es AMD nicht mehr geben, die eine 7700 XT als Konkurrenz zu einer 4060 Ti 16GB stellen wollen, würde es heute keine 4060 Ti 16GB geben, die von jetzt auf gleich um 80€ günstiger geworden ist.

Das einzige was diese AGs verstehen, ist Gewinn und Umsatz. Und obwohl eine 4060 Ti 16GB für ab 460€ immer noch sehr teuer ist, wollte Nvidia aber trotzdem mindestens ab 530€, obwohl Nvidia einen Börsenwert von 1,11 Billionen Euro hat. 1.110.000.000.000€.
AMD sind nicht die Guten, sondern AMD ist als kleinste Firma von beiden (Intel und Nvidia) wichtig für uns Kunden, denn so kann es einen Konkurrenzkampf geben, damit auch andere Menschen sich noch etwas leisten können.
Du mit deiner ab mindestens 1.600€ Grafikkarte scheinst dich möglicherweise nicht daran zu stören, überzogene Preise zahlen zu wollen. Aber du bist auch nicht der Nabel der Welt.

Es ist gut, dass es AMD gibt und AMD sind nicht Guten. Weder AMD, noch Intel, noch Nvidia sind die Guten. Denn in diesen Sphären der Wirtschaft existiert weder Moral, noch Anstand, noch Menschlichkeit.
 
  • Gefällt mir
Reaktionen: bluna, _Cassini_, Anon-525334 und 3 andere
Können die AMD User unter euch mal schauen ob die Shader Cache Files des Spiels mit der Zeit größer werden bei Starfield? Die ersten Stunden hatte ich nicht einen Ruckler / Framedrop. Jetzt allerdings, wo neue Systeme und Orte dazukommen hab ich immer wieder kurze Hänger. Kehre ich an die alten Orte zurück ist alles gut. Klingt für mich danach, dass der AMD Treiber nicht weiter cached.

C:\Users\****\AppData\Local\AMD\DxcCache
1693807047801.png


C:\Users\****\AppData\Local\Starfield
1693807086943.png
 
Alesis schrieb:
Kannst du auch einen Link dazu posten.
Angefangen hat es damit
https://videocardz.com/newz/amd-dodges-questions-about-fsr-exclusivity-in-amd-sponsored-games

Dann kam eine ausführlichere Analyse von HUB

darauf aufbauend dann eine nochmal etwas detailliertere Liste
https://www.reddit.com/r/Amd/comments/14vt4b3/list_of_amd_sponsored_games_with_more/


Dazu gab es aber wie gesagt genug Artikel und das Thema ist seitdem auch in jedem Starfield Thread wieder aufgekommen, es reicht auch langsam.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Carsti80 schrieb:
Klar, ... das wurde schon seit Rosswell geplant und per Umweg über COVID und Rinderwahn endlich umgesetzt.
Willst du mir jetzt erzählen, dass es eine Verschwörung ist, wenn ich behaupte, dass die 4090 die 7900XTx hinter sich lässt aber hier in den Fall nicht,da das Spiel auf AMD optimiert wurde.
 
  • Gefällt mir
Reaktionen: Grestorn
Unterschied ohne und mit DLSS in Starfield


Da weiß man gleich warum AMD das geblockt hat. :hammer_alt:
 
  • Gefällt mir
Reaktionen: DocWindows und HaRdWar§FreSseR
MehlstaubtheCat schrieb:
Theoretisch könnte ich da mal ein kleine Test fahren, ob an dem Thema was dran ist
IMG_2648.png
IMG_2649.png
Habs gestern Vormittag mal getestet. Mehr wie 10 Prozent finde ich schon ordentlich
 
  • Gefällt mir
Reaktionen: Schokolade
Cerebral_Amoebe schrieb:
Es wurde nur extrem für die Radeon optimiert, genauso wie bei den Konsolen auch gezielt auf deren Hardware optimiert wird.

Bei Cyberpunk wurde gezielt auf die Tensor-Kerne der RTX optimiert.
Raytracing ist Bestandteil von DX12 und keine Nvidia-Erfindung.
https://de.wikipedia.org/wiki/DirectX_Raytracing
Das ist mir schon klar, nur was mich hier triggert, ist einfach das, die 4090 kastriert wurde, und das finde ich nicht ok.
 
HaRdWar§FreSseR schrieb:
nur was mich hier triggert, ist einfach das, die 4090 kastriert wurde, und das finde ich nicht ok.
Es betrifft doch durch die Bank sämtliche Nvidia GPUs, warum versteifst du dich auf die 4090?
 
  • Gefällt mir
Reaktionen: Cerebral_Amoebe
_NeXuz_ schrieb:
Denn es gibt keine tatsächlichen Beweise das es stimmt, keine offiziellen Aussagen die es bestätigen.

Klar doch, zahlreiche Entwickler werden sich jetzt öffentlich äußern und sich gegen den Arbeitgeber wenden. Sicher.

_NeXuz_ schrieb:
Nur Vermutungen und Alu Hut Theorien.

Wenn einer der renommiertesten Redakteure das postet, ist da was dran.
Ist das gleiche wenn Adam Schafter NFL News hat oder Jason Schreier was leaked.

Da geht es viel um Glaubwürdigkeit.

_NeXuz_ schrieb:
Ist für den normalen Gamer abseits von CB unr Co sicherlich relevant. NICHT.

Gut das wir bei CB sind und es somit wieser relevant ist.
Ich habe auch nie geschrieben das Leute es nutzen sollen, nur das es die Mod mittlerweile cracked gibt. Mehr nicht.
 
  • Gefällt mir
Reaktionen: Grestorn und MrHeisenberg
Deimonos schrieb:
Unterschied ohne und mit DLSS in Starfield


Da weiß man gleich warum AMD das geblockt hat. :hammer_alt:
AMD sollte mal lieber damit anfangen, konkurrenzfähige Karten rauszubringen und nicht tricksen, damit sie besser dastehen.
 
  • Gefällt mir
Reaktionen: Grestorn
Taxxor schrieb:
Es betrifft doch durch die Bank sämtliche Nvidia GPUs, warum versteifst du dich auf die 4090?
Ist Das wirklich so, das sämtliche Amperes nur wenig ausgelastet sind ?
Man bräuchte mal ne Verbrauchsmessung.

Ob da dann ne 3080 deutlich weniger als ne 6800xt zieht!?
dito 3090 vs 6950 und 3070 vs 6800

Zur Verdeutlichung dann mal in Fps/W umrechnen.
(normalerweise liegen 3070 und 6800 ähnlich in der Effizienz)

Ob dann zw. Ampere und Ada noch Unterschiede auftreten, who knows.
Womöglich bremst sogar ein übertriebener Stromsparmechanismus Ada aus.
(mit GPU busy wirds vllt. deutlicher)

btw.
Vllt. gibts bei 7900xtx und 4090 unterschiedliches Streamingverhalten?
bei GameGPU hat die 7900xtx mehr Vram allocated, = smoother
Starfield-Vram-Ram.jpg

Wieviel Vram mehr allocated wird, hängt bei AMD evtl. auch von den Fps ab, ... siehe 6900 = weniger allocated.

btw.
Sollte in dem Game reichlich INT+FP16 genutzt werden, passen die Fps auch zur Rohpower der AMD-Grakas
bzw. FP16-Schwäche bei NV generell und INT-Schwäche bei Ampere
Bezgl. FP32 hat RDNA3 anscheinend keine Nachteile ggü. RDNA2.(die Auslastung gelingt)

7600vs4060Ti@FP16.png


Ansonsten könnte unterhalb von der 4090 auch Bandbreite bei einigen Adas fehlen.
Da hat das NV-Treiberteam noch viel zu recherchieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Syrian und Alesis
@MehlstaubtheCat
Interessant 🤔
Dann muss ich das mal testen. Bei mir laufen 2 x 8GB auf 4000Mhz CL15, allerdings habe insgesamt 4 Module und zu viert laufen die höchstens 3600Mhz CL14. Da geht wahrscheinlich noch etwas mehr aber keine Zeit mich damit zu beschäftigen und Zich Neustarts in Kauf zu nehmen.
 
Zurück
Oben