• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Starfield im Test: 24 Grafikkarten und 12 Prozessoren im Benchmark

@Wolfgang zu deiner Frage mit fp16 über die Tensor-Kerne: Nein, das würde nicht funktionieren. Die fp16-Leistung über Shader wird "anders" abgerufen als die fp16-Leistung über die Tensor-Kerne. Eine Matrix-Berechnung unterscheidet sich von einer Vektor-Berechnung. Man kann das zwar aufeinander abbilden, dann wird es aber mit Null-Matrizen und die Leistung liegt quasi brach.

JohnWickzer schrieb:
Geldverschwendung. Nicht jedes Spiel kommt so grottig "optimiert" auf den Markt.
Man könnte an dieser stelle auch "vermuten", dass das Spiel auf AMD-Hardware optimiert wurde neben der allgemein Optimierung. Und daher bei AMD endlich mal die richtige Leistung zeigt.

Man kann das aber "so" oder "so" sehen. ;)
Ozmog schrieb:
Ich kann mir auch gut vorstellen, dass die neue Creation-Engine insgesamt schlecht läuft und erst durch diverse Optimierungen auf AMD einigermaßen läuft.
Das ist immer schwer zu beurteilen, weil man den stand vorher nicht kennt. ;)
Ozmog schrieb:
AMD hat hier auch treiberseitig einen Vorsprung, weshalb ich mir vorstellen kann, dass in der nächsten Zeit ein NV-Treiber erscheint, der größere Leistungssprünge in Starfield erzeugt.
Wenn die Engine ggf. auf Wave32 "optimiert" ist, könnte das für NVIDIA schwerer werden. Da müsste man sich mal de Quellcode ansehen. (@Wolfgang das ist für mich eine Vermutung, dass hier AMD die Shader auf Wave32 optimiert hat und daher auch RDNA2 so gut abschneidet. Wäre RDNA3 so stark, RDNA würde sich normaler verhalten, könnte man auch Dual-Issues "heranziehen")
daknoll schrieb:
Er hat nicht unrecht, aber auch nicht recht. Aktuell ist NVIDIA durchaus die treibende Kraft hiner vielen Entwicklungen. Es gab aber auch Zeiten, da rannte NVIDIA quasi "hinterher".

Im Endeffekt ist das einfach nur ein "Fanboy"-Krieg, den man da führt, damit man sich auf der richtigen Seite fühlen kann. Moderner Kindergarten eben.
Cerebral_Amoebe schrieb:
AMD, Intel und Nvidia sind wie hier schon geschrieben wurde Aktiengesellschaften und die nehmen sich alle nichts.
Sowas passiert halt, wenn man denkt, dass man sich mit einer Firma "verbünden" muss. Menschen brauchen Struktur und Halt die Firma gibt es ihnen, ob das rational ist? Egal.

Firmen wollen in der Regel nur unser bestes: Geld.
Ergänzung ()

NOTaNerd schrieb:
Die AI Cores von RDNA3 sind meines Wissens doch bereits vereinfachte Tensorcore?
Ja und Nein. Die AI-Kerne bereiten im Fall von RDNA 3 nur die Daten so auf, dass sie diese für die Vec32+32 "vorsortieren" und damit weniger Rechengänge notwendig sind um auf das Ergebnis zu kommen. Es ist von einem richtigen Tensor-Kern/Matrix-Kern noch relativ weit entfernt.

Matrix-Multiplikationen sind etwas komplizierter, entsprechend sind Tensor-Kerne auch komplexer verschaltet, als die normalen Vec-Einheiten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Syrian, Apocalypse und NOTaNerd
Apocalypse schrieb:
Ich lege mich fest, meine Verschwörungstheorie ist, das im Vertage mit AMD steht, das es keine Nvidia Logos geben darf und Nvidia wollte seine Lizenz nicht ändern und deswegen gab es keine DLSS

Falls du auf die SDK Lizenz anspielst, dann fällt deine Theorie leider in sich zusammen. nVidia hat die nicht in Stein gemeißelt und verhandelt auch andere Optionen, unter anderem das Weglassen von nVidia Logos.

So z.B. geschehen in Spider Man Miles Morales. Auch in Battlefield 2042 gibt es das Splash-Logo nicht, und das obwohl es ein von nVidia gesponsortes Spiel ist.
 
  • Gefällt mir
Reaktionen: Apocalypse
Man kann so große dinger bauen ;o :)
proud-of-this-beast-v0-8mtpjl90b9mb1.png
 
  • Gefällt mir
Reaktionen: Ice_Dundee, Czk666, iron_monkey und 2 andere
DocWindows schrieb:
Falls du auf die SDK Lizenz anspielst, dann fällt deine Theorie leider in sich zusammen. nVidia hat die nicht in Stein gemeißelt und verhandelt auch andere Optionen, unter anderem das Weglassen von nVidia Logos.

So z.B. geschehen in Spider Man Miles Morales. Auch in Battlefield 2042 gibt es das Splash-Logo nicht, und das obwohl es ein von nVidia gesponsortes Spiel ist.
Ach zu Schade, ok, dann glaube ich das einfach weiterhin mit einem Augenzwinkern weil es lustiger ist, aber muss jegliche Hoffnung aufgeben, das es wirklich so ist.

Bestimmt hat Bethesda einfach vergessen nachzufragen ob mans doch weglassen kann. Marty und dem Rest vom Management trau ich solche Blödheiten auch 100% zu. ;-)
 
Zuletzt bearbeitet:
MrHeisenberg schrieb:
Was bedeutet das und warum kann AMD das besser als Nvidia?
Die Waves geben an, wie viele Wert mit der gleichen Operation berechnet werden. AMD hat RDNA auf Wave32 optimiert. Also eine Operation wird auf 32 Werte ausgeführt.

Mit Wave32 bei den Shadern kann RDNA optimal aus gelastet werden. 1 Befehl pro Takt. Bei Wave64 wären 2 Takte notwendig, bei Wave16 immer noch einer.

NVIDIA ist hier flexibler und kann mit Wave16 bis Wave64 umgehen, benötigt aber entsprechende Tasks dafür.

Die 4090 braucht theoretisch 256 Wave64-Befehle, 512 Wave32 oder 1024 Wave16 um optimal ausgelastet zu werden.

Nur in diese Konstellation schafft die 4090 volle Rechenleistung. Die Wave32 heißen bei NVIDIA anders.

AMD hat es mit den nun Vec32+33 einfacher diese auszulasten, weil die aktuell nur 192 Threads benötigen und diese nur 32 - 64 Werte.

NVIDIA braucht entweder wenige Werte, dafür viele Threads oder weniger Threads mit vielen Werten.

Wenn Bethesda und AMD auf Wave32 optimiert haben, dann laufen die RTX quasi leer, weil zwar die Rechenwerke genutzt werden aber nicht optimal.

Ich kann mir das aber erst ab Morgen absehen.
 
  • Gefällt mir
Reaktionen: iron_monkey, Blekota, JohnWickzer und 6 andere
cal1s schrieb:
so ein unnötiges kindergarten spiel ... ein shooter im jahre 2023 .. wow ... :) .. die zeiten der (ernstzunehmenden) shooter ist seit mindestens 20 jahren vorbei ... wieder mal unnötiger hype ... bethesda hätte lieber elder scrolls VI machen sollen, statt son unfug. und die tests zeigens ja auch ...
Nur weil man mit Waffen schießen kann ist es nicht gleich "nur" ein Shooter.
TES ist am Ende ja dann auch "nur" ein Shooter im Fantasy-Gewand.... ;)
 
  • Gefällt mir
Reaktionen: bluna
Laphonso schrieb:
Korrekt, das ist der Technikmarketing RTX Features Promotions Titel überhaupt für Nvidia.
Cyberpunk/CD Project hat vorbildlich
  • die AMDs FSR Lösung
    und
  • Intels XeSS Lösung mit an Bord.
In dem Nvidia Showcase Game überhaupt by the way
Du willst sagen, wenn DLSS dabei gewesen wäre und nicht erst als Mod gekommen wäre, wäre deiner Ansicht alles in Butter? Habe ich das richtig Verstanden? Shader können sie so AMD freundlich wählen wie sie wollen, stört dich genauso wenig wie die Optimierung auf Nvidia bei Cyberpunk?
Ergänzung ()

Sammy188 schrieb:
Also mit einer RTX3080 suprime kann ich es dann vergessen in wqhd und 60 fps zu spielen. Das wird ja ein tolles Lag Konzert. Anscheinend muss ich aufrüsten dabei wollte ich warten bis die 5000 kommen.
Wegen einem Shooter-RPG bei dem du mit bissel weniger Details dann eh bequem auf die 60 FPS klommst und DLSS als Mod eh verfügbar ist? Also sofern du halt nicht im CPU Bottleneck bist.
 
Apocalypse schrieb:
Shader können sie so AMD freundlich wählen wie sie wollen, stört dich genauso wenig wie die Optimierung auf Nvidia bei Cyberpunk
DLSS ist halt in dem Fall der Aufhänger und direkt greifbar. Wäre DLSS drin aber DAS Spiel ansonsten auf Wave32 + Dual-aussieht optimiert, keiner würde es direkt merken.

Im Endeffekt und bitte nicht falsch verstehen: Es ist Kindergarten. Ärgerlich: Ja, aber eigentlich die Aufregung nicht wert. Es ist ein Spiel.
 
  • Gefällt mir
Reaktionen: Inxession, iron_monkey, Ferran und 3 andere
MrHeisenberg schrieb:
Was bedeutet das und warum kann AMD das besser als Nvidia?
Bin nicht vom Fach, also gut möglich das ich es falsch verstanden habe oder falsch erkläre.

Geht wohl wieder darum FP16 voll ausnutzen statt FP32. FP16 ist bei AMD 2x soviel Rechenleistung vorhanden wie FP32. Anders als bei Nvidia wo FP16 und FP32 die gleiche Leistung da ist.

Wave32 gehts wohl darum größere komplexere Shader so zu schreiben das sie leichter sich aufteilen lassen, das mas man weniger Overhead hat und AMD Karten so viel besser auslasten kann. Nvidias ansatz war anscheinend einfach voll auf FP32 zu setzen. Dann ist der Overhead auch egal.


https://www.amd.com/system/files/documents/rdna-whitepaper.pdf
"The RDNA architecture is natively designed for a new narrower wavefront with 32 work-items,intuitively called wave32, that is optimized for efficient compute. Wave32 offers severalcritical advantages for compute and complements the existing graphics-focused wave64mode.One of the defining features of modern compute workloads is complex control flow: loops,function calls, and other branches are essential for more sophisticated algorithms. However,when a branch forces portions of a wavefront to diverge and execute different instructions, theoverall efficiency suffers since each instruction will execute a partial wavefront and disable theother portions. The new narrower wave32 mode improves efficiency for more complex computeworkloads by reducing the cost of control flow and divergence.Second, a narrower wavefront completes faster and uses fewer resources for accessing data.Each wavefront requires control logic, registers, and cache while active. As one example, thenew wave32 mode uses half the number of registers. Since the wavefront will completequicker, the registers free up faster, enabling more active wavefronts. Ultimately, wave32enables delivering throughput and hiding latency much more efficient.Third, splitting a workload into smaller wave32 dataflows increases the total number ofwavefronts. This subdivision of work items boosts parallelism and allows the GPU to use morecores to execute a given workload, improving both performance and efficiency."
 
snickii schrieb:
Ne dann hab ich in den anderen 99,9% der Spiele auf dem Markt weniger FPS als jetzt
So ähnlich könnte man es sehen....

Viele Spiele sind Nvidia gesponsert und haben bei Release auf deren Karten eine bessere Performance. Wenn dann jedesmal so ein Shitstorm kommen würde wie bei Starfield,dann würden die Foren platzen! ;)
Jetzt ist es halt andersrum,auch wenn die Unterschiede ziemlich krass ausfallen.

Aber ich kann den Frust verstehen. Hoffen wir mal das Patches/Treiberupdates für die Nvidia-User kommen werden,welche die Performance verbessern. Und das sage ich als AMD-Fanboy.
Ich wünsche mir auch eine generelle Performanceverbesserung und Optimierung von FSR2.
Und ich gönne auch den Nvidia-Usern DLSS als offizielles PlugIn.
 
  • Gefällt mir
Reaktionen: JohnWickzer
Bitte aktiviert RBAR mit den Nvidia Inspector in Starfield die Performance ist viel besser und das Stottern ist komplett beseitigt im Cpu Limit. Es fühlt sich an als hätte man eine klasse bessere Hardware verbaut mit nur ein paar klicks. awesome stuff
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rosenholz, JohnWickzer, alberts2 und eine weitere Person
Kannst du es genauer zeigen was genau du meinst?
Dankeschön!
 
Der nächste CPU Test. Zumindest mit Intel CPU skaliert das Spiel nur unterdurchschnittlich mit der Speicher Bandbreite.

 
Americanguy schrieb:
Bitte aktiviert RBAR mit den Nvidia Inspector in Starfield die Performance ist viel besser und das Stottern ist komplett beseitigt im Cpu Limit. Es fühlt sich an als hätte man eine klasse bessere Hardware verbaut mit nur ein paar klicks. awesome stuff
Kann das noch bestätigen? Bitte ausprobieren - danke!
 
  • Gefällt mir
Reaktionen: JohnWickzer
DevPandi schrieb:
Wenn Bethesda und AMD auf Wave32 optimiert haben, dann laufen die RTX quasi leer, weil zwar die Rechenwerke genutzt werden aber nicht optimal.
Würde auch den etwas niedrigen Stromverbrauch erklären.
 
  • Gefällt mir
Reaktionen: iron_monkey und JohnWickzer
Maxminator schrieb:
Kann das noch bestätigen? Bitte ausprobieren - danke!
Ich kann es die average fps sind um fast 10% gestiegen und die min fps um fast 20 fps in atlantis im cpu limit. Das beste die slowdowns/stotterer die wie die unreal engine stotterer wirken sind komplett verschwunden. Probiert es :)

Nur Starfield als Profil im inspector suchen

Rbar on bei den nächsten beiden settings direkt darunter nimmst das wo battlefield als erster steht bei beiden. Dann klickst du auf apply und fertig


4070ti
Ryzen 5600

Ich halte jetzt 60 fps min fast zu 100% mit normalem ddr 4 ram.
 
  • Gefällt mir
Reaktionen: Intruder und JohnWickzer
Manegarm schrieb:
Das sollte ja nicht pampig sein, das liest sich nur so

Alles klar, kommt manchmal einfach anders an, als man es selber gemeint hat. Geht mir auch ab und zu so. ;)
 
Americanguy schrieb:
Ich kann es die average fps sind um fast 10% gestiegen und die min fps um fast 20 fps in atlantis im cpu limit. Das beste die slowdowns/stotterer die wie die unreal engine stotterer wirken sind komplett verschwunden. Probiert es :)

Nur Starfield als Profil im inspector suchen

Rbar on bei den nächsten beiden settings direkt darunter nimmst das wo battlefield als erster steht bei beiden. Dann klickst du auf apply und fertig


4070ti
Ryzen 5600

Ich halte jetzt 60 fps min fast zu 100% mit normalem ddr 4 ram.
Krass, das wäre ja ein Gamechanger!
Danke für den Hinweis.
Bitte an alle: probiert es aus.
Ergänzung ()

akuji13 schrieb:
Nö, weil das hier sowieso immer aktiv ist.
aha, scheint schon immer aktiv gewesen sein!
Also was jetzt?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JohnWickzer
Ist bei mir eh schon im globalen Profil so eingestellt. Und wie schon geschrieben läuft es in meinem Setup im Bereich von ca. 45 FPS bis zu über 100 FPS je nach Szene und Areal sehr rund. Nicht unter 45 FPS zu fallen ist wichtig, weil das sonst aus dem Bereich für FreeSync herausfällt.
 
Zurück
Oben