• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Starfield im Test: 24 Grafikkarten und 12 Prozessoren im Benchmark

Ja das meine ich ja, das die 4090 auf einmal langsamer ist fällt halt auf weil sie sonst eben immer schneller ist.

Also ist es lächerlich zu behaupten NV Karten werden absichtlich ausgebremst.

Paar Tage warten und dann wird die Listen wieder von der 4090 angeführt.
 
Hab das Gefühl den 4090 Usern geht's nur darum, das sie wieder ganz oben stehen. Anders können sie es mit ihrem Stolz nicht vereinbaren.
Darf man sich nicht drüber wundern, wenn man soviel Geld rausgehauen hat für eine Karte. :)
 
  • Gefällt mir
Reaktionen: Gene Jackman, Lindar, Abrexxes und 12 andere
Atnam schrieb:
Ich glaub aber persönlich nicht das das Absicht ist sondern einfach die Creation Engine 2 für die Tonne ist
Sehe ich absolut auch so. Leider.

Erinnern kann ich mich hier auch nur, an COD. Hier war es aber auch recht eindeutig damals.
 

Anhänge

  • Screenshot_2023-07-04-15-20-15-821_com.google.android.youtube.jpg
    Screenshot_2023-07-04-15-20-15-821_com.google.android.youtube.jpg
    582,3 KB · Aufrufe: 187
  • Gefällt mir
Reaktionen: eXe777 und Anon-525334
Atnam schrieb:
Zeig mir mal ein anderes Spiel wo die 4090 so klar hinter der 7900XTX liegt.
Ich kann mich da an keinen Titel erinnern, auch keine AMD sponsored Titel.

Ich glaub aber persönlich nicht das das Absicht ist sondern einfach die Creation Engine 2 für die Tonne ist.
Spätestens beim CPU Test in welchem ein 13600k vor dem 7950X3D liegt sollte auch der letzten Reihe klar werden was hier abgeliefert wurde.

Mir ist meine Zeit für solche Spiele mittlerweile zu schade, zumal dafür auch noch Geld verlangt wird.

Kein Pathtracing, keine besondere Soundkulisse oder Physik bedeutet auch für die Zukunft nichts gutes. Es fehlt zuviel Grundzubstanz für langen Mod Support.
 
und wer bencht meine Vega 64 auf dreiviertel UHD für meinen 38er ultrawide?? 🍆
 
  • Gefällt mir
Reaktionen: Apocalypse
Lese hier schon jetzt eine zeit lang mit und find es lüstig :-)
Hab das spiel auch schon an die ca. 15 stunden gespielt ,und kann sagen das es gut ist und auch flüssig leuft.Spiele es mit fsr2 auf hoch was völlig ausreicht in 4k und hab anständige fps und deutlich kürtzere ladenzeiten wie im bench. hier auch erwähnt warum auch immer.Hab an meiner 7900xtx nur den vram übertaktet sonst standard.Spiel ist auf einer m.2 fury pci 4.0 installiert.Kein Absturtz oder sonstige Probleme.Missionen gibts wie sand am meer und man ist immer unterwegs :-) dacher von langeweile null zu spühren .Bugs kleine gibts es schon zumindest einer was ich gemerkt habe doch juckt das den spielspaß gleich null denn es handelt sich nur drum dass in einem Kanion(mission) meine 2 begleiter an manch felsen hängen bleiben sonst super game mit anständigen frames für mich auf jeden fall.
 

Anhänge

  • 20230903103613_1.jpg
    20230903103613_1.jpg
    1,9 MB · Aufrufe: 153
  • Gefällt mir
Reaktionen: cyberpirate und _NeXuz_
t3chn0 schrieb:
Die Lösung hat Nvidia auf dem Tisch liegen, aber man kooperiert mit AMD (was ich im übrigen gut finde), wobei diese keinen Lösungsansatz haben der technisch marktreif ist.
das hat aber nix mit AMD zutun. Das ist hier ganz alleine ein bethesda/Microsoft Problem. Konsolen Titel werden so ausgelutscht das mind. 30fps möglich sind oder 60fps und das möglichst nice. Der PC wird hinten dran gestellt. Das ist und war immer schon so.

Alles andere wird nach gepatcht.
 
  • Gefällt mir
Reaktionen: simosh und Apocalypse
t3chn0 schrieb:
Das Ergebnis ist ein crazy CPU Bottleneck, vor allem auch noch bei AMD CPUs, obwohl das Spiel ein AMD sponsored Title ist.

Das ist ziemlich sicher keine reines crazy CPU Bottleneck, sondern ein ziemliches crazy RAM-Bandbreitenlimit.

Ist recht ersichtlich, wenn man sich das untere Spektrum in CPU-Tests anschaut:

1693738132271.png


In keinem Universum ist ein 2600X schneller als ein 9900K, es sei denn der Ryzen läuft mit schnellerem RAM und das Spiel verlangt nach Speicherbandbreite bis zum Umfallen. Ähnliche Diskrepanz beim 10900K vs 3600.

Das erklärt auch das schlechte Abschneiden der Ryzen 7000er bedingt durch den IF.
 
  • Gefällt mir
Reaktionen: R3DN4X, Volvo480, simosh und eine weitere Person
BDR529 schrieb:
Dieser Post ist so voller Widersprüche, und um es mit deinen eigenen Worten zu sagen: Quatsch.

Du implizierst, dass so gut wie jedes Spiel für Nvidia Karten optimiert sei. Und das ist einfach nur eine haltlose Behauptung. Seit vielen Jahren ist die Performance bei AMD gerade im High End Bereich schlichtweg und ergreifend desaströs, bis auf wenige Ausnahmen. Dass AMD gar nicht mal mehr versucht mit Nvidias High End Karten zu konkurrieren, liegt auch nicht daran, dass Nvidia sich irgendwelche Deals einkauft, um besser da zu stehen. Es fing damals mit der HD2900 XT an, und seitdem war's das. Damals sollten es ja noch irgendwelche "Wundertreiber" richten, die niemals erschienen sind.
Deine Interpretationen kannst Du gerne verbreiten, aber ich verbitte mir Unterstellungen von Aussagen, die ich nicht gemacht habe. Also lass mich da raus.
Meinen post lesen und verstehen könnte dabei helfen.
Zu dem restlichen "Quatsch" von Dir äußere ich mich nicht, warum auch ...
 
AAA-Spiele sollten immer alle Upsampling-Techniken bieten
Das sehe ich anders. Wer proprietäre Techniken nutzt, die nur auf einer Handvoll Pixelbeschleuniger laufen, darf gerne für die Implementierung zahlen und/oder Mitarbeiter abstellen, die das für den Entwickler übernehmen.

Wer ne sonderwurst will soll sie haben. Kostet halt.
 
  • Gefällt mir
Reaktionen: cele
Es geht nur darum, dass mit FG und DLSS die 40er Karten optimal ausgenutzt werden, es ist eben schon ein Unterschied, ob ich jetzt 70 FPS mit ein paar Framerate Pikes habe oder in der gleichen Szene 103 FPS mit einer Framerate Line glatt wie ne Nadel. Aber wie gesagt, als 40er Besitzer einfach mal 5 Euro in die Hand nehmen, den Mod holen und glücklich sein. Übrigens ist es kein Abo Modell, nach Kündigung des Abos läuft der Mod trotzdem ;)

Denn ja, wenn ich mir ne 2k Karte gönne und dann viel Geld für die Premium Version auf den Tisch lege, dann hab ich auch noch die 5 Euro für den Mod übrig, was aber natürlich schon ein etwas ungutes Gefühl hinterlässt, weil man Bethesda schon viel Geld in den Rachen geworfen hat.

Und die es eben nicht "schaffen", ein für einen beachtlichen Teil der Spielergemeinde optimiertes Produkt zu veröffentlichen.

Alphanerd schrieb:
Das sehe ich anders. Wer proprietäre Techniken nutzt, die nur auf einer Handvoll Pixelbeschleuniger laufen, darf gerne für die Implementierung zahlen und/oder Mitarbeiter abstellen, die das für den Entwickler übernehmen.

Wer ne sonderwurst will soll sie haben. Kostet halt.

Ja genau ein ganzes Team, es ist ja nun erwiesen das ein Modder dies in knappen zwei Tagen bewerkstelligen konnte.
 
war bei Fallout 4 die Engine nicht "verbuggt", wenn man über 60 fps durchgehend war ? Wie schauts eigentlich hier aus, anscheinend ist das Problem nicht mehr vorhanden.
 
Alphanerd schrieb:
Das sehe ich anders. Wer proprietäre Techniken nutzt, die nur auf einer Handvoll Pixelbeschleuniger laufen, darf gerne für die Implementierung zahlen und/oder Mitarbeiter abstellen, die das für den Entwickler übernehmen.
Wenn du potentiaell 80% deiner möglichen Kunden so behandeln willst kannst du das gerne tun.
Ob das so clever ist ist ne andere Frage.
Zumal die DLSS / FSR Mods ganz schön zeignen das es halt kein Aufwand ist.
 
Die AMD (GPU) Optimierung ist ja wenig verwunderlich, Starfield ist schließlich der große Xbox Titel des Jahres und muss selbst auf der kleinen Series S ne gute Figur machen.

Wenn dann auch noch Nvidia sein Gaming Software Team (Treiber Optimierung und Dev Unterstützung) stiefmütterlich behandelt, wird es halt öfter mal passieren, dass Spiele mit schlechterer Nvidia Optimierung rauskommen als sonst immer üblich.
Die Gaming Sparte bei Nvidia wird wohl immer mehr auf Sparflamme laufen, das Geld ist halt woanders

Trotzdem krass wie viele hier gleich AMD die Schuld zuschieben wollen, da braucht Nvidia vielleicht gar nicht die von 'Moore's Law is Dead' geleakte potentielle Desinformationskampagne starten...

Screenshot_2023-09-02-09-27-24-587_com.google.android.youtube.jpg

Man nennt CB auf Hardwareluxx ja nicht ohne Grund NvidiaBase. :hammer_alt:
(Auf die Community bezogen, nicht die Redaktion.)

Fanboyism für Multi-Milliarden Dollar Unternehmen ist aktuell viel zu krass geworden, zumal die nur im Interesse der Aktionäre handeln und nicht für die Käufer/Nutzer.
 
  • Gefällt mir
Reaktionen: eXe777 und cele
Enyo79 schrieb:
Und dir kommt dabei nicht in den Sinn das wenn sie es schon durch die "Blume" gesagt haben, dass die 4090 30 % schneller ist, hmm wenn unsere 7900XTX jetzt schneller ist als die 4090 fällt das auf.

Das ist lächerlich diese Behauptungen. Dass das rauskommen würde bei Tests, also das NV Karten absichtlich ausgebremst werden, kommt euch da nicht in den Sinn oder? Sowas fällt halt auf. Das ergibt null Sinn wenn dem so wäre.

Das schadet mehr als wenn die Rangliste normal ausfallen würde. Also 4090 an erster Stelle usw.
Ich halte mich lediglich an die Fakten. Eine 4090 IST schneller als eine 7900XTX. Das war auch bisher in jedem Spiel so das mir bekannt ist. Wenn dann ein Starfield derart aus der Reihe tanzt, dann kann da in meinen Augen was nicht stimmen. Oder glaubst du wirklich das diese Werte normal sind? Es geht ja nicht nur um die 4090. Alle NVIDIA Karten liegen deutlich unter dem was sie eigentlich können, während AMD Karten überdurchschnittlich gut abschneiden. Mir ist klar das Spiele, die gesponsort sind entweder leicht AMD oder NVIDIA favorisiert sind aber dieses Ausmaß ist nicht normal.
 
  • Gefällt mir
Reaktionen: ShowOff
Ich bin jetzt schon ein paar Jahre dabei, ich erinnere mich, dass es damals bei Oblivion den sogenannten Chuck-Patch für AMD-Karten gab.

Und zwar das Nvidia Karten nicht gleichzeitig HDR+AA konnten, ich glaube das betraf die 6800er und 7800er Generation.

ATI hatte aber für ihre 850er Serie und auch für die X1800er Serie damals einen Patch, der dies ermöglichte, was mich wirklich gefreut hat, da ich eine X850XT@PE hatte.

Glaub Bethesada hat diesen Patch später sogar in seine Game of the Year eingebaut.

Kann mich nicht erinnern das Nvidia User damals so viel Hass hatten, im Gegenteil einige User sind damals gewechselt weil das bessere AF und eben das AA+HDR schon ein gutes Pro Argument für die damalige ATI Gen war.

Und heute bremst man Spiele künstlich aus, es geht damit leider viel Innovation verloren, wie gesagt es steht AMD völlig frei FSR3 mit Framerate Generation nachzuliefern.
 
  • Gefällt mir
Reaktionen: Mr.Zweig
Shinigami1 schrieb:
Ich halte mich lediglich an die Fakten. Eine 4090 IST schneller als eine 7900XTX. Das war auch bisher in jedem Spiel so das mir bekannt ist. Wenn dann ein Starfield derart aus der Reihe tanzt, dann kann da in meinen Augen was nicht stimmen. Oder glaubst du wirklich das diese Ergebnisse normal sind? Es geht ja nicht nur um die 4090. Alle NVIDIA Karten liegen deutlich unter dem was sie eigentlich können, während AMD Karten überdurchschnittlich gut abschneiden. Mir ist klar das Spiele, die gesponsort sind entweder leicht AMD oder NVIDIA favorisiert sind, aber dieses Ausmaß ist nicht normal.
Ich kenn da noch das letzte cod wo die 7900xtx auch schneller war , da haben auch alle ein FASS aufgemach .Genauso mit dlss ,wieviele Spiele es gibt wo nur dlss drin steckt doch kein Fsr fällt wohl auch nicht auf .Doch wenn dlss mal einmal fehl und frs mal vorhanden ist da gehts wieder ab. Nun gibt doch auch dlss für ein kreutzer das ist doch verschmertzbar .Man sollte auch mal einfach das spiel genießen anstadt nur schauen ob da eine Kante mehr hier oder da flackert :-)
 
Atnam schrieb:
Wenn du potentiaell 80% deiner möglichen Kunden so behandeln willst kannst du das gerne tun.
Also werden 100% aller Kopien am PC verkauft?

Keine auf der Xbox?

Oder ist es so wie eigtl immer, dass der PC kaum Umsatz macht, weil die Leute erst zum Sale oder im Keyshop kaufen?
 
[wege]mini schrieb:
Definiere "bisher" und erkläre, von welcher Zeitspanne du redest. Meine Wahrnehmung in den letzten 20 Jahren ist eine andere.
Im Grunde seit es DX12 gibt also knapp 10 Jahre
Du siehst es doch auch in jedem GPU Test der letzten 10 Jahre, je niedriger die Auflösung, desto besser werden die AMD Karten.
Und ständig liest man von Nvidias "Driver Overhead" der dafür verantwortlich ist, dass man im CPU Limit weniger FPS mit Nvidia GPUs hat, weshalb ja viele auch für CPU Tests auf AMD Karten gewechselt sind, als man mit RDNA2 eine vergleichbar schnelle GPU zur Verfügung hatte.
DERLanky schrieb:
Auf Tearing bezogen stimmt diese Aussage ABER nicht auf die smoothness.
Wenn einem Tearing egal ist fühlen sich 60 FPS bei 120 Hz eben nicht flüssiger an sondern man hat kein zerreißen des Bildes mehr. Bezogen auf Flüssigkeit sind 100 FPS wesentlich besser als 60 FPS bei 120Hz.

Leider wird das immer in einen Topf geworfen. VRR oder G-Sync/Free Sync sind nur dazu da Tearing zu verhindern, Tearing hat aber nix mit einem flüssigem Spiel zu tun.

Wenn du 100FPS bei 120Hz hast, dann bekommst du manchmal pro Refresh ein neues Bild und manchmal bekommst du zwei gleiche Bilder hintereinander, das wird dann als ruckelig empfunden, weil es mal mehr und mal weniger neue Bilder in der gleichen Zeitspanne gibt.
 
  • Gefällt mir
Reaktionen: Apocalypse
Shinigami1 schrieb:
Oder glaubst du wirklich das diese Werte normal sind?
Nein sind sie nicht, das meine ich ja. AMD ist sicher bewusst das eine absichtliche Ausbremsung von NV Karten auffallen würde und das mehr Schaden anrichten würde.

Das absichtliche würde also AMD mehr Schaden als nutzen.

Das ist irgendein Bug der sicher bald behoben wird und dann ist gut.
 
  • Gefällt mir
Reaktionen: H6-Mobs
Zurück
Oben