• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Starfield im Test: 24 Grafikkarten und 12 Prozessoren im Benchmark

MMXL schrieb:
Yep, 2.000.000 € an Lederjacke überwiesen, um auch mal cool zu sein, und jetzt
ist man einfach nur irgendein Depp, der eine völlig überteuerte Graka gekauft hat...
Und jetzt ist halt AMD schuld, muss ja...
Naja, da die 4090 in so ziemlich allen anderen Games schneller als die 7900XTX ist habe ich mit erst genannter alles richtig gemacht. Mal gucken wann/ ob irgendwann DLSS dazu kommt.

Wenn ja könnten sich die Benchmarkbalken wieder drehen. Falls nicht auch nicht schlimm, man kann nicht immer der schnellste sein :)
 
  • Gefällt mir
Reaktionen: guillome
Mit meiner 3070 macht das Spiel in WQHD echt gar kein spaß.
Ich bin da erstmal raus und warte, aber ich kenne keinen Treiber aus der Vergangenheit, der die FPS mal eben um 10 oder mehr anhebt.
 
Taxxor schrieb:
Klar, jeder Nvidia Nutzer, der ein besseres Bild hätte haben können, wenn Bethesda sich auch nur ein paar Stunden hingesetzt und DLSS angeboten hätte.
Stattdessen wird ihnen was schlechteres vorgelegt mit dem Zusatz "das ist zwar schlechter, aber andere können es auch nutzen, deshalb ist es gut"

Also ich habe eine 4080 und kann nur Unterscheide zwischen beiden upscalern erkennen, aber keine Rangfolge bilden weil sie viel zu ähnliche Ergebnisse liefern.

Vielleicht hat Nvidia in den Treiber der 4090 eine Fanboy mod eingebaut die FSR erkennt und aktiv verschlechtert.

Oder diese Mod steckt im Kopf der User.

Mit anderen Worten, diese dämliche FSR Diskussion nervt so langsam.

Bitte sucht so euch langsam mal euch ein neues Thema an dem ihr euch mit religiösem Eifer abarbeiten könnt.
 
  • Gefällt mir
Reaktionen: bluna, MiroPoch, E2K3 und 7 andere
iNFECTED_pHILZ schrieb:
Wenn man aus Produktpolitischen Gründen dlss einfach nicht unnötig Nährboden geben will dann ist das halt so. Nerfig für viele Spieler, die aber eben wissentlich ihren goldenen Käfig gekauft haben mit Nvidia. Ubd das sag ich als 4090 User.
Sehe ich genauso. Macht doch nVidia auch nicht anders. War da nicht bei Witcher 3 was? Irgendwas mit Tesselation x100000 obwohl man den Unterschied eh nicht sieht... dafür sind AMD Karten dann eingebrochen.
 
  • Gefällt mir
Reaktionen: Casillas und danyundsahne
Tenferenzu schrieb:
Was ich bisher so gesehen habe würde das Spiel auch mit einer 4090 keinen Spaß machen da das Spiel selbst nicht gut zu sein scheint.
Und das stützt du jetzt worauf? Hast du es schon Angespielt? Ach andere haben das gesagt? Na dann darfst du diese Meinung natürlich weiter tragen....ohweia.....wie konnte man früher nur Spaß mit Spielen haben die keine 4K Grafik und drölftausend FPS hatten.....

Ich finde es bislang ganz solide, auch wenn ich mit meiner 6700XT nicht alles auf SuperDuperKrass maxed out setzen kann.
 
  • Gefällt mir
Reaktionen: MiroPoch, MR2007 und MehlstaubtheCat
Markenprodukt schrieb:
Mit meiner 3070 macht das Spiel in WQHD echt gar kein spaß.
Ich bin da erstmal raus und warte, aber ich kenne keinen Treiber aus der Vergangenheit, der die FPS mal eben um 10 oder mehr anhebt.
Ich werde es heute Abend mit meiner Mühle ausprobieren und schauen, wie es läuft.
 
Kommt eigentlich am Mittwoch ein dayone Patch? Oder haben die schon den Patch ausgerollt?
 
Enotsa schrieb:
wie konnte man früher nur Spaß mit Spielen haben die keine 4K Grafik und drölftausend FPS hatten.....
Und diese Vergleiche hasse ich. Früher (ganz früher) hattest du nichtmal einen PC um Spaß zu haben. Wäre es deswegen egal wenn alle Spiele nur mit übertrieben gesagt 5 FPS laufen? Mehr braucht man doch eh nicht, denn früher hatte man auch ohne FPS Spaß!!

Früher hatte ich auch auf einem 15" Monitor Spaß. Heute auf gar keinen Fall mehr....
 
  • Gefällt mir
Reaktionen: bluna, Real_S_Seagal, Epistolarius und 2 andere
Früher ging auch nicht mehr und vor allem kannte man nicht mehr...
Das ist ein gewaltiger Unterschied zu einem "freiwillig auf was verzichten".
 
Bügelbernd schrieb:
Sehe ich genauso. Macht doch nVidia auch nicht anders. War da nicht bei Witcher 3 was? Irgendwas mit Tesselation x100000 obwohl man den Unterschied eh nicht sieht... dafür sind AMD Karten dann eingebrochen.
Warte warte. Das habe ich so nicht gesagt.
Das ist von Nvidia ein sehr bewusstes ausbremsen von Hardware die mit tesselation nicht soooo gut konnten wie ihre eigenen Karten.
War bei crysis 3 ja auch so, wo unter der map Nicht sichtbar viel tesselation gerendert wurde und oh wunder amd abgekackt ist.

Ich kann mir durchaus vorstellen dass die neue Engine von Bethesda AMD einfach liegt.
Analog zu der Unreal Engine. Die liegt Nvidia halt sehr gut. Da redet auch keiner von künstlich ausbremsen.
 
  • Gefällt mir
Reaktionen: MiroPoch, E2K3, Inxession und 2 andere
Ich weiß nicht ob es hier schon Thema war... ich möchte nur mal meine Meinung dazu abgeben und hören ob ich damit alleine bin...

Das Spiel ist bis auf den relativ hohen Polygoncount, technisch eigentlich extrem banal vor allem was die Effekte betrifft.

Das Spiel sieht so dermaßen nach Jahrgang 2000 aus. Wie kann es sein dass ein Spiel das 2023 auf den Markt kommt keine nennenswerten Shader Effekte hat die in aktuellen spielen seit locker 10 Jahren Standart sind. Ich möchte mich da vor allem bei dem vielen verwendeten Glas ein wenig über Screespace Reflaction auslassen bzw des nicht vorhanden sein.

Es wird ein Schuh draus wenn man kurz inne hält und sich die Debatte von wenig verbrauchenden Ada's anschaut und die sehr gute Performance von Navi 3.

Auf redit oder auch hier schon, wurde in den Raum geworfen das in Starfield massiver Einsatz von FP16 shadern statt findet. Das erklärt das fehlen aufwändigere Effekte wie SSR, die sehr gute Navi 3 Performance...( die bei FP16 nahezu die doppelte Tflops erreicht 122tflops, immerhin mehr als die 83tflops der 4090) und das schlechte bzw artgerechte abschneiden von ADA die ja keine möglichkeit haben sich über FP 16 zu beschleunigen und deshalb halb leere Shader laufen haben. Die zwar die Karte voll auslasten aber dann deutlich weniger Strom verbrauchen weil die halb leer laufen mit FP16.

Das ist ein Parade Beispiel wie eine Technologie Partnerschaft NICHT ablaufen sollte!

Wir Bomben das Spiel mit einer zwar aufgeborten aber im Prinzip ziemlich inneffizienten Engine zurück in die 2000er Jahre und nutzen FP16 shader damit wir die unterlegene Hardware mal oben sehen können... das kann es nicht sein... ich habe damals auch beim Release der Navi 3 auch den Sinn nicht verstanden warum man das nutzen sollte mit der doppelten FP 16 Leistung außer man will wieder an die Anfänge der shader grafik zurück. Da ist AMD nicht zukunftsorientiert unterwegs. Sämtliche Spiegelung im Spiel sind billige und Teils schlechte Cube Maps... ich verstehe auch die ganzen Tester und influencer nicht das es anscheinend niemandem auffällt! Ja es ist total toll die Karte Mal oben zu sehen, aber zu welchem Preis bitte! (Und damit meine ich nicht das irgendjemand geblockt wird, sondern ausschließlich das in kauf nehmen von uralt Cubemap Reflexionen um die Karte schnell zu bekommen. Es gibt viele Optimierungen die Sinn ergeben wo man Mixed precision nutzen kann. Das wurde zu GCN Zeiten schon mal von AMD thematisiert und dort meine ich in einem Papier gelesen zu haben das sie damit (bei guter Optimierung mit nicht zuviel Aufwand) ca 10% leistungs benefit rausholen können ohne die Optik anzufassen...

So denn :
Ist ja auch logisch SSR ist deutlich komplexer und findet in FP16 einfach keinen Platz, stattdessen cubemaps soweit das Auge reicht, ist das die lösung um 2023 technologischen rückschritt zu rechtfertigen wegen einer Technologie Partnerschaft?

Nochmal als Erinnerung es ist meine Vermutung und Meinung, ich möchte sachliche Meinungen dazu und keinen Klassenkampf auslösen... bin selbst absolut neutral unterwegs und bin eigentlich eher der roten Seite zugetan. Die haben häufg pfiffige Ideen und klotzen nicht so Rum. Im Fall Navi 3 bin ich aber nach Navi 1&2 wieder zu den grünen gewechselt weil die Roten da ziemlich ab vom Kurs gekommen sind. Nicht nur das mit der part mit der doppelten FP16 Leistung zumindest interessant fand (allerdings mir solch eine Ausnutzung wie im Fall Starfield niemals in den Sinn gekommen wäre) fand ich den Modul Aufbau hoch interessant. Das sie dann solch ein lügen Konzert bei Release abgezogen haben hat mich dann zurück zu den grünen treiben lassen. Man sieht also ich gehöre da hin wo jemand das bessere Produkt baut und nicht wo mein Herz schlägt. Weil das schlägt eigentlich Rot .

So jetzt bin ich Mal gespannt was ihr da so zu denkt...

Grüße Micha
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: anarchie99, Creed, Lord B. und 9 andere
Schon funny was die Fanboys hier für Theorien auspacken, nur um ihren bezahlten Aufpreis der 4900 gegenüber der 7900XTX zu legitimieren.

Es läuft doch bei beiden Karten gut, wo ist das Problem?

Bin auf die Theorien gespannt, wenn die DLSS Mod nicht mehr FPS liefert.
 
  • Gefällt mir
Reaktionen: MiroPoch, Anon-525334 und NOTaNerd
iNFECTED_pHILZ schrieb:
Warte warte. Das habe ich so nicht gesagt.
Das wollte ich damit nicht sagen. Ich habe das so gesagt :).

Was ich damit zum Ausdruck bringen wollte, aber wahrscheinlich nicht korrekt geschafft habe: Hier und da versucht Hersteller X Hersteller Y mal ein Bein zu stellen und umgekehrt. Siehe Witcher 3 oder auch fehlendes DLSS bei Starfield oder irgendwas anderes.

Aber klar, die Performance kann definitiv an der Unreal Engine liegen. Habe mich allerdings zu wenig mit dieser beschäftigt.
 
M@tze schrieb:
Jetzt bin ich irritiert?!?! Warst Du nicht am Anfang des Threads derjenige, der das Spiel am meisten "gedisst" hat und fluchte, was es für eine Grütze wäre? No offense, ehrliche Frage! :)
Ja war ich. Hättest du mal meine beiden Beiträge gestern Nacht gelesen müsstest du jetzt nicht so eine Frage stellen. Das Spiel ist die ersten ca 5 Stunden scheiße! Das entwickelt sich erst zum richtigen geilen Spiel. Ich habs die ganze Nacht gezockt.

https://www.computerbase.de/forum/t...rozessoren-im-benchmark.2158614/post-28565534
 
  • Gefällt mir
Reaktionen: M@tze und rosenholz
Bügelbernd schrieb:
Was ich damit zum Ausdruck bringen wollte, aber wahrscheinlich nicht korrekt geschafft habe: Hier und da versucht Hersteller X Hersteller Y mal ein Bein zu stellen und umgekehrt. Siehe Witcher 3 oder auch fehlendes DLSS bei Starfield oder irgendwas anderes.
Aber genau darum geht es ja. Es gab in der Vergangenheit einfach keinen einzigen Vorfall wo AMD die Konkurrenz ausgebremst hat. Das hier jetzt anzunehmen wird der Sache nicht gerecht.

Das Fehlen von DLSS sehe ich sehr unkritisch.
1. kann und wurde es schon nachgepatcht.
2. gibt es durchaus ein berechtigtes Interesse der Publisher dass sich FSR statt DLSS durchsetzt. Siehe Gsync/AdaptiveSync. Nvidia hätte hier zu gerne mit dem lizenzierbaren Zusatzmodulen Kohle gemacht. Plan ist aber eben nicht aufgegangen.
 
  • Gefällt mir
Reaktionen: E2K3 und Bügelbernd
FeldiSan schrieb:
Ist ja auch logisch SSR ist deutlich komplexer und findet in FP16 einfach keinen Platz, stattdessen cubemaps soweit das Auge reicht, ist das die lösung um 2023 technologischen rückschritt zu rechtfertigen wegen einer Technologie Partnerschaft?
war das bei anderen games in der creation engine vorher anders?
 
Xeroxxx schrieb:
Schon funny was die Fanboys hier für Theorien auspacken, nur um ihren bezahlten Aufpreis der 4900 gegenüber der 7900XTX zu legitimieren.

Es läuft doch bei beiden Karten gut, wo ist das Problem?
Es läuft insgesamt (un)verhältnismäßig $cheiße und besonders auf der besten Karte am Platz, da darf man sich zurecht ärgern wenn man 2000€ hingeblättert hat finde ich.

Finde nur, dass man dem Spiel / Publisher dann auch konsequent den Mittelfinger zeigen sollte.
 
Zurück
Oben