• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Starfield im Test: 24 Grafikkarten und 12 Prozessoren im Benchmark

Deinen Dislike beziehe ich aber nicht auf mich, sondern auf die Tatsachen, die Dir nicht gefallen. Ich bin nur der Apostel, der das ausscrheibt @T-Horsten ;)
Zu AMDs verkorkster Raytracing Startegie haben sich ja schon gamedevs geäußert, sinngemäß hat AMD ein halbes Jahrzehnt verpennt. Raster GPU interessieren nur die Geldbeutel, technologisch ist Raster uralt, gelöst und ein Bremsklotz.

Frag mal in der CAD Industrie wer mit Raster 3D Modelliert. Grafikdesigner, die pre-baked Ressourcen sparen findest Du in der MEhrzahl. Raytracing löst hier zig Probleme, kostet aber Rechenpower, wie wir wissen.

Dass Starfield in 2023 ernsthaft kein Raytracing bekommen hat für RDNA3 featured GPUs , passt dann auch wieder zu einem AMD Sponsoring, während Cyberpunk aus 2019 in Kürze auf Raytracing V2 evolutioniert wird.

Edit: Zum Ausgleich in den Balance kann man hier spöttisch anmerken, dass Nvidia offensichtlich auch nur ein einziges Spiel für das kumulierte Feature Set als Show Case hat, das mittlerweile vier Jahre alt ist.
Das ist alles mühseliger Fortschritt, aber zumindest tut sich an der Front nach und nach ein bisschen etwas.
So fehlen uns nur genug Grafikkarten mit entsprechender Ray Tracing Power, die bezahlbar sind und genug VRAM haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Capthowdy, Kuestennebel79, Grestorn und 2 andere
Schiffe bauen ist geil. :D



LMKAyr1.jpg
 
  • Gefällt mir
Reaktionen: Czk666
Laphonso schrieb:
Raytracing ist die Zukunft, das sehe ich ähnlich. Es nimmt den Entwicklern und Designern viel Arbeit ab, ist aber in Anbetracht des minimalen Ergebnisses unglaublich teuer für den Endkunden. Sehe ich erst in 5 bis 10 Jahren als massentauglich. Bei der Preispolitik eher 10-15 Jahre.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle
Also ich muss sagen, dass ich den Anfang des Spiels (die ersten paar Stunden) auch nur "Naja" fand. Hat mich irgendwie nicht so abgeholt wie z.B. der Start von Fallout 4. Da war man eher sofort mittendrin und hat losgelegt. Aber nach nun ca. 10 Stunden Spielzeit muss ich sagen, dass es richtig Laune macht. Dabei habe ich das meiste noch gar nicht gemacht bzw. erst die Oberfläche angekratzt.
Ich spiele auf einer RX 6800, einem 8600K @4,8 GHz und 16 GB 3600 CL 16 mit angepassten Einstellungen. In Städten merkt man die schwache CPU schon, aber dort halte ich mich sowieso nicht so gern auf und bisher war dort auch keine Action, daher ist es nicht schlimm. In allen anderen Bereichen, die ich bisher besucht habe, lief das Spiel sehr angenehm.
Zu bemänglen hätte ich, dass die NPCs oft noch weiterreden, während der Mund sich schon gar nicht mehr bewegt. Ausserdem sind die "Bürger", also alle NPCs, die keine Funktion haben, unglaublich hässlich :D
Bei den NPCs mit "Funktion" haben sie sich deutlich mehr Mühe gegeben.
 
  • Gefällt mir
Reaktionen: Celinna und JPsy
Laphonso schrieb:
Oh, und damit es ausgewogen ist: Dass man quasi nur 2 voll taugliche RT GPUs hat mit der 4080 und 4090, die genug Rohpower mitbringen und dafür absurde 1500-2000 Euro kosten und damit für gefühlt gerade 1,7% der Zocker relevant ist , ist völlig irre, aber leider die Marktlage und spielt "Ngreedia" in die Hände.
Das imho größere Problem ist, das für diese zwei GPUs, der Rest der Generation eben auch vollkommen vor sich hin lahmt. Chipfläche ist nicht umsonst, ganz im Gegenteil, und wo eine 4080 noch genug Power für beides hat, sieht das bei einer 4060 dann ehr traurig aus, weil es an allen Enden fehlt.

Wenn RT sowieso nur für die Gefühlten 2% mit "Zuviel Geld" relevant ist, dann macht AMD eigentlich in der Hinsicht alles richtig. Wenn nicht mal Nvidia soweit ist mit der Technik für den Massenmarkt und AMD sowieso weit abgeschlagen ist, dann brauchen sie da auch gar nicht mit spielen. Die 15% oder was auch immer AMD noch Marktanteil hat, machen den Kohl für mehr RT Games auch nimmer fett.

Wo wir dann auch bei dem bin, was ich schon länger sage, eine extra RTX Karte für Minecraft RTX, Cyberpunk und Quake 2 RTX, selbst für 1000€ wäre für viele Wahrscheinlich besser zu schlucken, als Ngreedia bei der kaum noch vorhandenen Mittelklasse und 2000€ 4090 Karten.

Wenn Nvidia nur den Wundertreiber hätte, um RT und Tensor Cores auch mal für was anderes zu nutzen, dann wäre die Chipfläche nicht um schlimmsten Fall so verschwendet.
 
Apocalypse schrieb:
Schaffen sie doch, dreh mal den Regler richtig.
Und was so rechen-intensive ist? Anscheinend die FP16 Shader. Da liefert eine 6800xt 41.47 TFLOPs, aber eine 3080 nur 29.77 TFLOPS.
Ja, super Sache, dann kann ich auch gleich alles auf Low stellen um gute Leistung zu erhalten. Wofür dann eine Grafikkarte für 1000+ Euro?

Jedenfalls Danke dafür dass Du dir die Zeit nimmst das auf teschnischer Ebene zu beleuchten. Mir stellt sich jedoch immer noch die Frage warum macht man das?!. Warum nicht angepasste Shader bei Release ausliefern? Steckt da jetzt einfach nur AMD dahinter? Ist das Bethesdas typische und bekannte Faulheit? Sind das Kosteneinsparungen auf Kosten der Nvidia-User?
 
Hmmm, ich hab mal überlegt, warum ich bei mir kein Flimmern feststellen kann und mal so in die modernen OLED Monitore geschaut.

Mein 4k Samsung LCD Monitor hat 157 Pixel per Inch.
Ich hab OLEDs gesehn, die haben 83 Pixel per Inch, andere 110 ppi.

Mein vorheriger Monitor hatte 94ppi.
Das waren im Verhältnis zu meinem neunen Monitor richtig grobe Pixel, die ein Flimmern verstärken würden, wenn da nicht alles superweichgezeichnet wird.

Mit OLEDs in dem ppi Bereich kann ich mir vorstellen, das es noch intensiver rüberkommt.
Aber die sind dann vielleicht nur zum Couchspielen geeignet, wo man recht weit weg sitzt und nicht zum Desktopspielen, wo man nah davor sitzt.

"Pixel per Inch" machen einen Riesenunterschied aus, denke ich!
 
Th31X schrieb:
Jedenfalls Danke dafür dass Du dir die Zeit nimmst das auf teschnischer Ebene zu beleuchten. Mir stellt sich jedoch immer noch die Frage warum macht man das?!
Ist reine Spekulation, nicht auf meinem Mist gewachsen, klingt aber zumindest Plausibel und nach dem großen "Aber warum? WARUM NUR?!" kann man auch nur spekulieren.

Fakt ist, das die Engine 11 Jahre alt ist, nie sonderlich gut gelaufen ist, Bethesda nicht umsonst den Spitznamen Bugthesda hat und einige es schon für eine Leistung halten das Starfield überhaupt noch in dieser Engine funktionieren kann.

Fakt ist auch, das es unbedingt auf relativ schwacher AMD Hardware laufen muss, weil es ja ein exklusiver für die Xbox Series X und Series S werden sollte. 30 FPS Lock hilft sicher die Anforderungen geringer zu halten, aber es ist immer noch in "riesen" Spiel, und es ist eine wirklich Schwache GPU in der S verbaut. 8 bzw 4 Tlops FP16 bzw FP32 Performance. Und auch die Series X liefer "nur" FP32 12.15 TFLOPS und eben 24.29 TFLOPS bei FP16.

Andere Xbox Spiele laufen jedoch auch viel schneller am PC auf Nvidia Hardware, sehen besser aus und benutzen größere Shader. Also ob das wirklich der Grund sein kann? Ich weiß es nicht, es ist bloße Spekulation das man sehr eingeschränkt war.
 
  • Gefällt mir
Reaktionen: JPsy
sagt man seit ihr so hungrig oder was habt ihr immer mit euren "Frühstücken"?

1693866231213.png

wann gibt's denn mal Grafikarten zum Mittag, Brunch oder Abendbrot?
 
  • Gefällt mir
Reaktionen: rosenholz, me@home, Czk666 und 4 andere
 
  • Gefällt mir
Reaktionen: Grestorn
Laphonso schrieb:
Neuer Allt Time Peak in diesem Moment. Wir sind noch im Early Access btw.
Mich würden die Spielerzahlen auf der XBox interessieren und ob da am 6. September mehr spielen, als bei Steam.
100€ vs 70€ pre order und dann 70€ vs 10€ Gamepass
 
  • Gefällt mir
Reaktionen: Laphonso
Demon_666 schrieb:
Was für ne Quatschbehauptung. Wenn schon, dann bitte mit Beweisen / entsprechenden Quellen.

Interessanterweise zeigt gerade Starfield das, was viele inzwischen vergessen haben:
Der Einfluss der Spiel-Engine ist größer als die meisten glauben.

Jetzt wurde anscheinend mal von den Entwicklern die engine nicht zugunsten NVidia-Karten optimiert und schon schreien alle NVidianer auf.

Und es legt das (leider häufig brachliegende) Potenzial der AMD-Karten offen.

Bin mal gespannt, was da noch nachoptimiert wird. Ich warte mit dem Kauf auf jeden Fall noch ein wenig.
Stimmt eigentlich liegt die 7900 XTX gleichauf mit einer 4090, das haben andere Entwickler nur nicht so gut hinbekommen wie Bethesda :p

Ich lach mich schlapp was sich hier manche zurechtreden bei dieser grafischen Glanzleistung :lol:

Das ist leider weder für Nvidia noch für AMD ein Vorzeigetitel …
Ergänzung ()

Taxxor schrieb:
Die 7900XTX ist hier in 4K 7% vor der 4090, normalerweise ist die 4090 30% vor der 7900XTX.

Wenn es das in die andere Richtung auch gibt, müsste es AAA Spiele geben in denen die 4090 ohne RT ~80% schneller als die XTX ist.
Welche sind das?
Das würde mich auch brennend interessieren :p
Ergänzung ()

Moritz Velten schrieb:
Dann sollte Nvidia etwas an den karten ändern, um besser zu werden ;)
Tut mir Leid aber so dämlich kann man doch nicht sein - Sarkasmus richtig? :p
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grestorn, JohnWickzer und Moritz Velten
oh, mit FG läuft es sogar spielbar gut, direkt mal fps verdoppelt im Tutorial:
1693877271558.png


Traurig was da wieder für eine technische Schlamperei abgeliefert wird, wenn "Mods" es offensichtlich in kürzester Zeit beheben können.
 
  • Gefällt mir
Reaktionen: JohnWickzer
Syrato schrieb:
Mich würden die Spielerzahlen auf der XBox interessieren und ob da am 6. September mehr spielen, als bei Steam.
100€ vs 70€ pre order und dann 70€ vs 10€ Gamepass
Auch nicht vergessen: das Spiel gibt es auch seit dem 01.09 im NETZ! Wenn man diese noch dazuzählen könnte...
 
  • Gefällt mir
Reaktionen: Czk666
Wolfgang schrieb:
Ja, es ist dieselbe Renderauflösung, entspricht kommt der Leistungsunterschied durch den Upsampling-Algorithmus zustande. Was man davon hat? Nun, in Ultra HD sollte man mit FSR 2 Quality spielen, nativ geht eh nur auf sehr wenigen Grafikkarten.
Naja, genau das ist der Punkt. Wenn ich ein UHD Setting habe und wissen möchte, wie das Spiel mit Upsampling läuft, dann nehme ich die WQHD Werte minus 2% und hab es in etwa. Momentan ist der Mehrwert an Information des Benchmarks UHD plus FSR lediglich, dass wir verstehen was Upsampling pro Spiel „kostet“. Dafür ein extra Bench halte ich für überflüssig, da der WQHD Wert ja eh gemessen wird. Ich bin der Meinung, dass dafür liebet mehr UHD nativ bzw. UWQHD benches gemacht werden sollten.
Wolfgang schrieb:
Das hilft dir zwar in der Tat nicht weiter wenn du halbwegs an ein potenzielles UWQHD-Ergebnis heran kommen möchtest, das stimmt natürlich.
Wir verbreitet ist die Auflösung UWQHD inzwischen? Hattet Ihr nicht mal eine Umfrage und es waren 10% Tendenz steigend?
 
.Sentinel. schrieb:
Es ist meist eher eine kurzfristige Marketingentscheidung. Der Ankündigung im Juni sind schätzungsweise Verhandlungen und Abschlüsse im Q2 2023 vorausgegangen.
Wobei man im Fall AMD und Bethesda sagen muss, dass bereits vor dem Vega Release seinerzeit bekannt gegeben wurde, dass die beiden Firmen in Zukunft eng zusammen arbeiten wollen.
Damals war auch "Rapid Packed Math" in FP16 zum ersten mal Thema:
https://www.golem.de/news/amd-radeo...ung-und-bethesda-kooperation-1702-126461.html
 
  • Gefällt mir
Reaktionen: Slainer
Zurück
Oben