• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Starfield im Test: 24 Grafikkarten und 12 Prozessoren im Benchmark

Ich kann mir auch gut vorstellen, dass die neue Creation-Engine insgesamt schlecht läuft und erst durch diverse Optimierungen auf AMD einigermaßen läuft. AMD hat hier auch treiberseitig einen Vorsprung, weshalb ich mir vorstellen kann, dass in der nächsten Zeit ein NV-Treiber erscheint, der größere Leistungssprünge in Starfield erzeugt.

Für alle, die gleich Unterstellungen gegenüber AMD und von künstlicher Ausbremsung reden: Erst einmal abwarten, was mit dem Spiel in den nächsten Wochen passiert.
Möglich sind auch Spielpatches, die insgesamt die Performance positiv beeinflussen, wäre nicht das erste Spiel, was zu Beginn bescheiden läuft, auch wenn SF hier immerhin stabil läuft, gab es bei anderen Spielen Abstürze und Ruckler.

Mal schauen, was der CPU-Test so bringt. Ob ein großer Cache überhaupt so viel bringt oder eine höher taktende CPU und/oder mehr Kerne dort besser aufgehoben sind.
 
MalWiederIch schrieb:
Stimmt eigentlich liegt die 7900 XTX gleichauf mit einer 4090, das haben andere Entwickler nur nicht so gut hinbekommen wie Bethesda :p

Ich lach mich schlapp was sich hier manche zurechtreden bei dieser grafischen Glanzleistung :lol:

Das ist leider weder für Nvidia noch für AMD ein Vorzeigetitel …
Hmmm, ich rede gar nichts schön.
Wie schon bei einigen anderen hier: Posts lesen und verstehen sind anscheinend ein rarer werdenes Gut ...
 
Hate01 schrieb:
Das DLSS und Co nur auf Nvidia laufen ist dann was? FSR ist Open Source.
Das ist z.B. dem Umstand geschuldet, dass NVIDIA Innovator ist und AMD die Systeme im Anschluss lediglich kopiert.

Sie entwickeln neue Features mit Geld und diese werden dann in die Märkte gepresst.
Sie legen aber offensichtlich schon längere Zeit keinen Geldkoffer mehr hin und bitten die Entwickler die Möglichkeiten der Konkurrenz zu beschneiden, wohingegen der Anscheinsbeiweis vorliegt, dass AMD dies leider tut.

Zudem: Was würde open source in dem Fall nutzen, wenn AMD weder die darin angesprochene Hardware zur Verarbeitung an Bord der Karten hat, noch das teuer entiwckelte und errechnete Inferencing- Modell mitgeliefert wird? Letztendlich nur dazu, dass die Konkurrenz das Feature einfacher analysieren und kopieren kann.

Zweitens stecken die einen haufen Geld in ihre Software.
Welches Unternehmen der Welt verschenkt Geld an die Konkurrenz? Verzichtest Du freiwillig auf Teile Deines Lohns, damit Dein Arbeitgeber vermeintlich Marktfreundlicher agieren kann?

Drittens verfolgt NVIDIA einen eng festgelegten Plan in Sachen Weiterentwicklung ihrer Software. Die nehmen dieses Thema seit einiger Zeit deutlich ernster als AMD.
Die Weiterentwicklung muss also streng nach eigenem Schema erfolgen und nicht in der Wildbahn, um entsprechend zielgerichtet wirken zu können.
Open source sollte für die Entwicklung einigermaßen "konstant bzw. vorhersehbar bleiben", so dass man am gleichen Strang ziehen kann.

AMD ist das alles egal. Die liefern Dir ein Gerüst- Friss oder stirb und reagieren erst, wenn NVIDIA ihnen mal wieder mit irgendeiner Technik voraus ist.

Viertens ist mir als Entwickler lieber, ein modulares ausgereiftes System mit festliegenden Schnittstellen und entsprechendem Support in meine Engine zu integrieren, als irgendwelche fremden Codeschnipsel integrieren zu müssen, in welchen der Entwickler sagt: Einbauen und schwimmen auf eiegene Gefahr ist angesagt.

Fünftens werden open source Projekte immer nur von den gleichen Eseln ernsthaft gepflegt. Die werden letztendlich von der Allgemeineheit ausgenutzt und vor den eigenen Karren gespannt.
Open source bedeutet nämlich für die egoistischen Konsumenten im Normalfall nur, dass irgendwelche Idioten die Software dann schon schön kostenlos für einen weiterentwickeln werden.

Die überwältigende Mehrheit fordert es zwar, lebt den Gedanken open source aber keinen Millimeter. Im Gegenteil. Man hilft noch nicht mal beim Bugtracking mit oder teilt seine Ideen.

Das sind nur ein par Gedanken dazu...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Celinna, Capthowdy, Grestorn und 8 andere
  • Gefällt mir
Reaktionen: rosenholz, Hate01, up.whatever und 3 andere
Ozmog schrieb:
Mal schauen, was der CPU-Test so bringt. Ob ein großer Cache überhaupt so viel bringt oder eine höher taktende CPU und/oder mehr Kerne dort besser aufgehoben sind.

Gibt schon CPU tests.

 
  • Gefällt mir
Reaktionen: Laphonso
@.Sentinel.
.Sentinel. schrieb:
wohingegen der Anscheinsbeiweis vorliegt, dass AMD dies leider tut.
Jup
https://twitter.com/dark1x/status/1698409517715722481?s=20

3 mal DLSS entfernt nach AMD Sponsorship. Wurde vor Wochen schon diskutiert und wir hatten es letztlich ja geahnt. Durch Starfield als Oberhype Titel bekommt das nun mehr Aufmerksamkeit (war mit den 3 Games aber nicht gemeint, das wäre dann Nummer 4).
Ich bezweifle aber, dass das für AMD der richtige Weg ist, Nvidia Marktanteile und GPU Käufer auf diesem Wege abwerben zu wollen.
 
  • Gefällt mir
Reaktionen: Celinna, .Sentinel. und JahJah192
.Sentinel. schrieb:
Sie legen aber offensichtlich schon längere Zeit keinen Geldkoffer mehr hin und bitten die Entwickler die Möglichkeiten der Konkurrenz zu beschneiden, wohingegen der Anscheinsbeiweis vorliegt, dass AMD dies leider tut.
Bei Cyberpunk hat Nvidia seinen großen Koffer aufgemacht, damit die proprietären Eigenheiten der RTX-Karten besonders gut unterstützt werden und Raytracing im Überfluss genutzt wird.
Das ist ja indirekt eine Beschneidung der Konkurrenz, genau wie es jetzt bei Starfield ist, dass die Radeon-Hardware sehr gut unterstützt wird.

AMD, Intel und Nvidia sind wie hier schon geschrieben wurde Aktiengesellschaften und die nehmen sich alle nichts.

@Laphonso
Hast Du den Eintrag überhaupt gelesen?

ust to re-iterate - if you see this post, it is NOT about Starfield at all. It is about other, unrelated games - we reported on this weeks ago. Some reddit people took this to mean Starfield but it is absolutely NOT related to Starfield.
Um es noch einmal zu wiederholen: Wenn Sie diesen Beitrag sehen, geht es überhaupt NICHT um Starfield. Es geht um andere, nicht verwandte Spiele – darüber haben wir bereits vor Wochen berichtet. Einige reddit-Leute meinten damit Starfield, aber es hat absolut NICHTs mit Starfield zu tun.
 
  • Gefällt mir
Reaktionen: eXe777, Otsy und Anon-525334
Ozmog schrieb:
Ich kann mir auch gut vorstellen, dass die neue Creation-Engine insgesamt schlecht läuft und erst durch diverse Optimierungen auf AMD einigermaßen läuft. AMD hat hier auch treiberseitig einen Vorsprung, weshalb ich mir vorstellen kann, dass in der nächsten Zeit ein NV-Treiber erscheint, der größere Leistungssprünge in Starfield erzeugt.
Mit meiner 6700XT (leichtes UV/OC) erreiche ich auch nicht den Watt-Verbrauch, wie bei anderen Spielen. Die Auslastung liegt trotzdem bei 99%. Bei Starfield liege ich bei 165-170 Watt, bei z.B. Metro Exodus EE bei 190-195 Watt. Das Ganze mit einem 5600x+200 Mhz AllCore und 3600er Crucial Ballistix XMP mit verschärften Timings. Grundätzlich sollte der 5600x für die 6700XT ausreichend sein.

Spiele in etwa mit den Hardware Unboxed Einstellungen bei WQHD mit 80% Renderauflösung + FSR2. 50-80 FPS je nach Szene, die sich jedoch erstaunlich flüssig anfühlen, auch bei schneller Mausbewegung.

Grafisch bin ich irgendwie sehr unentschlossen. Es sind teilweise echt klassse Texturen und schöne Lichtstimmungen. Aber es wirkt manchmal arg steril und nicht aus einem Guss (z.B. manche Felsen im Verlgeich zur Umgebung). Grundsätzlich ist aber zumindest zu Spielbeginn (circa 4 Stunden bei mir) alles stimmig und mit vielen Details gemacht.


Zum Infinity War zwischen AMD/Nvidia-Fans:
Mit der akutellen Informationslage ist es doch super. Jeder kann Argumente für die eigene Meinung (oder eher Glauben) finden und sich bestärkt fühlen. Genau das woran unsere Gesellschaft gerade kaputt geht.

Mal als Beispiele:
  • Aussagen von Frank Azor: Man kann sie interpretieren, dass AMD DLSS verhindert oder zumindest bremst. Man kann Sie aber auch so lesen, dass es Bethesdas Entescheidung war.
  • Nvidias Reduktion des Treiberteams + die Aussagen von MLID: Man möchte die Shitstorm-Welle reiten, könnte man daraus ablesen und deshalb läuft es auf Nividia Grakas schlechter als es müsste. Oder MLID erzählz Müll und es ist eben so wie es ist.
  • Der Redakteur von DF mit seiner Aussage von DLSS Verhinderung bei AMD sponsored Titeln. Erst das schreiben. Und dann später schreiben war doch gar nicht auf Starfield bezogen. So kann jeder wieder das Seine rausziehen. Persönlich finde ich den Tweet von ihm unprofessionel, da das Ergebnis derart vorhersehbar war. EDIT: Ergebis in dem Sinne, dass alle das auf Starfield beziehen. EDIT 2: Kann mal vergessen; der Tweet ist ja schon älter.

Perönlich:
Irgendwie ein Zwischending. Bethesda (Microsoft) äußern sich gar nicht zu dem Thema, was ich ziemlich irritierend finde. Generell läuft das Spiel ja nicht sehr gut. Auf AMD aktuell besser, was aber durch die Partnerschaft und damit frühere Beteiligung nicht verwunderlich ist. Genauso irritierend ist, dass nur FSR 2.0 im Spiel ist plus die völlig unterschiedlichen CPU-Benchmarks. Irgendwie beschleicht ich das Gefühl, dass Bethesda hier wieder ganze Arbeit geleistet hat und AMD zumindest für seine Grakas noch den Karren aus dem Dreck ziehen konnte. Wie beschrieben nur ein Gefühl mehr nicht. Mir ist die Informationslage selbst für eine Meinung viel zu wirr und undurchsichtig.
 
Guten Morgen Leute 🙋‍♂️. In denn PCGH CPU Test sieht man das der 13900K bei Starfield am besten abschneidet ! Meine Frage wäre jetzt weiß einer wieso er besser als der 7800X3D abschneidet ? Was macht der 13900K besser ? Liegt es am Takt bzw am RAM Speed ?
 
Cerebral_Amoebe schrieb:
Bei Cyberpunk hat Nvidia seinen großen Koffer aufgemacht, damit die proprietären Eigenheiten der RTX-Karten besonders gut unterstützt werden und Raytracing im Überfluss genutzt wird.
Korrekt, das ist der Technikmarketing RTX Features Promotions Titel überhaupt für Nvidia.
Cyberpunk/CD Project hat vorbildlich
  • die AMDs FSR Lösung
    und
  • Intels XeSS Lösung mit an Bord.
In dem Nvidia Showcase Game überhaupt by the way ;)
1693895900927.png
 
  • Gefällt mir
Reaktionen: Celinna, Capthowdy, xexex und 2 andere
Also mit einer RTX3080 suprime kann ich es dann vergessen in wqhd und 60 fps zu spielen. Das wird ja ein tolles Lag Konzert. Anscheinend muss ich aufrüsten dabei wollte ich warten bis die 5000 kommen.
 
Intruder schrieb:
sagt man seit ihr so hungrig oder was habt ihr immer mit euren "Frühstücken"?


wann gibt's denn mal Grafikarten zum Mittag, Brunch oder Abendbrot?
Frühstück ist doch auch lecker, oder? :)
Aber hast schon recht, es hat sich jetzt erstmal ausgefrühstückt :D
 
Zuletzt bearbeitet:
Cerebral_Amoebe schrieb:
Bei Cyberpunk hat Nvidia seinen großen Koffer aufgemacht, damit die proprietären Eigenheiten der RTX-Karten besonders gut unterstützt werden und Raytracing im Überfluss genutzt wird.
Das ist ja indirekt eine Beschneidung der Konkurrenz, genau wie es jetzt bei Starfield ist, dass die Radeon-Hardware sehr gut unterstützt wird.
Es wird immernoch nicht verstanden.

Es ist ein erheblicher Unterschied, ob ich ein Feature entwickle und das dann mit Geld gefördert in einen Titel integrieren lasse oder ob ich Geld auf einen Tresen lege, um die Möglichkeiten der Konkurrenz künstlich zu beschneiden.

Deine angesprochene "indirekte" Beschneidung rührt doch nur daher, dass die Hardware/Softwarelösung, die man als Konkurrenz bietet, gnadenlos schwächer ist.
Das liegt aber weit entfernt von der Verantwortung des Entwicklers. AMD hat geschlafen und sie haben lange Zeit auch mehrfach öffentlich betont, dass sie RTRT keine Relevanz zugestehen und man erst auf den Zug aufspringen würde, wenn die Zeit reif sei.
Jetzt haben sie den Salat und es ist schon ein starkes Stück, diese Versäumnisse nun Entwicklern oder denjenigen anlasten zu wollen, die hier den Usern grafiktechnisch die Zukunft bescheren.

Ende 2018 wurde mit den 2xxx RTX Karten die Basis gelegt. Ziemlich genau 5 Jahre später werden wir mit Cyberpunk und Phantom Liberty inkl. DLSS 3.5 nun das sehen, was viele erst 10-20 Jahre in der Zukunft gesehen haben.
Mit der aktuell maximal machbaren Technikkombi aus von NVIDIA entwickelten Verfahren zu diesem Zweck schafft eine 4060TI für 400€ bei 1440P und aktiviertem Overdrive Modus (alle Grafik- Settings Ultra) ca. 50 FPS und das mit Path Tracing!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MoinWoll, Celinna, xexex und 4 andere
Auf der Series X und S läuft es sehr gut, aber die S ist hier schon etwas im Nachteil, vor allem in der Tiefenschärfe und den Schatten. FSR bringt bei meiner Übergangskarte 5700XT auch einen guten Schub auf WQHD. In durchweg hohen Einstellungen keine kritischen Drops, eher 60fps mit dem neuen Treiber 23.8.2. Der neue Treiber hat einen enormen Schub bei mir gebracht. Ultra mit FSR werde ich auch noch testen.
 
Cerebral_Amoebe schrieb:
Bei Cyberpunk hat Nvidia seinen großen Koffer aufgemacht, damit die proprietären Eigenheiten der RTX-Karten besonders gut unterstützt werden und Raytracing im Überfluss genutzt wird.
Das ist ja indirekt eine Beschneidung der Konkurrenz, genau wie es jetzt bei Starfield ist, dass die Radeon-Hardware sehr gut unterstützt wird.
Nö, wieso? AMD kann RT doch auch, wenn auch nicht so gut wie Nvidia. Das Gegenteil ist sogar der Fall: Nvidia hat FSR und co. integrieren lassen.
AMD tut dies nicht.

.Sentinel. schrieb:
Deine angesprochene "indirekte" Beschneidung rührt doch nur daher, dass die Hardware/Softwarelösung, die man als Konkurrenz bietet, gnadenlos schwächer ist.
Das liegt aber weit entfernt von der Verantwortung des Entwicklers. AMD hat geschlafen und sie haben lange Zeit auch mehrfach öffentlich betont, dass sie RTRT keine Relevanz zugestehen und man erst auf den Zug aufspringen würde, wenn die Zeit reif sei.
Naja, zu seiner Verteidigung muss man aber sagen, dass man nichts anderes erwarten kann, wenn selbst Redakteure von CB so einen Unfug verbreiten:
Wolfgang schrieb:
Cyberpunk mit Raytracing. Da haben die Entwickler auch nur "nach mir/Nvidia die Sinnflut" gemacht und mir kann da auch keiner erklären, dass das auf Radeon nicht besser geht. Das ist quasi kaum Spielbar auf Radeons die es damals 2 Jahre lang noch nicht gegeben hat.
Und gerade von dir erwarte ich da mehr Neutralität Wolfgang. Kannst du deine Aussage auch beweisen oder behauptest du einfach irgendwas?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Laphonso schrieb:
In dem Nvidia Showcase Game überhaupt by the way ;)
Wann wurde FSR hinzugefügt?
Patch 1.5 hat FSR hinzugefügt am 15.02.2022
https://www.gamestar.de/artikel/cyberpunk-2077-patch-performance-boost,3377894.html

Release FSR im Juni 2021, hat also über ein halbes Jahr gedauert.
https://www.pcgameshardware.de/Fide...DLSS-Test-Vergleich-Benchmark-Review-1374282/

Versteh mich nicht falsch, ich finde auch, dass ab Release alle drei Upscaler unterstützt werden sollten, aber bei Cyberpunk hat die Einführung von FSR und XeSS auch gedauert und es wird halt erstmal der Upscaler vom Geldgeber unterstützt.
 
  • Gefällt mir
Reaktionen: eXe777, up.whatever und Laphonso
Sammy188 schrieb:
Also mit einer RTX3080 suprime kann ich es dann vergessen in wqhd und 60 fps zu spielen. Das wird ja ein tolles Lag Konzert. Anscheinend muss ich aufrüsten dabei wollte ich warten bis die 5000 kommen.
wie alt seid ihr eigentlich ? Wie oft habe ich das jetzt schon gelesen ?
da kommt ein schlecht optimiertes Game, mit ner kackalten Engine und ihr macht direkt das Portmonaie auf. :daumen:
 
Laphonso schrieb:
Korrekt, das ist der Technikmarketing RTX Features Promotions Titel überhaupt für Nvidia.
Cyberpunk/CD Project hat vorbildlich
  • die AMDs FSR Lösung
    und
  • Intels XeSS Lösung mit an Bord.
Logisch, die wollen ja alle Spieler erreichen

Laphonso schrieb:
@.Sentinel.

Jup
https://twitter.com/dark1x/status/1698409517715722481?s=20

3 mal DLSS entfernt nach AMD Sponsorship. Wurde vor Wochen schon diskutiert und wir hatten es letztlich ja geahnt. Durch Starfield als Oberhype Titel bekommt das nun mehr Aufmerksamkeit (war mit den 3 Games aber nicht gemeint, das wäre dann Nummer 4).
Ich bezweifle aber, dass das für AMD der richtige Weg ist, Nvidia Marktanteile und GPU Käufer auf diesem Wege abwerben zu wollen.

Ist doch völlig Hupe. AMD kann machen was sie wollen, wenn sie da Sponsor sind. Du musst es nicht kaufen. Übrigens, Starfield verkauft sich super....
 
  • Gefällt mir
Reaktionen: Cerebral_Amoebe
Zurück
Oben