• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Starfield: AMD nennt hohe Empfehlungen für CPU, GPU und Chipsatz

Viele verstehen scheinbar nicht oder wollen es absichtlich nicht, das nur weil die eigene Hardware nicht angegeben ist, es nicht heißt das das Game nicht läuft.
Sind doch nicht ersten Systemanforderungen die recht hoch ausfallen. Zudem ist es halt eine Partnerschaft zwischen den Devs und einem Hardwarehersteller. Was auch nicht das erste Mal ist. Zudem gibt es doch weiterhin die offiziellen Herstellerübergreifenden Systemanforderungen, die man auch auf Steam findet.
 
  • Gefällt mir
Reaktionen: [wege]mini und kicos018
Taurus104 schrieb:
Viele verstehen scheinbar nicht oder wollen es absichtlich nicht, das nur weil die eigene Hardware nicht angegeben ist, es nicht heißt das das Game nicht läuft.
Jeder der zwei Sekunden über das Thema nachdenkt sollte verstehen, dass das stinknormales Marketingsprech ist. 98% der Leute hören das und vergessen es schnell wieder, 1% lässt sich davon beeinflussen und kauft neue Hardware und 1% hängt im CB Forum ab und sorgt auf 7 Seiten für eine Empörung, wo keine ist.
 
  • Gefällt mir
Reaktionen: jo0, [wege]mini und HierGibtsNichts
Mit der Vorstellung des Games hab ich bereits die Lust verloren.

Ohne jetzt es denen zu wünschen hab ich folgende Prognose:

6 Monate später unter 30€

Das man einen X670 Chipsatz braucht .... "Digger, ...."

Man versucht es immer wieder.
Und in der Tat! - Das zeigt das die ihre teuren "back & knack" AM5 CPUs + Boards nicht loswerden.
Ich bin eigentlich ein AMD Supporter. Aber wenn ich heute was neues kaufen "müsste" wäre es ein 13700K "eingebremst" ... oder dann eben der 14700K mit mehr E-Cores.

kicos018 schrieb:
1% hängt im CB Forum ab und sorgt auf 7 Seiten für eine Empörung, wo keine ist.

... und einige der 1% verstehen nicht mal den Grund der Empörung.
 
  • Gefällt mir
Reaktionen: FR3DI, xXBobbyXx und Fatal3ty
Hylou schrieb:
Da AMD keine gute RT Performance hat ist davon auszugehen das das nur absolut rudimentär eingebaut sein wird.
Bei JEDI Survivor war es auch nur eine Spar-AMD Umsetzung, aber trotzdem sieht es mit besser aus siehe Test hier auf CB „Die Schatten machen sich dagegen deutlich häufiger bemerkbar und heben das Game grafisch sichtbar eine Stufe höher.“ und für die 10 FPS (zumindest bei NV, bei AMD 25) hab ich die Grafikstufe höher gern mitgenommen. Von daher mal abwarten..
 
AMD macht Werbung für ihre "FEATURED" Hardware, ja und?

Das sind ja keine Systemanforderungen, sondern nur Kaufempfehlungen. Ich finde es nicht mal unschlüssig, dass für den "kompromisslosen" Gamer auch der geilste Chipsatz empfohlen wird. Wer 1000,- für ne GPU aussgibt und wahrscheinlich noch mal gutes Geld für den Monitor darf auch beim Motherboard hinlangen. Ich versteh's so, dass hier immer das Optimum der FEATURED Hardware empfohlen wird. Ist also eher vergleichbar mit dem perfekten Gaming PC Thread in diesem Forum, und heroisch, episch und legendär sind die "Preisklassen".

Die realen Anforderungen für das Spiel werden ja von Bethesda genannt und da kann sich jeder informieren, ob das Spiel auf der eigenen Hardware läuft. Ich werde mir jedenfalls eine neue Grafikkarte kaufen müssen, aber da AMD keine RX 7700 XT anbietet, plane ich mal weiterhin eine RTX 4700 ein. Egal, was die AMD-Werbung sagt.
 
  • Gefällt mir
Reaktionen: jo0 und mibbio
FR3DI schrieb:
Ja, mit schmeidigen 30 FPS. Gut für die ältere Generation?🦽
Quelle

Gruß Fred.
Naja, wenn es nicht drunter geht, so gemütlich und smooth Schlendern..
Nee ist ja auch nicht meins:)
 
  • Gefällt mir
Reaktionen: xXBobbyXx und FR3DI
Man brauch keinen X670 Chipsatz für 4K Gaming.

Beide (B650 & X670) haben PCIe 5.0 x16
Selbst B550 mit PCIe 4.0 x16 würde keinen Unterschied machen für einer 7900 XT

Ja, die CPU dann evtl. auch klar.

Aber das weißt du doch eigentlich auch schon.

Wie kann man dann behaupten das man es "benötigt"
Selbst als Richtlinie völlig Banane. Mit solchen Aktionen macht man sich unbeliebt.
 
Also wenn man vermutlich für die RT Werte entweder eine 2080 oder 6800XT haben soll, dann ist die Kooperation in Sachen Leistungsoptimierung eher schlechter als normal gelaufen.
Schließlich sollte die 6800XT etwas mehr Power haben, wenn man von Cyberpunkt "made by NVidia" absieht.
https://www.computerbase.de/artikel...-amd-radeon-nvidia-geforce-test.75484/seite-4
Demnach ist eine 6800XT in Raytracing 17/18/36% schneller als eine 2080 Super.
Selbst eine 6800 ist flotter.
Und das inklusive den "schlechten" Spielen.
 
  • Gefällt mir
Reaktionen: shaboo
Ich bin eher gespannt ob Bathesda mit Starfield abliefern wird.
 
  • Gefällt mir
Reaktionen: jo0
Also der unterschied zwischen 6800 und 7xxx ist nun nicht so groß, das ich mir vorstellen kann das man dieselben FPS schafft wie in 1440p und das bei legendary also vermutlich max. Einstellungen.
Also ohne FPS Angabe mal wieder abwarten auf die Test, sobald das Game draussen ist.

Verstehe nicht, dass sich die Industrie hier nicht auf einen standard einigen kann was Auflösung, Setting und FPS angeht bei den Angaben zu Spielen. Auflsöung die 3 stadnardmässigen, dazu 60fps als ziel fps und die settings dann immer angeben und so wählen, dass man 60 erreicht. Somit hätte man nur noch die settings als variable.
Seby007 schrieb:
Das stimmt nicht. In früheren Zeiten hatte alleine der Chipsatz auch mal seine 20+% nachweisbar an Leistung gemacht. Heute ist es weniger, aber es kommt auf die Anwendung an!
Die 20% sind schon sehr lange her im Gamingberreich, nämlich so lange, wo auch Soundkarten noch FPS brachten ;) .Heute ist der Chipsatz aber egal, 1-2% denn wir reden hier von Games. Das einzige das hier evtl. Einfluss nehmen könnte wäre die Anzahl an PCIe- Lanes ( und selbst das ist eher minimal und nur bei den Top Grafikkarten) und der supportete Ram, aber bei Games auch hier eher marginal.
 
  • Gefällt mir
Reaktionen: Seby007
kicos018 schrieb:
Jeder der zwei Sekunden über das Thema nachdenkt sollte verstehen, dass das stinknormales Marketingsprech ist. 98% der Leute hören das und vergessen es schnell wieder, 1% lässt sich davon beeinflussen und kauft neue Hardware und 1% hängt im CB Forum ab und sorgt auf 7 Seiten für eine Empörung, wo keine ist.
Leider wahr! Aber ganz genauso ist es halt.
Und wie ichs erwähnt hatte, es gab schon zig Spiele wo wir das so hatten, Cyberpunk 2077 uvm. Selbst vor zig Jahren das OG Crisis 1 damals.
 
hennich schrieb:
Gibt es nicht ein Problem mit 30fps und OLED ? Das heißt alle die einen OLED haben - Pech ?

Hab hier eine Liste gefunden mit TVs die Stutter Probleme haben, aufgrund von Technologie oder was auch immer. https://www.rtings.com/tv/tests/motion/stutter

1080p in 60Hz wäre echt dringend als Option geboten.
Nein, das hat mit etwas anderem zu tun bzw bei bestimmten Inhalten wenn man TV guckt!

Stottern OLED.jpg


Beim Zocken am PC willst mit 30 FPS weder am OLED noch an einem LCD zocken. Das macht keinen Spaß. Ein OLED hat eine extrem geringe Reaktionszeit was Pixelreaktion betrifft und da merkt man Ruckeln etwas eher als an einem LCD. War vor meinem C2 144 Hertz gewohnt per IPS. Trotzdem empfinde ich die 120 Hertz am OLED sehr viel angenehmer und auch schneller als 144 Hertz oder gar 165 an meinem 34GN850B vorher. Vor allem mit dem kontrastreichen Bild, wo Schwarz auch Schwarz ist, kann kein LCD-PC-Monitor mit halten, auch kein VA-Panel das meist etwas höhere Kontrastwerte hat als IPS, TN & Co. OLED ist in dieser Sache einfach eine ganz andere Liga.

Zum Thema Starfield:
Ist mir ehrlich gesagt scheiß egal was die da hin schreiben. Chipsatzempfehlung, das ich nicht Lache. Ich wette zu 1000% das ich mit meinem B550 Chipsatz genauso in UHD zocken kann wie jeder Andere auch der keinen Highend-Chipsatz hat. Da wird wieder ordentlich die Werbetrommel gerührt, dass man endlich die überteuerten AM5 Mainboards kaufen soll!

Ne halbwegs ordentliche CPU und eine potente Grafikkarte reichen allemal. Vor allem wird in UHD in den meisten Spielen eher die GPU zum Flaschenhals als die CPU. Grafiksettings bzw Regler kann man ja bestimmt auch selber bedienen. Zumindest wird es ja hoffentlich nicht so wie bei "Next Gen Ruckeln Jedi Survivor werden" wo man erstmal das Game unfertig auf den Markt wirft, dann versucht den Kunden die schuld zuzuweisen, aber dann doch im Nachhinein probiert mit Patches das Schlimmste auszubügeln.

Schlussendlich kann man aber einfach auch erstmal den Starfield Technik-Test abwarten...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: hennich
Ich verstehe die Aufregung nicht. Jeder weiß das in 4k die CPU eher zweitrangig ist. Mit mein 5800x3d werde ich in 4k maximal 2 fps weniger haben als mit einen 7800x3d im 70 fps Bereich.:baby_alt:
 
kicos018 schrieb:
Jeder der zwei Sekunden über das Thema nachdenkt sollte verstehen, dass das stinknormales Marketingsprech ist.
Yep. Oder auch altmodisch "Verbaucherinformation" - gehört also zu den Inhalten, die ihre Urheber i. d. R. selbst nicht glauben.

Zur Rundumsicht gehört auch, dass bei Ausbleiben solcher "Empfehlungen" irgendeine Seite/Channel dies ruckzuck als Nachweis verkauft, dass das AMD-Marketing "immer noch im Azubi-Modus" ist.
 
RaptorTP schrieb:
1% verstehen nicht mal den Grund der Empörung.
Es gibt keinen logischen Grund für irgendeine Art von Empörung, denn das Ganze ist nichts Neues, gab es zig mal bereits bei Titel wo die Devs ebenfalls Partnerschaften hatten/haben und hier wird/wurde sich auch nicht empört. Wer nicht versteht das solche Angaben einfach Marketing sind, dem ist nicht zu helfen. Zudem gibt es weiterhin die offiziellen Systemanforderungen welche auch auf Steam zu finden sind. Viel Wind um nichts.
Ergänzung ()

grincat64 schrieb:
Dieses ganze Gehabe bevor das Game überhaupt spielbar ist sorgt dafür, das ich gänzlich Abstand davon nehme. Die Gefahr dass das Geschrei negativer Art sehr hoch ist wenns released ist bleibt zusätzlich sehr sehr hoch - gerade bei Bethesda.
Nee danke! Spätestens jetzt hab ich bereits genug. Tschüss.
Dann hast du von allen Games seit 2022 Abstand genommen?
Ergänzung ()

bondki schrieb:
Auch bei AMD kommt langsam die Gier im Halse zum Vorschein.
Weil sie Systemanforderungen zum Marketing nutzen für ein Game womit sie verparnert sind? So wie es andere große Hersteller ebenfalls tun? Auch AMD ist nicht die Tafel.
bondki schrieb:
Leisten können die es sich allerdings eigentlich nicht, bei kaum existenten Marktanteilen
Weil AMD auch ausschließlich den Customers GPU Markt bedient und als Einnahmequelle hat...
 
Zuletzt bearbeitet von einem Moderator:
Ich finde es übrigens komisch, warum einige User hier auf die Kaufempfehlungen von AMD schielen und anfangen zu jammern, anstatt die offiziellen Angaben als Richtwert zu verwenden.
Dass AMD möglichst nur neue Produkte vorschlägt, und sich dazu in 3 Preisklassenkategorien bedient, ist doch völlig logisch.
Wäre eine 7700(XT)/7800(XT) auf dem Markt, hätte man auch die 6800XT ersetzt.
Was hat man denn erwartet? Das ist halt auch Eigenwerbung.
Jeder sollte wissen, dass jede ähnliche Hardware es ebenso tut.
Also anstatt einer Radeon 7600 kann jeder auch eine 6700(XT) nehmen, oder aber eine 3060 Ti.
Und niemand verlangt einen X670 Chipsatz von euch, wenn man ein B450 Board mit einem fetten 5800X3D befeuert, der wohl locker als 7700X durchgehen würde.
Außerdem sollte man solche Angaben eh mit einiger Skepsis begegnen, denn oft ist gar nicht so genau klar, mit welchen Einstellungen und FPS das getestet worden ist.
Einfach auf verlässliche Tests warten, die sich explizit Worst-Case-Szenarios aussuchen, nicht irgendwelche unbedeutenden Ingame-Benchmarks, die oft Murks sind, da die oft zu hohe FPS zahlen zeigen (zu geringe Last), oder falsche Limits setzen (GPU statt CPU).
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
Vitali.Metzger schrieb:
Ich bin eher gespannt ob Bathesda mit Starfield abliefern wird.
Eben, sieben Seiten Diskussionen über System- oder Kaufempfehlungen sind eher unwichtig.
Am Ende ist nur wichtig ob das Spiel an sich taugt und dass muss erst noch bewiesen werden.
 
  • Gefällt mir
Reaktionen: Stellarix
Was hat die AMD Marketingabteilung da bloß für einen Haufen gelegt? Von den Bezeichnungen der Stufen (1080p ist heroisch? weil es sich sonst keiner mehr antut, oder wie?) bis hin zu den Empfehlungen.

Ist das eigentlich das erste mal dass 'Empfehlungen' oder 'empfohlene Hardware' für ein Spiel das Board beinhaltet? Falls ja sollte man das dringend archivieren und in 15 Jahren mit Hinweis darauf als retro news wieder rausholen.
2023, das Jahr in dem das Mainboard teil der Hardwareanforderung für Spiele wurde.
2025 folgte WLAN, 2026 Maus und Tastatur ... ^^
Harte zeiten für Leute mit Intel Boards, bei denen läufts ggf. einfach nicht. :rolleyes:
 
Zurück
Oben