• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Starfield: AMD nennt hohe Empfehlungen für CPU, GPU und Chipsatz

Ich finde eure knappen kritischen Bemerkungen in den doch überwiegend sachlichen Texten sehr gut gesetzt und auf den Punkt gebracht (ich erinnere noch an "in-shop game"), in diesem Fall "Kaufempfehlungen statt Systemanforderungen". 👍

Meine RTX3080 sollte reichen (wobei... 10GB?), mehr Sorgen mache ich mir um meinen Ryzen 3600. Muss ich jetzt der Kaufempfehlung AMDs folgen?
 
Da bin ich ja bestens Vorbereitet ;)

1440p/144hz alles auf Ultra wird ein Fest für mein 5950+X570+RX6900 Wasserfall.

BTW kein DLSS und kein FSR, den Quatsch brauch ich beides nicht und RT interessiert mich auch wenig, Jahrelang gabs gute Grafik auch ohne solche Spielereien.

mfg
 
  • Gefällt mir
Reaktionen: Snoop7676, HierGibtsNichts, Geringverdiener und eine weitere Person
ich hab den Eindruck AMD wird immer dämlicher und unverschämter , irgendwie kommt mir das bekannt vor nur von anderen Firmen
 
Taurus104 schrieb:
Weil AMD auch ausschließlich den Customers GPU Markt bedient und als Einnahmequelle hat...
Ich spreche auch vom CPU Markt. Und da ist AMD nirgends vorne. Selbst in Serverbereich wird immer noch überwiegend Intel verbaut.
 
Atnam schrieb:
Herrlich. Wieso ist eigentlich jeder immer direkt ein Nerd und unglaubwürdig sobald jemand auf deine Posts antworten dessen Inhalt dir nicht passt?
Wenn hier Leute also behaupten sie wären Entwickler und arbeiten auch mit diesen Features und sagen dir das die Implementierung nunmal nicht so komplex ist wie du es darstellst dann sind das nur Nerds und sie sind nicht glaubwürdig aber deiner Aussage soll man glauben?

Du schreibst selbst das es mindestens 2 Wochen braucht um es zu implementieren und mindestens noch mal 2 Wochen zusätzlich um es zu optimieren und es braucht nunmal keine 2 Wochen um es zu implementieren.
Nicht mehr und nicht weniger habe ich geschrieben und du kannst dich da jetzt gerne wie ein Fähnchen im Wind drehen wie du willst aber es ist deine eigene Aussage was die Implementierung angeht. Die Optimierung war nie Teil meines Posts.
Das du keinerlei Ahnung von der tieferen Materie hast und deshalb unsachlich und teilweise abwertend antwortest merkt man dadurch umso mehr.

Nicht Jeder muss sich nur ausschließlich auf geschriebene Worte Anderer verlassen.

Im Fähnchen im Wind drehen bist du tatsächlich der Experte in diesem Forum wenn man sich mal durch deine Kommentare gequält hat.

Ich habe nie geschrieben das du oder andere im Forum mir glauben sollen.

Denn deine Meinung oder was du/Andere von mir und meinen Aussagen denken ist mir vollkommen egal.

Dafür gibt es leider zuviele Personen in Foren und Social Media wie deine Person.
 
  • Gefällt mir
Reaktionen: Snoop7676
bondki schrieb:
Selbst in Serverbereich wird immer noch überwiegend Intel verbaut.
Sowas ändert sich ja auch nicht von heute auf morgen, Server haben halt lange Laufzeiten und da war AMD vor ~5 Jahren quasi überhaupt nicht mehr vertreten.
Aber speziell der Serverbereich ist die Sparte, bei der es für AMD schon länger nur in eine Richtung geht und das ziemlich schnell.
1.png


In 4 Jahren von 1,6% auf 17,5% zu kommen, sagt schon ne Menge darüber aus, wofür sich die Betreiber bei Neuanschaffungen entscheiden.

Bei den Desktop CPUs ist es hingegen ein auf und ab, bei Mobild noch mehr. Man ist heute gerade mal wieder an die Zeit von Zen3 ran gekommen
Ergänzung ()

C4rp3di3m schrieb:
BTW kein DLSS und kein FSR, den Quatsch brauch ich beides nicht und RT interessiert mich auch wenig, Jahrelang gabs gute Grafik auch ohne solche Spielereien.
So ist das eben, wenn sich die Technik weiterentwickelt. Früher konnte man auch noch alle 2-3 Jahre die Performance der Hardware verdoppeln, jetzt wird eben mehr darin investiert, die Hardware intelligenter zu nutzen.
Man kann sich natürlich entscheiden, stehen zu bleiben, aber ohne RT wird Grafik zukünftig eben nicht mehr wirklich besser werden.

Und wer doch versucht, ohne RT noch wirklich merklich bessere Optik hinzubekommen, der wird damit die Anforderungen dermaßen in die Höhe schrauben, dass am Ende RT die weniger fordernde Wahl gewesen wäre und man dann witzigerweise DLSS oder FSR braucht, um das ganze ohne RT spielen zu können^^

C4rp3di3m schrieb:
1440p/144hz alles auf Ultra wird ein Fest für mein 5950+X570+RX6900 Wasserfall.
Das wird ziemlich sicher ohne FSR nicht möglich sein, wenn die von Bethesda empfohlene GPU schon ne 6800XT ist und diese Anforderungen eher für 60FPS gelten dürften.
"Alles" auf Ultra würde ja auch RT bedeuten
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: el_zoido
Das werden wir sehen ;)

Du, es wird immer alles Marketing mit angeblichen "Fortschritt" schön geredet, besonders wenn es viele Leute gibt die gerne auf so etwas Verzichten.
Das war z.B. bei Kachel Win8 ohne Startmenü auch so, wollte die Mehrheit nicht haben.

Nimm du mal dein Upscale, ich bleibe da lieber bei Klassik.

grüße
 
bondki schrieb:
Ich spreche auch vom CPU Markt. Und da ist AMD nirgends vorne. Selbst in Serverbereich wird immer noch überwiegend Intel verbaut.
Durch Langzeit Vertriebs Verträge.
Auf die restlichen Behauptungen gehe ich schlicht nicht mehr ein, weil man Wahrheitsgehalt selbst via Google nachvollziehen kann.
 
Immer dann, wenn ich AMD wieder gut finden möchte, weil nVidia schon wieder einen A*schlochmove hingelegt hat, biegen die um die Ecke mit genau gleichem Verhalten. Seufz.

Ich muss die nach unten offene Kundenfeindlichkeitsskala neu justieren.
In letzter Zeit werden laufend neue Höchstwerte erreicht.
 
Pleasedontkill schrieb:
Vergiss nicht 2080 vs 6800xt! Absolut lächerlich.
Und trotzdem das Genörgele von RTX Käufern, sie würden benachteiligt.
Das würde bei Raytracing ja noch irgendwie Sinn ergeben. Aber eine GTX 1070 soll gleichwertig wie eine RX 5700 agieren?! Letztere ist ja schon im Launch-Test von CB in 1440p 31% schneller, als erstere und liegt deutlich vor der GTX 1080…
 
  • Gefällt mir
Reaktionen: Pleasedontkill
Iconoclast schrieb:
Weil der Einsatz von RT in AMD gesponsorten Titeln absolut minimal ist, da die Karten sonst maximal einbrechen. Also das RT wird kaum der Rede wert sein. Mark my words.

Yup, so ähnlich wie in Watch Dogs 2 (RT) oder Crysis Remastered (RT)usw. usw.
Richtiges Raytracing kann AMD nicht einsetzen bzw. die Spieleentwickeler wenn ein Titel AMD sponsered ist.
Die FPS-Zahlen würden dann komplett einsacken;



Screenshot 2023-07-13 at 19-31-11 Crysis Remastered тест GPU_CPU 2023 Action _ FPS _ TPS TEST ...png
Screenshot 2023-07-13 at 19-28-31 Watch Dogs Legion тест GPU_CPU 2023 Action _ FPS _ TPS TEST ...png
 
ich erwarte, mit meinem in die jahre gekommenen pc, in qhd und high details saftige 60fps und die möglichst konstant. sollte das game ständige framedrops auf 30-40 fps haben wirds deinstalliert und fertsch die laube. ähnlich wie bei dem neuen jedi survivor, wenns net gescheit läuft und nicht umwerfend ausschaut wirds nicht gespielt und basta. für sowas rüste ich ganz sicher nicht meinen pc auf.

durch den gamepass ist eine enttäuschung nach dem testen auch nicht so schmerzhaft fürs portmonee.

grüße
 
Deelray schrieb:
Yup, so ähnlich wie in Watch Dogs 2 (RT) oder Crysis Remastered (RT)usw. usw.
Legion ist der dritte Teil von Watchdogs, und dort ist die RT Performance von RDNA3 ziemlich gut laut deinem eigenen Screenshot

BTW ist die Skalierung der Graphen maximal irreführend, oder warum ist hier im Diagramm der Abstand von 106 zu 107 FPS gleich groß, wie der Abstand zwischen 107 und 126?
1689270578889.png
 
  • Gefällt mir
Reaktionen: kiffmet und .Sentinel.
AMD scheint für die alten karten nicht mehr zu optimieren, wäre ein möglicher Grund.:(
Assassins Creed Origins.
Der Test ist ein paar Wochen alt.

Screenshot 2023-07-13 at 12-03-22 Assassin's Creed Origins тест OLD GPU_CPU RPG_Role playing T...png
 
Iconoclast schrieb:
Weil der Einsatz von RT in AMD gesponsorten Titeln absolut minimal ist, da die Karten sonst maximal einbrechen. Also das RT wird kaum der Rede wert sein. Mark my words.
7900 xt -> 4K Nativ, RT infinite bounce global Illumination inkl. unendlich viele schattenwerfende RT- Lichtquellen inkl. RT Reflections OHNE Upscaler/Supersampler:

Die Leistung passt absolut, zumal man mit FSR2.0 nochmal ordentlich was rausholt.
Ergänzung ()

Taurus104 schrieb:
Die komplette technische Implementation von DLSS 2.0 dauert min. 2 Wochen
Irrtum- Das dauert einen Nachmittag bis einen Tag, wenn das in modernen Titeln zwingende TAA bereits integriert ist. Die Bibliotheken sind umfangreich und liefern ein stark abstrahiertes Toolset. Wenige Calls dorthin reichen aus und die automatisierten Erkennungsmaßnahmen von fehleranfälligen Bereichen und die Sonderbehandlung hat sich stark verbessert.
Taurus104 schrieb:
mit vernünftigen Optimierungen können es bis zu 4 Wochen sein.
Sollte mit den neuen Bibliotheken in weniger als einer Woche erledigt sein. Für DLSS2+ und FSR2+
Taurus104 schrieb:
Und dann reden wir nur vom Upscaling nicht von Frame Generation.
Die Frame- Generation ist nurmehr ein Schalter. On/Off. Implementation als Menüpunkt inkl. Testing 30 Minuten, wenn DLSS3 integriert ist.
Taurus104 schrieb:
Die Implementation ist nicht nur eine DLL Datei in einen Ordner zu kopieren.
Stimmt
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Taxxor
Was bitte ist mit "kompromisslose 4K-Gamer, die das absolut beste Starfield-Erlebnis wollen" gemeint?
Für mich heißt es 4k @ 120 @ 120 FPS @ maximale Grafikdetails.

Wenn die damit 4k @ 30 FPS @ geringe bis mittlere Grafikdetails meinen, verstehe ich nicht, wie es kompromisslos und das absolut beste Erlebnis sein könnte.

1689271161093.png
 
  • Gefällt mir
Reaktionen: RaptorTP
C4rp3di3m schrieb:
BTW kein DLSS und kein FSR, den Quatsch brauch ich beides nicht und RT interessiert mich auch wenig, Jahrelang gabs gute Grafik auch ohne solche Spielereien.
Wieder einer, der seinen veralteten Stand der Technik zur Schau stellt und temporales Supersampling "Quatsch" nennt.
Beschäftige Dich bitte mit der Materie, bevor Du hier Stammtischparolen befeuerst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Taxxor
Die Performance schwankt einfach enorm bei AMD, nehmen wir mal die beiden Rockstar Titel die leider kein RT bieten.
7900XTX gut unterwegs und 6800 hinter einer 3060Ti.:(

Das ist bei Cyberpunk noch extremer. Die besten der besten laufen so gut wie immer auf NV besser.
Wenn man sich die Systemanforderungen zu Starfield ansieht, wird es höchstwahrscheinlich ähnlich.

Nvidia hat den Marktanteil nicht ohne Grund.

Screenshot 2023-07-13 at 12-49-57 Grand Theft Auto V тест GPU_CPU Action _ FPS _ TPS TEST GPU.png



...und in RDR2 wird 6900XT von der RTX3070 geschlagen


Screenshot 2023-07-13 at 12-53-48 Red Dead Redemption 2 тест GPU_CPU Action _ FPS _ TPS TEST GPU.png
 
@Deelray Hier gab es vor ein paar Jahren mal einen Nutzer, der auch nichts anderes gemacht hat, als Threads mit Posts dieser komischen Benchmarkseite voll zu spammen um zu zeigen, wie schlecht AMD ist, damals sehr oft mit den Vega Karten als Thema, egal um was es in den Threads ging.
Auch ist er entweder gar nicht oder zusammenhangslos auf ein Ansprechen von anderen Usern eingegangen(meist wieder mit einem Benchmark Screenshot, nach dem niemand gefragt hat).
Ich hatte ihn irgendwann auf ignore gepackt aber er wurde glaube ich sowieso irgendwann gebannt.
Ich gehe mal stark davon aus, dass du das bist, denn die Posts sind 1:1 die gleichen, also kommst du jetzt dahin, wo er auch hin kam^^
 
  • Gefällt mir
Reaktionen: MoinWoll, Casillas und Snoop7676
Es gibt anscheinend genug Schafe, die sich Bilder- und Pixelratesoftware schönreden, weil es ganz doll viele FPS gibt!

Aber natürlich geht das nur, weil es von Nvidia kommt, die ihr viel zu langsames RT irgendwie aufpolieren mußten und gleichzeitig die Hardwareentwicklung einschränken können, denn Fake FPS sind Real FPS, wenn man es sich nur fest genug einbildet und an den richtigen Stellen wegschaut.

Fassade vor Substanz halt - wie im richtigen Leben...

Zur Unterhaltung und Auflockerung - der Nvidia Fanboy Song:

Der AMD Fanboy Song:
 
Zurück
Oben