News AMD vs. Intel: Ryzen 7 9800X3D in 17 Tagen, Ryzen 9000X günstiger

Capthowdy schrieb:
AMD soll besser den 9950X3D mit 3D-Cache auf beiden CCDs bringen, da hätte ich mehr Bock drauf! :love:
Wird nicht passieren. Wenn beide CCDs 3d Cache hätten, könnte es sein das threads vom threaddirector auf beide ccds verteilt werden und wenn der eine thread auf den anderen wartet der aber im 2. Ccd liegt, wären die Latenzen zu groß, damit würde vermutlich weniger fps rauskommen...
 
Hände kribbeln schon, wird ein teures Upgrade aber nach über 4 Jahren wird es langsam Zeit
 
Tundor schrieb:
Sieht bei Intel ja aktuell danach aus. Diverse Shops kommunizieren schon, dass es laut ihren Lieferanten keine Intel CPUs zum 24. geben wird.
Also hier sind schon ca 200 Stück vorrätig.^^
 
Squido schrieb:
Die theoretische Aussagekraft von Full-HD Benchmarks, wenn man eh nur in 4k spielt, finde ich aber mindestens diskussionswürdig.
Es geht um den FPS Bereich.

Würdest du Cyberpunk mit 36FPS spielen?
Und genau deshalb macht man CPU Benches in niedrigen Auflösungen, um zu wissen bis wohin die CPU mit geht.

Ich spiele es mit 80FPS, dafür muss man eben DLSS nutzen, aber mit nem 5800X bekommst du die 80 halt nicht
 
  • Gefällt mir
Reaktionen: Haldi, Javeran und Quidproquo77
HiSpange schrieb:
hab das gleiche wie du, warte auf AMD 6 da biste besser bedient, habe mir derweil ein neues Gehäuse gegönnt falls du basteln willst wie ich :D ist die be quiet light base 600 geworden :daumen:
Ich habe mir das Thermaltake Ceres 350 MX geholt, ich steh nicht so auf Aquarium.... :D

462535372_1336145677351581_6802763853588680406_n.jpg
 
Capthowdy schrieb:
Dual-X3D Cache wäre für die Leute interessant, die gern mehr als 8 Cores für Anwendungen hätten, sich aber gleichzeitig nicht auf die "tolle" Windows Gamebar verlassen wollen. Ich habe nur deshalb keinen 7950X3D gekauft, sondern eben den 7800X3D und das wird mit Ryzen 9000X3D vermutlich genauso laufen, sollte AMD keinen Dual-X3D Cache bringen. In Spielen selbst verspreche ich mir davon eigentlich nichts.


Das würde ich auch lieber nehmen, aber was will man machen.

warum ist ein CCD besser?
 
Dai6oro schrieb:
Und da haben die Leute auch aufgerüstet. Wie oft ich schon aufgerüstet hab nur weil ich Bock drauf hatte...
Eben, jetzt rüstet doch endlich mal wegen 10% auf, ihr Geringverdiener.^^
 
HerrFornit schrieb:
warum ist ein CCD besser?
Weil dann nicht die Windows Gamebar darüber entscheidet, ob ein Spiel auf dem CCD mit 3D-Cache läuft oder nicht, da es schlicht keinen CCD ohne 3D-Cache gibt. Kann man das im Zweifel auch manuell zuweisen? Ja. Will ich jedes Mal gucken müssen, ob die Gamebar ein Spiel korrekt erkannt hat? Nein.
 
  • Gefällt mir
Reaktionen: arvan
Taxxor schrieb:
Es geht um den FPS Bereich.

Würdest du Cyberpunk mit 36FPS spielen?
Und genau deshalb macht man CPU Benches in niedrigen Auflösungen, um zu wissen bis wohin die CPU mit geht.

Ich spiele es mit 80FPS, dafür muss man eben DLSS nutzen, aber mit nem 5800X bekommst du die 80 halt nicht

Nein, würde ich nicht.
Aber interssieren mich Full-HD Benchmarks wenn ich in 4K spiele und dann schlussendlich die GPU limitiert? Ebenso nein.
Ein 1080p Benchmark ist auf meiner verlinkten Seite auch aufgeführt.
Wenn es danach geht, dann muss man alle Spiele statt in 4k mit DLSS / FSR benchen.
Das führt das ganze auch wieder ad absurdum.
 
Squido schrieb:
Aber interssieren mich Full-HD Benchmarks wenn ich in 4K spiele und dann schlussendlich die GPU limitiert?
Wieso interessiert das nicht? Wie Taxxor schon sagte, spielt man in 4K ja nicht im GPU Limit bei maximalen Details, sondern will eine gewisse FPS Höhe damit es spielbar ist und dazu nutzt man Regler oder DLSS. Das Argument "spiele ja eh in 4K" ist ein Trugschluss.
 
Squido schrieb:
Aber interssieren mich Full-HD Benchmarks wenn ich in 4K spiele und dann schlussendlich die GPU limitiert? Ebenso nein.
Dich vielleicht nicht, aber Leute mit einer schnellen GPU und hohen FPS Anforderungen schon.
 
Quidproquo77 schrieb:
Das Argument "spiele ja eh in 4K" ist ein Trugschluss.
Ich glaube diese nervige, immer wieder aufkommende Diskussion wird uns alle überdauern.
 
Moment mal Leute, es geht hier explizit um die Frage, wie viel Performancegewinn man in 4K erwarten kann.
Nichts anderes beantworten die Diagramme von techpowerup.
Was ihr da jetzt draus macht, ist auf euren Mist gewachsen.
Sobald ich die Auflösung mit DLSS verwässere, habe ich keine Vergleichbarkeit mehr.
 
Squido schrieb:
Es geht hier um Vergleichbarkeit, kein was wäre wenn.
Eben, daher wird so getestet, dass ein Vergleich auch Sinn macht und das ist in 720p, Ende der Geschichte.
Ergänzung ()

Squido schrieb:
wie viel Performancegewinn man in 4K erwarten kann.
Du verstehst nicht dass die CPU eine Auflösung einfach nicht interessiert. Du kannst maximal die FPS erwarten die auch bei 720p rauskommen, den Rest bestimmst du mit deiner Grafikkarte und deinen Einstellungen.
 
  • Gefällt mir
Reaktionen: McFritte
Ein Vergleich in 4K macht Sinn. Ob er dir nicht gefällt oder nicht praxistauglich ist, ändert nichts am Ergebnis.
Capthowdy schrieb:
Du verstehst nicht dass die CPU eine Auflösung einfach nicht interessiert. Du kannst maximal die FPS erwarten die auch bei 720p rauskommen, den Rest bestimmst du mit deiner Grafikkarte und deinen Einstellungen.
Was ich verstehe, oder nicht, kannst Du gar nicht beurteilen. Diesen despektierlichen Ton lässt Du bitte bleiben.
Was ich in 720p erwarten kann, bringt mir auf 4k herzlich wenig!
 
@Capthowdy Doch, wenn ich die Performance in 4K beurteilen will. Schlauberger.
720p macht nur Sinn, um nicht im Grafikkartenlimit zu hängen.
Und wenn Du dir auch nur ansatzweise die Diagramme angeschaut hättest, dann hättest Du die Unterschiede auch gesehen, statt hier krampfhaft recht behalten zu wollen.
 
Zurück
Oben