News Preis und Benchmarks: AMD stellt den Ryzen 7 9800X3D mit 104 MB Cache offiziell vor

nursonefrage schrieb:
20%, und bitte die fußnoten am ende des videos lesen. Ich gehe davon aus dass sich BALANCED auf den windows power plan bezieht und was das ausmacht konnte man sehr gut im 285k test bei cb lesen....
Auf die Angaben braucht man nicht viel geben
CB Test einfach für den 98X3D +5% auf den 78X3D draufrechnen im Schnitt und man wird das Ergebnis haben.
OC macht den 98X3D jedenfalls interessanter, als es die 5.2 GHz boost auf den ersten Blick zeigen
 
Na dann...mein 7800X3D darf weiterhin sein Werk verrichten.
 
Ich wollte nur mal anmerken, dass die CPU mehr Cache hat, als mein alter Pentium 2-PC an RAM hatte. Der hatte nämlich nur 64 MB. :freaky:

Wir sind echt weit gekommen, muss man schon sagen.
 
Fallout667 schrieb:
Generell ziemlich enttäuschend, 8%, WOW, das lohnt sich ja richtig.
Enttäuschend wenn man es AMD intern sieht, ja. Sieht man es in Relation zu Intel, ist es ein "voller Erfolg".
Fallout667 schrieb:
Was machen die bitte? Schlafen die nur noch oder wie? Wenn das so weiter geht lohnt es sich so in 10 Jahren mal wieder aufzurüsten.
Ich plane bis 2028 gar nicht mehr den Zen 3 Boliden aufzurüsten. Der X3D Cached einfach richtig rein und sparsam im "Idle" ist er auch.
Fallout667 schrieb:
Nvidias GPUs werden immer schneller aber bald gibt es keine CPU mehr die die Dinger auslasten kann weil AMD und Intel nichts auf die reihe bekommen. Echt enttäuschend die CPU Entwicklung im Moment.
Die Engines entlasten die CPUs schon entsprechend. Für den BVH Tree und RT kann man's aber schon brauchen.
Fallout667 schrieb:
Und wenn man nicht hauptsächlich spielt hat man mit dem 9800X3d eine teure CPU die in Anwendungen eine absolute Krücke ist.
Dafür in Spielen ne Granate. Muss man halt nen Kompromiss machen, so wie meist im Leben. Mal schauen ob AMD das mit dem Cache auf nur einem CCD fixt, dann wäre der 9950X3D eine "Wollmilchsau".
 
  • Gefällt mir
Reaktionen: Fallout667
blackiwid schrieb:
Wenn man mit der besten 2014er oder wegen mir 2013er Hardware mit 3d Cache wo die Anno Entwickler nicht mal kannten als sie ihr Spiel designed hatten es nicht schafft 30 fps zu erreichen,
Naja, am Anfang schon locker :D

blackiwid schrieb:
gut einzige Argument ist 4k vielleicht dachten sie die Leute spielen mit weniger, aber treibt die Auflösung die CPU last so nach oben?
nein, macht fast keinen Unterschied.

blackiwid schrieb:
Also wie gesagt es gibt 2 Möglichkeiten entweder sind es zu viele Berechnungen von Dingen die passieren oder die Berechnung der Darstellung,
Beides. Die "Grundlast" steigt im Hintergrund, d.h. schaut man sich ne leere Insel an, liegt man vielleicht bei ~60fps. Geht man dann in eine Stadt mit 2-3000 Einwohnern bricht das Ganze auf 30fps oder weniger ein.

blackiwid schrieb:
Hilft so was vielleicht, kann man im Spiel rein und raus zoomen? wenn ja wo sind die FPS besser höherer oder geringerer zoom oder ist das egal?
relativ egal, wenn man es auf die CPU Last bezieht.

Jetzt aber genug OT :D

Bin gespannt wie sich der 9800X3D preislich im Januar entwickelt. Da könnte ich mir vorstellen, ein Upgrade zu machen vom 5800X3D. Denn eben, die meisten Spiele dich ich spiele sind CPU limitiert, und da kann dann 30% schon was ausmachen. Neues CIV steht ja dann auch vor der Tür, da wärs auch nett ein paar Runden weiterspielen zu können...
 
Mmh , ich finde die Reihenfolge nicht gut. Es braucht erst neue GPUs und dann eventuell den 9800X3D 😄
 
Gravlens schrieb:
Ich sehe das ganz anders, für mich war das ein Problem der Optimierung und meiner Meinung nach sollte sowas überhaupt nicht in eine Wertung wie die eines Benchmarks einfließen.^^

Ich hab mal kurz geschaut, die haben vieles bereits behoben, sprich, da sie das konnten war es zuvor logischerweise nicht wirklich optimiert.^^

Mit Patch 5 hatte das begonnen:

https://www.rockpapershotgun.com/bi...pilogue-new-modes-and-act-3-performance-fixes
Als Spieler juckt es mich aber nicht ob ein Spiel optimiert ist wenn es um den Kauf einer CPU geht. Es juckt mich ob eine stärkere CPU mir mehr spielbare FPS gebracht hätte. Und genau dann sind extremszenarien wie BG3 Akt 3 genau der Benchmark der relevant ist. Vor allem wird immer argumentiert dass man gerade deswegen in völlig unrealen (aber natürlich nützlichen!) 720p testet weil man ja dieses extremszenario vorwegnehmen will in dem Sinne: "Ja aber was ist wenn wir kein GPU limit hätten und wieviel schafft die CPU?". Wenn ich jetzt nach Akt 3 gehe und auf 720p teste habe ich noch mehr dieses Extremszenario weil die CPU noch mehr beansprucht wird.

Der Optimierungsgrad eines Spiels ändert also für mich nur ob ich mir das Spiel kaufen werde und ob es bei der Abwägung des Spielspasses im Verhältnis zum Optimierungsgrad noch gut genug ist. Was bei BG3 der Fall war. Vor und nach Patch 5 habe ich Akt 3 gespielt und während es sich deutlich verbessert hat, ist es immernoch so dass sich die FPS massiv verschlechtert je weiter man ins Spiel kommt. Von Ende Akt 2 zu Anfang Akt 3 ist so eine Art Bruch bei dem es nun einen guten Performancesprung gibt dass die FPS wieder anhebt. Daher ist entweder Akt 2 Ende oder Akt 3 Vor dem Point of no Return genau die Zeit in der man nicht so tolle FPS hat wo die CPU einfach massiv ins schwitzen kommen kann. Dennoch will ich in diesen wenigen Stunden eine vernünftige Gaming Leistung haben.

Daher sind die für mich persönlich die relevantesten Punkte beim Kauf einer CPU. Was juckt mich ob ich im Average genug FPS habe. Mich juckt ob ich immer in den versch. Szenarien genug FPS oder Simulations habe. Meine reales Spielerlebnis ist das einzig wirklich Relevante für mich persönlich. Benchmarks sind nur eine Bubble die eine Gültigkeit innerhalb ihres Fehlbaren Rahmens haben. Mein Argument ist eben dass diese Bubble meiner persönlichen Meinung nach wesentlich mehr richtig worst case Szenarios gehen sollte als um den General Use Case. Da man sowieso schon 720p Tests macht um diese worst case Szenarien zu zeigen könnte man da halt noch einen oder zwei Schritte weiter in diese Richtung gehen.
 
blackiwid schrieb:
Die 7800x3d kostet 450-460 Euro, das heißt ca. 15 % Aufpreis zu den Straßenpreisen für die absolute Leistungsklasse echt fair, sicher ich hör schon den Einwand das die Preise erhöht wurden, aber ja für den besten (Gaming) Prozessor mit Abstand find ich das alles nicht so wild
blackiwid schrieb:
Nvidia als Beispiel verkauft rtx 4080 super für 1100 Euro für 2000 Euro das sind 80% Aufpreis bei ca. 30% mehr FPS bei UHD und 20% darunter.

Frosch zuerst im warmen Wasser und so. Ich wäre vorsichtig mit solchen Überlegungen und auch hat Nvidia ihre Mondpreise für die Leistungskronen nicht im heutigen Maße instantan gebracht, sondern sinngemäß "heranführend", bis es zum Otto-Normal wurde. Da die Rechnung für Nvidia auch so aufgeht, spricht aus deren Sicht absolut nichts dagegen, es so beizubehalten oder es noch weiter an die Spitze zu treiben, bis die Kurve dann doch anfängt nach unten zu verlaufen.

AMD ist in diesem Sinne auch kein Wohlfahrtsverein und möchte Geld verdienen. Je mehr der Kunde dann bereit ist für extravagante Leistung zu blechen, umso mehr werden sie auch sukzessive den Preis nach oben treiben und am Ende dürfen sich die Teilnehmer an diesem Prozess aber auch nicht beschweren.

Ja, momentan ist es noch im Rahmen bzw. nicht im "dramatischen" Ausmaß, wenngleich ich noch nie der Verteidiger davon war, dass jegliches % an Mehrleistung auch mindestens so viel % am Preis wachsen "darf", denn der eigentliche Erwerb eines neuen Produktes oder der Austausch des bisherigen ist bereits schon die vom Konsumenten erbrachte Leistung, während das Verkäuferseitige Argument nun mal das verbesserte Produkt selbst ist!

Wie dem auch sei; zukünftige Produkte und das Kaufverhalten der Konsumenten werden dann entscheiden, ob der CPU-Markt sich auch in eine GPU-Markt ähnliche Richtung bewegt. AMD als gewinnorientiertes Unternehmen hat sicherlich jedes Interesse daran, denn Zahlen entscheiden.
 
blackiwid schrieb:
Du hättest nichts von ner 350 Euro 9800X3D die würden dann lückenlos von Skalptern aufgekauft und würdest trotzdem dann 500-600 zahlen müssen...
350 Euro wäre auch übertrieben. 450 Euro wären dagegen schon realistisch und ich glaube nicht, dass Scalper bei den geringen Leistungszuwachs wirklich ein Problem sind.
Das ist halt auch eher die Kritik. Da kommt ein "neues" Produkt, das gegenüber dem Vorgänger kaum Mehrwert liefert. Das ist im Endeffekt genau derselbe Quark wie bei Intel, wo man von Generation zu Generation halt 10% mehr Leistung gegönnt hat.

Finde ich halt mager.

aldaric schrieb:
AMD profitiert 0,00 von hohen Kundenpreisen.
Natürlich hat auch AMD etwas von höheren Handelspreisen. Es hilft sicher bei den Verhandlungen der neuen Festpreise. :)
 
Ich frage mich wie der X3D-Cache-Die gestaltet worden ist. Der ist ja nun scheinbar so groß wie das CCD. Aber eigentlich muss der gar nicht so groß sein um 64 MB Cache zu haben?! Produziert man jetzt größere Dies, die am Rand "totes" Silizium haben? Oder muss der Cache-Die jetzt wirklich größer sein, weil man jetzt die Steuerlogik nicht in den CCD-Cache-Die implementiert hat, sondern in den Cache-Die selbst?


Ich habe übrigens 10 Seiten Kommentare gelesen und anstatt das mal einer auf die Technik eingeht, streiten sich die Leute ob 8 Prozent in Games und 15 Prozent in Anwendungen gut genug ist. Oh man.
 
  • Gefällt mir
Reaktionen: Volvo480 und ptr1337
@Dasher Für dich persönlich ist das auch vollkommen in Ordnung, mach ich ja auch so das ich mich an den Spielen orientiere welche für mich grafisch am besten (bezieht sich auf mich, nicht allgemein auslegen bitte^^) aussehen und mir am wichtigsten sind.^^

Hier geht es aber um eine allgemeine Bewertung der Leistung durch Benchmarks, und wenn dann durch schlechte Optimierung das Gesamt-Ergebnis verfälscht wird sollten solche Spiele meiner Meinung nach nicht in einer Gesamtbewertung berücksichtigt werden.^^
 
Convert schrieb:
Produziert man jetzt größere Dies, die am Rand "totes" Silizium haben?
Wenn der Cache-Die von den Abmaßen her kleiner als der CCD ist, dann kann AMD ja einfach am Rand extra Silicium-Stücke zum Auffüllen hin packen. Macht Intel auch.
 
@Krik Wenn die aber unter den Cores liegen, müssen da trotzdem die Signale zum Substrat durch. Das ist ja die Änderung, bei der noch unklar ist, wie AMD das eigentlich umgesetzt hat. Totes Silizium zum Auffüllen gab es bei Zen 3/4.
 
  • Gefällt mir
Reaktionen: Convert und Krik
derbe schrieb:
Warum werben die nicht damit? Ist bei mir völlig untergegangen. Das ist natürlich ein dicker bOOst. Interessant wäre ein Vergleich mit den alten x3D.
Die Zahlen sind nicht groß genug für die Marketingabteilung. Da zählt nur höher, weiter, schneller.
Und ein Großteil außerhalb der Nerdbubble kann mit "Min" oder "1%" FPS nichts anfangen.
Max oder durchschnittliche FPS sind zu 90% von der Grafikkarte abhängig und völlig variabel anhand der Grafikeinstellungen.
Aber versuch das mal dem typischen Gamer heutzutage zu erklären.
Es hat ja schon 4 CPU Generationen gedauert, bis der allgemeine DAU gemerkt hat, das im Desktop AMD eigentlich schneller ist.
 
Asghan schrieb:
der schlechteste von allen. Nur 6 Cores mit 3D Cache.
Entweder 9800X3D oder gleich 9950X3D.
Ist das gesichert dass der wieder nur 6 3D Kerne hat? Meinte mal gelesen zu haben dass es nicht mehr so ist
 
@stefan92x
Ich glaube, dass das extra Silicium tot ist und keine Leitungen hat und nicht Teil des Cache-Dies ist. Chips brauchen Monate zum produziert zu werden, die können es sich nicht leisten, Fläche ungenutzt zu lassen. Das wäre zu teuer.
Ergo müsste dann alles durch den Cache durch. 🤔
 
Gravlens schrieb:
Hier geht es aber um eine allgemeine Bewertung der Leistung durch Benchmarks, und wenn dann durch schlechte Optimierung das Gesamt-Ergebnis verfälscht wird
Was aber genau mein Punkt war. Wird doch eh verfälscht wenn man auf 720p testet. Weil darauf keiner spielt. Zusätzlich ist kein Spiel ist darauf optimiert in 720p optimal zu funktionieren. Nützlich sind die Benchmarks allemal ich sehe dein Argument aber nicht dass dies mehr Aussagekraft hätte als Spiele zu nehmen die eben noch mehr CPU last erzeugen. Ob die optimiert sind oder nicht spielt also keine große Rolle. Weil du wirst nicht immer nur optimierte Spiele spielen.

Daher zählt einzig und allein die potenzielle CPU Leistung. Das sollen die Benchmarks zeigen. Spiele die also mehr CPU Last erzeugen indem sie schlechter optimiert sind helfen also bei der Bewertung und dem aufdecken von Performancedefiziten. Insofern verfälschen Spiele die kaum CPU Last erzeugen wohl eher das Ergebnis als welche die sehr viel CPU Last erzeugen. Was nun also? Da drehen wir uns im Kreis. Das Argument kann ich halt genauso anders herum aufbauen ;)
 
Zurück
Oben