News Preis und Benchmarks: AMD stellt den Ryzen 7 9800X3D mit 104 MB Cache offiziell vor

Ich liebe es wie er seine drei Lieblingsspiele auflistet und dan Spiele wie Ashes of sinularity darin sind. Glaube das Spiel wird nicht für mehr als CPU Benchmarking verwendet:evillol:
 
  • Gefällt mir
Reaktionen: coxon
nursonefrage schrieb:
schau bitte in den cb test des 285k
Ich kenne den Test und ich weiß worauf du anspielst, spielt für mich aber keine Rolle, denn ich habe mich einfach nur über dieses Bild gefreut. ;)
 
Gravlens schrieb:
Und das hätte ja auch genau so auf Intel zutreffen können, das ist einfach eine Verzerrung, sonst nichts.
Ich muss hier noch etwas mehr differenzieren. Hier wird der Begriff Verzerrungen in mehreren Kontexten genutzt.

1. Bei BG3 ist das Thema dass das Spiel einfach hintenraus generell mehr CPU Last gefordert hat weil das Spiel Performancetechnisch nicht optimiert war. Weil es checks gab die nach Akt 2 nicht mehr relevant waren die aber immernoch gemacht wurden (Beispiel: Charakter wird von Wachen aus Akt 2 gesucht obwohl er in Akt 3 ist). Für mich ist absolut eindeutig dass ein Szenario dass mehr CPU last allgemein erzeugt immernoch besser ist als dies nicht zu tun für einen CPU Test. Von dem Standpunkt werde ich auch nicht abweichen. Tut mir leid. Wenn ich Performance messen will muss ich auch Szenarien nehmen die das maximal zeigen.

2. Cyberpunk ist eine Verzerrung im Sinne zwischen den CPU Herstellern. Da ist mal der eine mal der andere im Vorteil abhängig davon wie das Spiel jetzt je nach CPU Architektur skaliert. Das sieht man doch auch superschön an der Folie wie der Vorsprung zwischen 1% und 59% liegt für den 9800x3d vs 285k. Wenn man das jetzt aber zuende denkt dürfte man gar kein Spiel mehr benchmarken weil je nach Auswahl meines Benchmarkparkours ich immer eine inhärente Verzerrung zu Gunsten eines der beiden Hersteller habe. Weil am Schluss ist es mir gar nicht möglich zu bestimmen dass ich jetzt 50% Spiele pro Intel und 50% pro AMD habe. Das geht gar nicht weil ich ja dann auch die Vorsprünge einrechnen müsste. Wenn ich jetzt 5 Spiele mit 10% Vorteil für Intel hätte und 5 Spiele mit 20% Vorteil für AMD habe hätte ich wieder eine Verzerrung. Der Anspruch hier ist also absolut unmöglich zu erfüllen. Ist ja auch genau der Grund warum die Ergebnisse zwischen den Reviewern je nach Auswahl der Spiele eben so stark abweichen können.

Gravlens schrieb:
Dann kaufst du deshalb eine CPU für 100 Euro mehr und in einer Woche gibt es einen großen Fix und der große Vorteil ist futsch, das hat sich ja dann mal gelohnt. :freak:
Das ist Quatsch und das weisst du auch (hoffentlich). Wenn ich Performanceorientiert messe werde ich selbst trotz Verzerrungen dann die stärkste CPU haben. Du stellst es gerade so dar als würde man nur den Benchmark über Cyberpunk machen und danach die CPU auswählen. Man testet ja dennoch 10-20 Spiele und zieht darüber Rückschlüsse. Damit werden diese Ausreißer abgeflacht. Und wenn im Schnitt solche Verzerrungen dafür sorgen dass die CPUs eines bestimmten Herstellers oder die Core Anzahl so entscheidend für gute Performance sind weil die Spiele Hersteller nicht korrekt auf die Hardware optimieren ist das immernoch ein realerer Vergleich. Weil auf genau das werde ich als Spieler dann treffen.

Hypothetisches Extrembeispiel: Wenn jedes mal Spiele Releasen die die ersten Wochen bei Intel besser laufen und erst 4 Wochen nach Release für AMD fixed werden und ich wäre jetzt ein Käufer erster Stunde dann wäre Intel die bessere Wahl. Weil mein reales Spielgefühl ja nur innerhalb dieser Anfangszeit relevant wäre. Wenn ich Spiele aber immer 1 Jahr nach Release zocke dann wäre AMD wohl die bessere Wahl. Das ist halt hier genau die Krux. Es gibt Dinge die lassen sich in Benchmarks nur sehr schwer abbilden. Daher würde ich Herstellerbezogene Verzerrungen einfach so aufnehmen wie sie sind.

Man muss einfach nur genug Spiele testen um das Statistisch abzuflachen und nicht Spiele rausnehmen weil man glaubt diese bieten für einen einen zu großen Vorteil. Man kann ruhig bei einer Statistik Ausreißer markieren und bewerten. Aber man sollte sie dennoch zeigen und nicht von vornherein einfach gar nicht erst messen weil man glaubt es verzerre das Ergebnis. Durch diesen Userbias verfälscht man nämlich viel mehr.

Gravlens schrieb:
Das stimmt mit den 720p, aber für einen direkten Vergleich ist es die beste Möglichkeit das zu bewerten.^^

Für einen persönlich kann man das ja trotzdem einordnen, wenn jetzt CPU A genau so viel kostet wie CPU B dann nimmt man doch natürlich den der schneller in 720p ist, auch wenn man nicht in 720p spielt.^^

Ist jetzt natürlich ein überspitztes Beispiel aber ich hoffe das es verständlich ist was ich meine.^^
Jo ist schon klar ;)
 
  • Gefällt mir
Reaktionen: Redundanz
nuestra schrieb:
Der 9950x3d wird diesmal schneller werden als der 9800x3d
Man stelle sich vor, AMD macht den 12-Kerner gut, indem sie 2x 6-Kerne mit X3D verbauen. Und beim takt dann natürlich auch trumpfen können.

So, genug geträumt. war echt nett. ;-)
Ergänzung ()

derbe schrieb:
Du hast wohl nicht verstanden, was ich meine. Ich glaube, die meisten anderen schon. Es geht darum, dass, wenn jemand an der Spitze ist(AMD), der Enthusiasmus auch sehr schnell wieder nachlässt und man keine richtigen Updates(zweistellig) mehr bekommt. Ich habe nie behauptet, dass ich es selbst besser kann.
Man hat doch zweistellig in Anwendungen zugelegt. Das dort diese Generation der Fokus lag macht ja auch Sinn, oder?
 
  • Gefällt mir
Reaktionen: SweetOhm
Quidproquo77 schrieb:
Dafür in Spielen ne Granate.
Ja die X3ds sind schon echt nice in Spielen. Nur bringt es zumindest mir leider nicht viel.

Wenn ich mir meine Spiele anschaue, aber auch die meisten Benchmarks, dann gibt es im Moment halt entweder Spiele bei denen selbst uralte CPUs locker 120+ fps stemmen oder eben welche bei denen selbst die X3ds nicht mal annähernd an die 120 fps rankommen. Sodas der 9800X3d da auch nicht wirklich was bringen wird.
Gerade da hätte ich mir halt gewünscht das sich das etwas bessert. Natürlich hängt es auch stark an der jeweiligen Software. Aber frustrierend ist es trotzdem.

Denn so ist es quasi komplett egal welche CPU ich nutze. Da macht zb auch ein 265k vs ein 9950X3d keinen wirklichen Unterschied. Weil in den meisten Spielen bekomme ich eh die 120/144 fps. Und beim Rest macht der Unterschied zwischen 50 und 60 fps dann auch nichts mehr aus.

Klar ist es dann auch praktisch, muss man mindestens 5 Jahre kein Geld fürs aufrüsten ausgeben. Aber der Spaß am Basteln und Rumprobieren bleibt da irgendwie auf der Strecke.

Dazu noch immer höhere Preise für immer weniger Fortschritt versauen einem so langsam den Spaß am Hobby.
 
  • Gefällt mir
Reaktionen: TheHille
Hm der 7800x3d war zu stark, wird wohl noch 2 Generationen dauern (11800x3d), dass sich ein Umstieg lohnt.
Würde eigentlich gerne basteln und OC betreiben etc.. Aber auch hier wirds wohl einfach ein - curve optimizer und gut ist,rest regelt der Turbo.
 
Dome87 schrieb:
Er sprach aber im Zusammenhang von fehlender Konkurrenz. Wer in Erwägung zieht von einem 7800X3D zu einem 9800X3D zu wechseln, tut dies vermutlich nicht wegen Intels schwachem (in Spielen) Arrow Lake sondern hätte dies so oder so getan.
Warum gehst du davon aus, dass nur 7800X3D Besitzer den 9800X3D kaufen würden?

Jemand mit nem 3700X oder nem 9900K kann sich beim Plattformwechsel dann eben für 8% Mehrleistung bei 15-20% höherem Preis ggü dem 7800X3D entscheiden.

Und auch korrekt ist, dass es nicht mal 8% hätten sein müssen, da man so oder so mit beiden X3Ds schneller als Intel ist
 
Wenn Intel jetzt beim Gaming noch irgendeine Chance haben will, sollten sie schleunigst den größeren der "Filler Tiles" in Arrow Lake mit einer Cache Kachel ersetzen (SLC oder L4). Dann bliebe es wenigstens interessant. Ansonsten bleibt Arrow Lake bei ihnen liegen.
 
K3ks schrieb:
OC? Wir haben 2024... Und wenn der Prügel 5GHz AllCore laufen sollte, dann wären 500MHz jetzt auch nichts, zumindest ich sehe das so.
Atkatla schrieb:
Dann studier z.B. Hochfrequenztechnik mit Anwendung auf sehr kleinen Leiterbahnen und dann wirst du das anders sehen. Es macht einen sehr großen Unterschied, in welchem Frequenzbereich man sich bewegt. Je höher die Frequenz, deso schwerer da noch was rauszuholen.
Ich sehe den Wiederspruch in euren beiden Aussagen nicht.. IM Grunde lässt sich beides mit folgendem zusammenfassen nur das Argument kommt aus einem anderen Blickwinkel...
Atkatla schrieb:
Die goldene OC-Ära ist vorbei.
 
Robo-Man schrieb:
Und genau das ist der Punkt. Wegen solchen Denkweisen können es sich die Hersteller weiter erlauben einfach dreist an der Preisschraube zu drehen.
Der 78x3d kommt von 350€ bzw. Sogar schon weniger, und nicht die pseudo 450€ weil die Produktion runter gefahren wurde.

Setzt die 350€ gegen die eventuellen 550€, und dann erscheinen die 8% im Schnitt schon lachhaft.
Lachhaft ist nur die Argumentation Marktpreis mit UVP zu vergleichen. Äpfel und Birnen.
Probier das doch mal mit der UVP.
 
Tornavida schrieb:
Fortschrittlich hätte ich es gefunden wenn die CPU preislich dort eingestiegen wäre wo der Vorgänger seinen Tiefstand hatte .

Wie bitte was?

Ihr wisst wie der Markt funktioniert oder? AMD verkauft zu Festpreisen. Die Preise des Markts interessieren AMD nur bedingt, da sie weder mehr noch weniger verdienen wenn die Preise rauf oder runter gehen.

Und warum sollte ich als AMD das neue Teil derart verramschen für die Händler, damit diese nur ~350 EUR verlangen.
 
  • Gefällt mir
Reaktionen: srz54, SweetOhm, Redundanz und eine weitere Person
@Taxxor

ICH gehe von gar nichts aus sondern habe nur aufgegriffen was nuestra gesagt hatte. Bitte zitiere doch ihn. Mir musst du das nicht erklären.
 
Dasher schrieb:
1. Bei BG3 ist das Thema dass das Spiel einfach hintenraus generell mehr CPU Last gefordert hat weil das Spiel Performancetechnisch nicht optimiert war.
Ich kann aus meiner eigenen Erfahrung sagen, es war viel schlimmer als das.^^ Ich hatte als ich Akt 3 begonnen hatte zuvor SMT deaktiviert, nur die Berechnung jedes Gegners hat für eine Runde so lange gedauert das ich dachte es wäre kein Spiel sondern Cinebench. :D

Dann hatte ich vollkommen zufällig in einer ingame Zwischensequenz (egal ob mit oder ohne SMT) Standbilder, da passierte aber außer ein paar Animationen überhaupt nichts was dies gerechtfertigt hätte.^^

Ich bin mehr sehr sicher das es nicht ein einzelnes Problem war und ich konnte letztgenanntes reproduzieren, die Aussetzer waren immer an den exakt gleichen Stellen und es gab grafisch nichts was dies gerechtfertigt hätte.^^
Dasher schrieb:
Man testet ja dennoch 10-20 Spiele und zieht darüber Rückschlüsse.
Nur 10-20 Spiele aus über ein vielfaches an Spielen die für einen Benchmark in Frage kommen könnten.^^

Da will ich mit Sicherheit nicht die Spiele drin haben die am schlechtesten optimiert sind solange es genug gibt die es sind oder die zumindest nach Patches optimiert wurden.^^
 
@Dome87 er hat doch nur auf einen Kommentar geantwortet, der sagte dass 8% Mehrleistung arg wenig sind.

Und darauf völlig korrekt gesagt, dass es auch weniger hätte sein können, weil man eben auch jetzt schon vor der Konkurrenz ist.

DU hast doch dann von 7800X3D Besitzern angefangen, wovon er gar nicht gesprochen hat.
Deshalb hab ich dich zitiert und nicht ihn
 
Wenn ich jetzt einen 7800X3D hätte würde mir der am Ar.... vorbei gehen, aber für mich als Besitzer des 5800X3D werd ich mal hin schauen. Da Intel mich bei den neuen Cpu´s mehr oder weniger enttäuscht hat werd ich mich wieder bei AMD umschauen.
 
  • Gefällt mir
Reaktionen: SweetOhm
@Taxxor natürlich hat er von 7800X3D-Bseitzern gesprochen, oder worauf beziehen sich die 8% Mehrleistung? Die fehlende Konkurrenz ist doch den meisten davon völlig egal. Die hätten entweder so oder so trotz "nur" 8% gewechselt oder hatten es ohnehin nicht vor.
 
Dome87 schrieb:
natürlich hat er von 7800X3D-Bseitzern gesprochen, oder worauf beziehen sich die 8% Mehrleistung?
Die 8% Mehrleistung beziehen sich natürlich auf den 7800X3D, aber es geht doch darum, wie gut die CPU aufgestellt ist, wenn man nur einen relativ kleinen Sprung macht.

Sprich, wer sollte sie kaufen?
Und da gilt eben, auch 3% Mehrleistung wären okay weil man sowieso mit dem 7800X3D schon die aktuell schnellste Gaming CPU hat und damit jeder der sich ne neue Gaming CPU holen möchte, mit dem 9800X3D eben dann die beste Gaming CPU bekommt.

Dass jemand vom 7800X3D auf den 9800X3D wechseln wollen würde, auch wenn es weniger als 8% sind(oder generell auch bei 8%), steht nicht in seinem Post
 
@Taxxor auch 3% Mehrleistung wären okay wofür? Für 7800X3D-Besitzer? Es gibt da in meinen Augen keinen Zusammenhang zu fehlender Konkurrenz. 3% wären immer zu wenig für eine neue Generation. Bei Intel wie bei AMD.

Nur weil der 7800X3D schon schneller als jede CPU der Konkurrenz ist wäre das noch lange kein Freifahrtschein für nur 3% Mehrleistung beim Nachfolger. Wenn du das anders siehst habe ich mich bisher stark in dir geirrt ;)
 
Dome87 schrieb:
auch 3% Mehrleistung wären okay wofür? Für 7800X3d-Besitzer?
Nein eben nicht, du bist der einzige der von 7800X3D Besitzern schreibt.

Für jeden, der Ende 2024 ne neue Gaming CPU sucht und die beste möchte.
Der bekäme mit dem 9800X3D genau das, egal ob er 3%, 8% oder 15% schneller als ein 7800X3D ist.

Hätte Arrow Lake nun den 7800X3D eingeholt, sähe das halt anders aus und der 9800X3D hätte sich stärker absetzen müssen, um attraktiv zu sein.
 
  • Gefällt mir
Reaktionen: SweetOhm
Zurück
Oben