News Ryzen-9000-Gerüchte: Höhere L1/L2-Bandbreite bestätigt, X3D-Frühstart erhofft

Philste schrieb:
"Is it the fastest in gaming? It's faster than the competition in our tests. X3D is still the king of the hill, but by a much smaller margin than typically between X3D and non-X3D,
AMD weiß natürlich, dass ihre CPUs nicht "faster than the competition" sein können, wenn sie selber langsamer sind als die X3D Prozessoren. AMD sagte auf der Folie im Schnitt 14900K +13%. Das ist nach der Aussage hinfällig. Das war ja auch der etwas komische Teil der Folien, wie auch dieser hier.
Philste schrieb:
Woligroski responded. "So a 7800X3D would, yes, be faster than 9700X, but maybe not by as much as you would expect."
Am Ende irgendwo im Bereich zwischen 0 und 10%, wahrscheinlich 5-6.
 
Dass AMD mit den neuen X3D wahrscheinlich eine Steigerung zu den 7000er X3Ds hinlegen wird, ist klar...nur bin ich auf Intel gespannt, auch wenn Intel mit den aktuellen CPUs Probleme bezüglich Effizienz hat. Aber Gerüchten nach, soll die Effizienz bei den kommenden Intel CPUs stark verbessert werden und wenn eine Intel CPU es mit den neuen X3Ds aufnehmen kann oder sogar etwas besser ist, werd ich vielleicht wieder zu Intel greifen. Aber nur vielleicht...X3D hört sich einfach so schön an :p
 
Quidproquo77 schrieb:
Das war ein fiktives Beispiel um zu erklären
Um auf der Basis von falschen Werten die eigene Meinung zu bestätigen. Eine Meinung, die in diesen Beispiel mit falschen Werten und einer fiktiven Konstellation sagen will, 14900K klasse, 7800X3D schlecht und überhaupt höhere Leistungsaufnahme im Leerlauf.

Damit ich nicht so erscheine wie du erscheinst, folgendes.
AMD ist nur deswegen heute da wo AMD ist, weil Intel auf ganzer Linie bei der 10nm Fertigung versagt hat. Und meine Unterstellung dazu, obendrein auch noch richtig arrogant gemeint haben, dass man trotzdem der CPU Gott ist.
Intel hatte keine Probleme eine gelungene CPU Architektur zu entwickeln, sondern hat bei der eigenen Fertigung versagt. Aus meiner Sicht hat Intel dies auch regelrecht verdient.
Intel ist die Marktmacht und AMD könnte sich nicht so einen Scheiß leisten, Raptor 13 als 14 zu verkaufen, weil man ein Jahr nichts anderes bieten kann. Also Raphael mit anderer Nummerierung als neues Produkt verkaufen.

Wenn Intel die eigene Fertigung wieder in den Griff bekommt, sehe ich schwere Zeiten auf AMD zu kommen.
Leute die sich heute wünschen, dass es wieder eine Intel Dominanz gibt, kann ich nur wünschen, hoffentlich könnt ihr euch dann nicht mehr euer Hobby leisten. In jüngster Vergangenheit, wenn auch im Vergleich zu Intel nur eine mini Zeit, konnten wir alle erleben was Dominanz für Preise bot, Stichwort Zen 3.
 
  • Gefällt mir
Reaktionen: Icke-ffm, SweetOhm und deathday
Alesis schrieb:
Um auf der Basis von falschen Werten die eigene Meinung zu bestätigen. Eine Meinung, die in diesen Beispiel mit falschen Werten und einer fiktiven Konstellation sagen will, 14900K klasse, 7800X3D schlecht und überhaupt höhere Leistungsaufnahme im Leerlauf.
Welche eigene Meinung von wem? Das hat doch so überhaupt niemand gesagt.
Ursprünglich ging es ja rein um Preis und Leistung und wenn ich beispielsweise für gut 300 Euro einen 13700KF gegenüber einem 7800X3D bekomme, macht es Sinn neben Gaming noch weitere Dinge, wie etwa Anwendungen zu betrachten.
Alesis schrieb:
AMD ist nur deswegen heute da wo AMD ist, weil Intel auf ganzer Linie bei der 10nm Fertigung versagt hat.
Das würde ich so derbe eben nicht sagen, wenn man zwischen Zen4 und Raptor Lake in die Details geht.
Der Prozess schlägt sich ganz gut, die CPUs sind lediglich überzüchtet. Hätte AMD den 3D Cache nicht, wäre die Sache sogar recht ausgeglichen bei verschiedenen TDPs.
 
Zuletzt bearbeitet:
Volker schrieb:
Unterm Strich doch aber exakt so wie erwartet: X3D bleibt schnellster. Bis neuer X3D kommt.
X3D ist für AMD irgendwie Fluch und Segen zugleich. Segen, da man sie brauch um nicht von Intel in Sachen Gaming düpiert zu werden, Fluch weil sie die eigenen Produkte düpieren. Ich denke die ZEN5 Verkäufer werden bis zum Erscheinen der 3D wieder extrem meh sein.

Ich denke AMD schaut sich das noch einmal an und dann gibt es in der nächsten GEN entweder nur noch 3D (vielleicht noch das Topmodell ohne 3D für maximalen Multithread) oder durch das neue Packaging können die Kerne über mehrere CCDs auf den L3 zugreifen und X3D wird abgeschafft.
 
Alesis schrieb:
Leute die sich heute wünschen, dass es wieder eine Intel Dominanz gibt, kann ich nur wünschen, hoffentlich könnt ihr euch dann nicht mehr euer Hobby leisten.
Ok, wer wünscht sich denn konkret die Dominanz eines Unternehmens? Wenn du den Vorwurf so machst, müsstest du doch auch konkrete Aussagen dazu zitieren können, oder?;)
 
Quidproquo77 schrieb:
AMD sagte auf der Folie im Schnitt 14900K +13%. Das ist nach der Aussage hinfällig.
Oder AMD geht echt davon aus, dass ein 7950X3D ~15% vor nem 14900K liegt wenn Intel das Baseline Profil verwendet
Ergänzung ()

Alesis schrieb:
Um auf der Basis von falschen Werten die eigene Meinung zu bestätigen. Eine Meinung, die in diesen Beispiel mit falschen Werten und einer fiktiven Konstellation sagen will, 14900K klasse, 7800X3D schlecht
Hast du mal in meine Signatur geschaut was für eine CPU ich verbaut habe?
Ich hätte auch CPU A und CPU B schreiben können.

Davon ab bekommt der 7800X3D in Anwendungen seine Effizienz ja auch nur daher, dass er im Takt limitiert ist.
Während Raptor Lake durch die ab Werk unnötig hohe TDP runtergezogen wird.

https://www.techpowerup.com/review/...ke-tested-at-power-limits-down-to-35-w/2.html

Selbst auf 65W TDP limitiert, wo er real 45W im Schnitt verbraucht hat, ist ein 14900K in Anwendungen noch leicht schneller als ein 7800X3D, der bei 49W liegt.

Bei 125W TDP und realen 91W liegt er in der Performance ca da wo ein 7950X3D bei 79W ist.

Jeder, der also nicht einfach die CPUs einbaut und mit den Standard Einstellungen seines Mainboards betreibt, sondern sich ein paar Minuten Zeit nimmt, bekommt auch bei Intel eine vergleichbare Effizienz wie die der X3D Modelle hin(abseits von Gaming wohlgemerkt)
 
Zuletzt bearbeitet:
Philste schrieb:
Ich denke AMD schaut sich das noch einmal an und dann gibt es in der nächsten GEN entweder nur noch 3D (vielleicht noch das Topmodell ohne 3D für maximalen Multithread) oder durch das neue Packaging können die Kerne über mehrere CCDs auf den L3 zugreifen und X3D wird abgeschafft.
Und mit welcher Latenz soll das funktionieren?

Ein L3-Cache mit 92 MByte auf dem CCD hätte AMD nicht realisieren können, da die Verschlechterung der Latenzen den Zugewinn aus der Größe des Caches mehr als egalisiert hätten.

Nur durch Hybrid Bonding und 3D-Stacking kann der das L3-Cache-Chiplet seinen Nutzen entfalten.
 
  • Gefällt mir
Reaktionen: peru3232 und SweetOhm
ETI1120 schrieb:
Und mit welcher Latenz soll das funktionieren?

ETI1120 schrieb:
Nur durch Hybrid Bonding und 3D-Stacking kann der das L3-Cache-Chiplet seinen Nutzen entfalten.
Dass man nicht auf das Niveau von 3D Cache kommt ist mir klar. Aber vielleicht reicht das ZEN6 Packaging um den Zugriff auf den L3 über mehrere CCDs mit akzeptabler Latenz und Bandbreite zu ermöglichen. Dadurch wäre dann der Efffekt vom 3D Cache kleiner, wenn Vanilla ZEN6 schon auf 64MB L3 Zugriff hat. Vielleicht so klein, dass 3D sich nicht mehr lohnt. Ist aber eine Spekulation.
 
Volker schrieb:
Der 14700K wischt dir dafür in jeder Anwendung den Boden mit der AMD-CPU mit bis zu 70 Prozent mehr Leistung:
Dann schau doch bitte noch in die Tabelle, wie viel Strom "Dein" toller INTEL dabei verballert ...
Danke.
Ergänzung ()

ETI1120 schrieb:
Deshalb finde ich es schon interessant, dass Intel 2024 mit N3 und nicht mit N3E fertigen lässt.
Na weil´s ja eh gekauft wird und so mehr Marge hast ... :lol:
Ergänzung ()

Taxxor schrieb:
Wichtiger wäre "Energie pro Aufgabe".

Wenn ein 14900K z.B. beim Rendern eines Videos 200W zieht und ein 7800X3D nur 120W, der 14900K aber in 30 Minuten fertig ist, während der 7800X3D 60 Minuten benötigt, dann hast du insgesamt mit dem 14900K gespart.
Korrekt und einleuchtend (die Milchmädchenrechnung), aber ist das denn auch so ?!?
Und kannst Du die Behauptung (30 vs. 60 Minuten) auch belegen oder sind wir wieder einmal bei wünsch Dir was ?
Ergänzung ()

Volker schrieb:
... zumal Intel im Idle, was die meiste Zeit am PC ist
Aha, Du kaufst Dir also einen INTEL, weil DU die meiste Zeit idlest und dabei sparst !
Großes Kino :freaky:

p.s. darf ich das/Dein Zitat in meine Signatur aufnehmen ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm
SweetOhm schrieb:
Dann schau doch bitte noch in die Tabelle, wie viel Strom "Dein" toller INTEL dabei verballert ...
Danke.
Der Stromverbrauch ändert nichts daran dass die CPU eben schneller ist im Multicore.
Reibst du den Besitzern von Sportwagen mit 400PS auch unter die Nase dass ein 60PS Polo doch so viel sparsamer wäre?

Den Stromverbrauch als Totschlagargument für alles herzunehmen ist doch nicht zielführend.
 
SweetOhm schrieb:
Na weil´s ja eh gekauft wird und so mehr Marge hast ... :lol:
N3E hat weniger EUV Masken als N3, also wird N3E eher billiger sein.
Ergänzung ()

Gsonz schrieb:
Den Stromverbrauch als Totschlagargument für alles herzunehmen ist doch nicht zielführend.
Das einzige Marktsegment bei dem der Stromverbrauch niemand interessiert sind die Desktops.

In allen anderen Marktsegmenten ist die Effizienz das Maß aller Dinge.
 
  • Gefällt mir
Reaktionen: SweetOhm
Philste schrieb:
Dadurch wäre dann der Efffekt vom 3D Cache kleiner, wenn Vanilla ZEN6 schon auf 64MB L3 Zugriff hat. Vielleicht so klein, dass 3D sich nicht mehr lohnt. Ist aber eine Spekulation.
Ich wäre nicht überrascht, wenn wir uns mit Zen 6 dem Aufbau nähern würden, den MI300 schon heute hat. Das bedeutet, ein IO/Cache-Die unter den CCD.
 
Gsonz schrieb:
Reibst du den Besitzern von Sportwagen mit 400PS auch unter die Nase dass ein 60PS Polo doch so viel sparsamer wäre?
Du weißt schon, dass ein jeder Vergleich hinkt :p
Gsonz schrieb:
Den Stromverbrauch als Totschlagargument für alles herzunehmen ist doch nicht zielführend.
Das machen doch aber die NV Besitzer/Eigentümer (jetzt) eigentlich immer ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm
Das ist natürlich ausgeschlossen.

stefan92x schrieb:
Ich wäre nicht überrascht, wenn wir uns mit Zen 6 dem Aufbau nähern würden, den MI300 schon heute hat. Das bedeutet, ein IO/Cache-Die unter den CCD.
Was für den Zen 6 in der Gerüchteküche genannt wird ist der Wechsel vom Substrat auf Fanout.

Das dürfte auch die Latenz zwischen den CCDs verbessern, aber sie dürfte trotzdem weit über den Latenzen im CCD liegen. Auch die Verbindungen über Fanout benötigen SERDES.
 
  • Gefällt mir
Reaktionen: SweetOhm
SweetOhm schrieb:
aber ist das denn auch so ?!?
Nein, ist es nicht, deshalb hab ich auch ein "wenn" und ein "z.B." davor geschrieben, keine Ahnung wie ich es noch klarer hätte machen sollen, dass das fiktive Zahlen sind(wobei die Zeitangaben, die du fett hervorgehoben hast, schon so hinkommen, der 14900K ist laut Test etwas mehr als doppelt so schnell in Multicore Anwendungen)...

Deine Posts triefen nur wieder von Vorwürfen von Lagerdenken, ggü Volker genauso und ich bin mir auch relativ sicher, dass du nicht auf meinem Post eingegangen wärst, wenn ich dem 7800X3D 120W und dem 14900K 250W gegeben hätte, sodass die Zahlen zwar trotzdem falsch wären(deutlich zu hoher Verbrauch für den 7800X3D), aber immerhin Intel bei meinem fiktiven Beispiel der schlechtere gewesen wäre(was ich tatsächlich irgendwann auch schon mal so herum gebracht hatte als ich Wh pro Aufgabe vs W während Aufgabe erklärt hatte)
 
Zuletzt bearbeitet:
Aktuell sieht es nach anscheinend verlangsamenden Agesa Updates seitens AMD bei PCGH so aus. Verwunderlich auch, dass die Sicherheitslücken ,die diese Updates erfordert haben gefühlt gar nicht gross an die Glocke gehängt wurden.

Screenshot 2024-06-12 063812.png
 
Das da keiner drauf hinweist stimmt so ja nicht:
https://www.computerbase.de/2024-02...heitsluecken-in-amd-cpus-und-intel-produkten/



Gilt letztlich halt für alle CPUs aus beiden Lagern. Darauf weisen wir schon seit Monaten hin, aber interessiert ja auch nicht :D
https://www.computerbase.de/2023-10...t_leistungsrelevante_auffaelligkeiten_im_test
https://www.computerbase.de/2024-02...ates_fressen_an_der_cpuleistung_alter_modelle

Dein System wird im Laufe der Zeit immer langsamer, so ist es. Das ist Windows, Sicherheitsupdates usw. AMD hatte ja auch einiges zu fixen zuletzt, ich glaub aber PCGH überdramatisiert hier, die Drops sind viel zus tark und riechen nach fehlerhaftem BIOS vom Board. Vor allem sieht es eher nicht so aus als wurden Intel-CPUs nun mit Base Profil getestet oder? Wenn ich sehe das Gigabyte es selbst mit dem letzten BIOS von dieser Woche immer noch nicht geschafft hat das sauber umzusetzen ... vieles ist halt Flickschustern und das BIOS bzw. die Firma dahinter macht extrem viel aus.
 
  • Gefällt mir
Reaktionen: SweetOhm und LukS
ETI1120 schrieb:
Das dürfte auch die Latenz zwischen den CCDs verbessern, aber sie dürfte trotzdem weit über den Latenzen im CCD liegen. Auch die Verbindungen über Fanout benötigen SERDES.
Kriegt man die nicht breit genug so das man einen Multiplexer benötigt?
Ergänzung ()

ETI1120 schrieb:
Die Margen bei den Client CPUs von AMD sind schlecht. IMO sind die niedrigen Preise der X3D ein wichtiger Faktor dafür.
Quelle?
Ergänzung ()

Volker schrieb:
Aber bei Apps ist Zeit immer entscheidend mit dabei, zumal Intel im Idle, was die meiste Zeit am PC ist, ja auch sparsamer ist als AMD. Also verzwickte Situation mit vielen Variablen, die man berücksichtigen muss.
Gibt es eigentlich belastbare und vergleichbare Messungen bzgl. Idle Verbrauch?
 
  • Gefällt mir
Reaktionen: SweetOhm
foofoobar schrieb:
So gut wie jede Quartalszahlen der letzten ~2 Jahre bzw ungefähr seit Alder Lake draußen ist.

Mit den drastisch gesteigerten Mobile CPU Verkäufen hat man es in Q1 diesen Jahres zumindest mal geschafft, das Client Geschäft zu einem Nullsummengeschäft zu machen, davor hat die Sparte für 2 Jahre quasi permanent Verlust gemacht.
 
Zurück
Oben