Wenn die wieder nur nen 8Kerner als 3DVCache Version bringen können sie den behalten. Diesmal erwarte ich auch wenigstens den 12Kerner in dieser Ausführung. Nicht wie bei der 5000Gen.zig*zag schrieb:In Sachen Games hat sich AMD mit dem 5800X3D selbst vernichtet. Da werden die Preise der 7000er rasch sinken. Holy Moly das kam unerwartet!
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Gaming-Benchmarks: Ryzen 9 7950X und Ryzen 7 7700X vs. 5950X und 12900KS
- Ersteller Wolfgang
- Erstellt am
- Zum Test: Gaming-Benchmarks: Ryzen 9 7950X und Ryzen 7 7700X vs. 5950X und 12900KS
- Registriert
- Mai 2011
- Beiträge
- 21.267
Die Taktgrenze war aber nunmal technisch bedingt und so wäre auch ein 5900X3D und ein 5950X3D nur bei 4.5GHz gelandet.Dome87 schrieb:Sehe ich anders. In der Theorie hätten die größeren X3D auch einen wesentlichen höheren Takt bekommen müssen und damit eben genau die größte Schwachstelle des 5800X3D ausgebügelt.
Daher ist der Grund auch ganz einfach und genau der, den auch AMD kommuniziert hat: Es hätte sich nicht gelohnt, weil der Cache fast nur für Games gut ist und man hier zwischen 5800X und 5950X sowieso keine großen Unterschiede hatte, also hat man ihn auf die dort verbreitetste CPU gepackt und musste nur ein Cache Chiplet statt 2 pro CPU verwenden um auf die gleiche Gaming Leistung zu kommen.
Tornavida
Rear Admiral
- Registriert
- Okt. 2020
- Beiträge
- 5.531
Aus Gamersicht eher eine enttäuschende Vorstellung und ein guter Beweis, dass AMD als gewinnorientiertes Unternehmen nicht anders tickt/ticken werden wird als Intel sobald sich die Gelegenheit und die Fakten dies zulassen. Jetzt wissen wir warum a) der 5800x3d teuer ist und b) es keine andere Varianten gibt.
Hoffe diesmal bekommen sie es besser hin mit dem Bios und nicht wieder eine Banane die beim Kunden reift.
Brauchen tut man es eh nicht wenn man eine halbwegs aktuelle CPU hat und der Fokus auf Gaming ist.Für Neueinsteiger durchaus eine Option mit dem Hintergrund die Plattform lange nutzen zu können .
Hoffe diesmal bekommen sie es besser hin mit dem Bios und nicht wieder eine Banane die beim Kunden reift.
Brauchen tut man es eh nicht wenn man eine halbwegs aktuelle CPU hat und der Fokus auf Gaming ist.Für Neueinsteiger durchaus eine Option mit dem Hintergrund die Plattform lange nutzen zu können .
Chilisidian
Lt. Commander
- Registriert
- Dez. 2019
- Beiträge
- 1.722
Als Gamer schon ziemlich enttäuschend. Da kann man ja eigentlich nur auf die 3D warten, die ja im bereits im Januar kommen sollen laut aktuellem Leak gelesen auf Hardwareluxx. Raptor Lake hat für mich zwei Nachteile: 1. Intel kann einfach nicht effizient, geht mir hier aber weniger um die Stromkosten als mehr um die Wärme und unkomplizierte Kühlung. 2. Intels Plattform ist nach Raptor Lake am Ende, d.h. Zukunftssicherheit = 0.
Dann heißt es also auf Januar warten, dann sind die 650er Boards auch gut verfügbar und zwischendurch die GPU aufrüsten.
Dann heißt es also auf Januar warten, dann sind die 650er Boards auch gut verfügbar und zwischendurch die GPU aufrüsten.
Banned
Admiral
- Registriert
- Sep. 2014
- Beiträge
- 9.942
Eigentlich geile CPUs, eigentlich.
Denn ich finde den Idle-Verbrauch des 7700X wirklich inakzeptabel (beim 7950X ist er auch unschön, geht in Anbetracht der Gesamtleistungsfähigkeit der CPU aber noch klar). Aber dass der 7700X hier knapp 20W über nem 12900K liegt, ist schon übel, finde ich.
Mir ist auch nicht ganz nachvollziehbar, warum man für den Verbrauchstest in Spielen den 12900KS als Gegenspieler genommen hat. Das ist einfach ne dämliche CPU, da bis zum Letzten aufgebohrt und deshalb brutal ineffizient. Beim 12900K hingegen lagen die Werte im Test vom November letzten Jahres bei 109/118W.
Das ist dann schon ne andere Nummer und ich Frage mich, ob der 12900K trotz des Aufpreises nicht für die meisten die bessere CPU ist.
Reine Spieler würden eh den 5800X3D wählen. Somit ist der 7700X ziemlich überflüssig in meinen Augen.
Dass Intel bei MC-Anwendungen kein Land mehr sieht, ist ja nicht erst seit heute so, und der 7950X ist auf jeden Fall ein krasses Teil (für die, die ihn wirklich nutzen können).
Denn ich finde den Idle-Verbrauch des 7700X wirklich inakzeptabel (beim 7950X ist er auch unschön, geht in Anbetracht der Gesamtleistungsfähigkeit der CPU aber noch klar). Aber dass der 7700X hier knapp 20W über nem 12900K liegt, ist schon übel, finde ich.
Mir ist auch nicht ganz nachvollziehbar, warum man für den Verbrauchstest in Spielen den 12900KS als Gegenspieler genommen hat. Das ist einfach ne dämliche CPU, da bis zum Letzten aufgebohrt und deshalb brutal ineffizient. Beim 12900K hingegen lagen die Werte im Test vom November letzten Jahres bei 109/118W.
Das ist dann schon ne andere Nummer und ich Frage mich, ob der 12900K trotz des Aufpreises nicht für die meisten die bessere CPU ist.
Reine Spieler würden eh den 5800X3D wählen. Somit ist der 7700X ziemlich überflüssig in meinen Augen.
Dass Intel bei MC-Anwendungen kein Land mehr sieht, ist ja nicht erst seit heute so, und der 7950X ist auf jeden Fall ein krasses Teil (für die, die ihn wirklich nutzen können).
Syrato
Rear Admiral
- Registriert
- Juni 2012
- Beiträge
- 5.984
Solche die mehr als 8 Kerne möchten, wie ich!owned139 schrieb:Gewinnmaximierung. Welcher Gamer kauft noch einen 7900X oder 7950X, wenn die 3D Varianten der 5000er Reihe schneller ist?
- Registriert
- Mai 2011
- Beiträge
- 21.267
Exakt. Siehst du ja beim IPC Vergleich. Ein 5800X3D mit 4.4GHz ist knapp 30% schneller als ein 5800X mit 4.4Ghz und immer noch 17% schneller als ein 7950X mit 4.4Ghz.nyxster schrieb:Wie kommts, dass ein 7950x mit teilweise 5.7ghz nicht gegen einen 4.40 ghz 5800X3D ankommt? Liegt das nur am Cache?
Um diese 17% Unterschied in Games rein über Takt rauszuholen, müsste man schon ~30% höher takten(Takt skaliert nach oben rau in spielen generell ziemlich mies), aber die 5.5Ghz die er in Games macht, sind halt nur 25%.
Zuletzt bearbeitet:
- Registriert
- Juni 2006
- Beiträge
- 44.444
Ja, der Cache hält einige Berechnungen vor, die nicht ständig erneut abgegriffen werden müssen. (So habe ich es verstanden)nyxster schrieb:Liegt das nur am Cache?
Für mich sieht das nach Messungenauigkeit aus. Um nicht zu sagen GPU-Limit - da möchte ich mich aber nicht festlegen. Darüber kann man reden, wenn die RTX4090 gemessen wird.Tobi-S. schrieb:Im Gaming ist der 12900K und 5800 3D weiterhin vorn.
Den Cache hätte man pro CCX unterbringen müssen - mal rein technisch, aber auch physisch.Dome87 schrieb:Jetzt wissen wir auch, warum ein 5900X3D oder gar 5950X3D aus Sicht von AMD keinen Sinn machte.
Die Leute hätten es bezahlen müssen. Unter 700€ wäre da bestimmt wenig gegangen.
@Taxxor
Ich sagte ja auch "in der Theorie". Und in genau dieser fehlten dem 5800X3D 2-4 Kerne und 300-400MHz Takt, um "perfekt" zu sein.
Hätte es eine solche CPU gegeben, wären die 7000er obsolet. Also kommuniziert man halt, dass nicht mehr als 4.5GHz gingen. Die Wahrheit ist wohl eher, dass es sich zu dem Zeitpunkt nicht lohnte, mehr Geld in die Forschung und Entwicklung eines höher taktbaren 3D-Caches zu investieren.
Ich sagte ja auch "in der Theorie". Und in genau dieser fehlten dem 5800X3D 2-4 Kerne und 300-400MHz Takt, um "perfekt" zu sein.
Hätte es eine solche CPU gegeben, wären die 7000er obsolet. Also kommuniziert man halt, dass nicht mehr als 4.5GHz gingen. Die Wahrheit ist wohl eher, dass es sich zu dem Zeitpunkt nicht lohnte, mehr Geld in die Forschung und Entwicklung eines höher taktbaren 3D-Caches zu investieren.
bigdaniel
DAN-Cases Support
- Registriert
- Apr. 2005
- Beiträge
- 2.013
Das muss man sich mal auf der Zunge zergehen lassen für 5% mehr Leistung eine um 88W erhöhte TDP.
Das war noch vor ein paar Jahren die gesamte TDP einer spitzen CPU.
In einer perfekten Welt in der sich alle bestens mit der Materie auskennen, macht dieser Ansatz Sinn. Dann drosselt jeder die CPU auf vernünftige Werte. In jeder anderen Welt sollte es eher so aussehen, dass die letzten 5% manuell freigeschaltet werden müssen.
Meiner Meinung nach genau wie schon bei Alder Lake, Ada und vermutlich auch RDNA3 ein Trend in die falsche Richtung!
Das war noch vor ein paar Jahren die gesamte TDP einer spitzen CPU.
In einer perfekten Welt in der sich alle bestens mit der Materie auskennen, macht dieser Ansatz Sinn. Dann drosselt jeder die CPU auf vernünftige Werte. In jeder anderen Welt sollte es eher so aussehen, dass die letzten 5% manuell freigeschaltet werden müssen.
Meiner Meinung nach genau wie schon bei Alder Lake, Ada und vermutlich auch RDNA3 ein Trend in die falsche Richtung!
O
owned139
Gast
Es wurde in 720p getestet und dort herrscht idR. kein GPU Limit.Zwirbelkatz schrieb:Um nicht zu sagen GPU-Limit
- Registriert
- Mai 2011
- Beiträge
- 21.267
Die 2-4 Kerne haben auch schon bei den CPUs ohne VCache so gut wie nichts ausgemacht in SpielenDome87 schrieb:@Taxxor
Ich sagte ja auch "in der Theorie". Und in genau dieser fehlten dem 5800X3D 2-4 Kerne und 300-400MHz Takt.
Und 300-400Mhz mehr Takt wären <10% mehr gewesen, also dann letztendlich in Spielen auch nur 3-5% mehr Performance.
- Registriert
- Mai 2022
- Beiträge
- 524
wieso sollte er ein neues Netzteil kaufen? Im CB Gamingtest verbraucht der 12900KS ja nur rund 20W mehr als der 7950X. Das ist fast schon vernachlässigbar im Highend BereichKloin schrieb:Netzteil
Ich meinte für die 4000er RTX ;-) 12VHPR und soGeleeBlau schrieb:wieso sollte er ein neues Netzteil kaufen? Im CB Gamingtest verbraucht der 12900KS ja nur rund 20W mehr als der 7950X. Das ist fast schon vernachlässigbar im Highend Bereich
Ähnliche Themen
- Antworten
- 28
- Aufrufe
- 2.624
- Antworten
- 87
- Aufrufe
- 21.725
- Antworten
- 883
- Aufrufe
- 142.199
- Antworten
- 120
- Aufrufe
- 25.623
- Antworten
- 376
- Aufrufe
- 67.496
H