News Gaming-Performance: Ryzen 9000X schlägt Ryzen 7000X3D „knapp“ nicht

40, respektive 50, Watt lassen sich nicht einfach nur durch herabsetzen des Baseclock erklären, da werden schon auch noch architektonische Veränderungen stattgefunden haben.

Aber ja: den Basistakt von 4,5GHz auf 3,8GHz zu senken schafft Luft zum Atmen. Ich würde mir sogar wünschen, dass der Basistakt noch weiter gesenkt würde - es müssen nicht permanent mindstens 3,8 GHz anliegen - das wäre so, als würde mein Auto 1.600 U/min Standgas halten...
 
da!mon schrieb:
40, respektive 50, Watt lassen sich nicht einfach nur durch herabsetzen des Baseclock erklären
Am 7700X3D sieht man ja schon, dass er im Gaming ggü dem 7700X von 72 auf 60W(-17%) runter geht einfach nur dadurch dass der max Boost von 5,4 auf 5GHz gesenkt wurde(-7,5%).

Und da gehts nur um Teillast, jetzt stell dir mal von du senkst bei Vollast auf allen Kernen, wo der 7700X 142W zieht, den Takt einfach mal um ganze 700MHz. Ich würde sagen, damit kann er locker bis auf 90W runter gehen.
Man sieht ja auch, der 9950X hat von allen am wenigsten Baseclock eingebüßt und dieser ist auch die einzige CPU, die ihre TDP behalten hat. Man hätte dem 9950X auch einen Baseclock von 4GHz geben können und ihm dafür 120W TDP Klasse stecken können.
Aber vielleicht kann er ja seine TDP diesmal besser ausnutzen, beim 7950X hätten auch 120W TDP/170W PPT ausgereicht weil er selten überhaupt über 190W gekommen ist.
Ergänzung ()

da!mon schrieb:
Ich würde mir sogar wünschen, dass der Basistakt noch weiter gesenkt würde - es müssen nicht permanent mindstens 3,8 GHz anliegen...
Es liegen auch nicht permanent 3,8GHz an, beim 7700X liegen ja auch nicht permanent 4,5GHz an. Das ist nru die Taktraten die unter Last mindestens garantiert werden, solange man halt mindestens einen Kühler mit der passenden TDP verbaut hat.
Auf dem Desktop liegen die Taktraten deutlich niedriger
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Makkaroni, Volvo480, cvzone und eine weitere Person
Um mal einen 🐸zu zitieren: abwarten. Wir werden sehen, was, und wie viel, die Benchmarks bringen werden.
Bis dahin ist es erstmal gut zu wissen, dass zumindest beim 9900X und beim 9700X weniger Verbrauch kommt.
Und für mich privat wäre dann eh nur ein 9800X3D interessant :rolleyes:
 
da!mon schrieb:
@Stramma Die englische Sprache (Eigenbezeichnung: English/? [ˈɪŋɡlɪʃ]) ist eine ursprünglich in England beheimatete germanische Sprache, die zum westgermanischen Zweig gehört.
Und was soll mir das sagen? Soll das nun eine Begründung dafür sein, dass englische und deutsche Grammatik gleich sind? Mann, das ist ja echt müßig. Z.B. gibt es im Englischen nur zwei Fälle (je nach Ansicht auch drei, wenn mann den oblique case dazuzählt), im Deutschen 4. Im englischen sind bestimmte und unbestimmte Artikel geschlechtsneutral. Auch gibt es Unterschiede in den Zeitformen. Was willst du also?
da!mon schrieb:
Bias is a disproportionate weight in favor of or against an idea or thing, usually in a way that is inaccurate, closed-minded, prejudicial, or unfair. Biases can be innate or learned. People may develop biases for or against an individual, a group, or a belief.[1] In science and engineering, a bias is a systematic error. Statistical bias results from an unfair sampling of a population, or from an estimation process that does not give accurate results on average.

Es bleibt also dabei: bias = Voreingenommenheit, Adjektiv.
Egal ob nun in der Wissenschaft oder im allgemeinen Sprachgebrauch...
Liest du eigentlich was du da kopierst oder bist du echt so ahnungslos? Bias wird in dem von dir zitierten Text nur als Substantiv verwendet.

OK, ich beende das jetzt. War ja schon ein bisschen witzig mit dir aber das bekommt jetzt so einen Twist, der leicht insane schimmert.

Also nichts für ungut und pflege einfach weiter dein Steckenpferd.
 
  • Gefällt mir
Reaktionen: Ja_Ge
da!mon schrieb:
bias = Voreingenommenheit, Adjektiv.
Da schmerzt mein Deutsch LK Herz
Wobei man keinen Deutsch LK gehabt haben muss, um zu wissen, dass „Voreingenommenheit“ kein Adjektiv ist.
Du weißt es unterbewusst wohl selbst, sonst hättest du es nicht groß geschrieben^^

Wenn jemand voreingenommen ist würde man im englischen „being biased“ schreiben, aber im Text oben wird es nie als Adjektiv verwendet sondern immer als Substantiv.

To develop biases= Vorurteile entwickeln, Substantiv.
Oder der bei Aktien beliebte "Rückschaufehler" = hindsight bias, also eine Verzerrung der Wahrnehmung aufgrund von vergangenen Ereignissen, auch hier, Substantiv.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stramma und Ja_Ge
Taxxor schrieb:
Genau dieses Vorgehen kennt man doch schon länger von Intel, wo man einer CPU mit 6GHz Boost dann 2,5GHz Base(überspitzt) gibt, um die TDP bei 65W halten zu können
Bei AMD sind wir hier aber dann bei 15-20W.
Mein 5600G braucht auf 6x3,6Ghz 47W. Auf 6x3,9 Ghz 78W.
 
crustenscharbap schrieb:
Mein 5600G braucht auf 6x3,6Ghz 47W. Auf 6x3,9 Ghz 78W.
Das sind keine 15-20W sondern 31W Differenz und auch nur ein Sprung von 3,9 auf 3,6GHz und selbst das würde in dem Fall schon ausreichen, um aus einer 65W TDP CPU eine 35W TDP CPU zu machen.

Jetzt gehst du von den 3,9GHz noch hoch auf 4,3GHz, damit wir den gleichen 700MHz Unterschied haben wie beim 7700X und 9700X und der 5600G müsste eine 105W TDP bekommen.
 
Zuletzt bearbeitet:
@da!mon Ich glaube wir haben aneinander vorbei geredet.Du schreibst von der 14600k und ich von der 14900k.Die Bilder sagen es ja ebenso aus.Da sieht man doch das der 14900k mehr Verbraucht als der Ryzen 9 7950x.Was drunter bewegt stimmt aber interessiert mich als reiner Anwender dann nicht so.Wenn ich aber einen reinen Gamer PC machen würde dann sehr wohl.
Und naja den 14900k habe ich bei meiner Anwendung in Aktion gesehen.Hätte nicht gedacht das Cinchebench noch mehr Strom zieht.Mit 320 Watt ist also der 14900k nur bei Teillast,ich verstehe.Das heißt meine Anwendung ist so verschwenderisch wie Cinchebench, so kann man es sagen.Darum musste ich ja auch bei wem anderes den Ryzen 9 7950x auf 142 Watt drosseln um keine zu hohe Abwärme zu haben.
Beim Zen 5 wird also der 16 Kerner weniger Allcore Takt haben und dafür weniger Abwärme und Stromverbrauch kann man so sagen.
 
Der Basetakt spielt doch wenn dann nur noch eine Rolle bei AVX-512 Last. Immerhin kann AMD das ja ...
 
ok puh dann bin ich ja beruigt,weil das AVX 512 ich verwende ist zumindest ausgeschlossen.Ganz einfach ich habe keine Software die dies verwendet.Wobei ich hatte mal eine aber wie den PS3 Emulator.Aber das war einmal.Diese Funktionierte irgendwie nicht richtig bei mir.Aber auch die PS2 Emulator funktioniert sehr merkwürdig.Naja mit ner echten Konsolen kann es ja eh nie mithalten.
 
latiose88 schrieb:
@da!mon Hm das klingt so als ob du die beiden auf das selbe Level stellen würdest.Zum Schluss stellst du dann auch noch sowas wie 14900k mit dem Ryzen 9 7950x gleich.
Erstens: ja, ich vergleiche den 14600K mit einem 7900X, wie du es ja auch schon erkannt hast. Also winde dich nicht aus deiner Aussage herraus indem du im Nachhinein ausschließlich vom 14900K redest.
Der 14600K ist und bleibt direkter Konkurrent zum Ryzen 9 7900X.


latiose88 schrieb:
@da!monUnd naja den 14900k habe ich bei meiner Anwendung in Aktion gesehen. Hätte nicht gedacht das Cinchebench noch mehr Strom zieht. Mit 320 Watt ist also der 14900k nur bei Teillast,ich verstehe.
Zweitens: nein, ein 14900K macht keinen Sinn. Und deiner Aussage nach hast du ihn auch noch offen, also übertaktet, mit deiner Software genutzt...

Aber genauso wenig Sinn macht für mich ein 7950X: wenn ich schon 16 Kerne brauche, kann ich da nicht auch gleich zu Threadripper mit ECC support greifen (Ja Ryzen unterstützt ECC, aber schonmal ein mainboard mit korrektem ECC support gesehen)?
 
@da!mon das erste scheint wohl sich auf ein Missverständnis zu handeln. Es ist nun nicht mehr klar wer dem gehabt hatte. spielt ja auch keine Rolle weil ich bin einer der sich nicht gerne streitet.

Das zweite scheint wohl echt offen zu sein aber auch mit Temperatur Probleme weil was mit 5,1 GHz auf den p Kerne und 4,6 GHz auf den e kernen nicht der Standard sei, so wurde es mir hier im forum mal drüber geschrieben gehabt. Jedenfalls ist der 13900k mit seinen 5,7 GHz p Kerne allcore und 4,3 GHz e Kerne wohl auch schon über dem hinaus getaktet gewesen. Jedenfalls wurden die CPUs echt ganz schön warm wohl weil der 13900k schon bei 350 Watt war also unter dieser last. Der Rest dauerte bei der person jeweils so um die 1 minute. Schaden dürfte die CPU wohl nicht genommen zu haben. Die Anwendung war so dermaßen takt bessessen das dieser mit sinkenden takt massiv an Leistung verlor. Wie gut das dieser bei AMD weniger zu Verlusten als unter Intel war. Beim ryzen 9 7950x war es jedenfalls mit allen 16 Kernen bei 5, 1 GHz allcore bei 200 Watt. Die 230 Watt sah die CPU bei dem test nie aber ich hatte es eiskalt das maximum heraus holen wollen. villeicht wäre ja dann bei 5,4 GHz allcore takt schluss gewesen, wer weiß. dann dürften sich beide nix nehmen weil takt ist Trumpf bei meiner Anwendung. nur das es halt dann 230 Watt vs 350 Watt wäre. wobei wenn Intel das problem nicht gehabt hätte wäre Intel bei alles heraus holen gewiss bei höheren takt gewesen und dabei sogar noch etwas mehr Leistung heraus geholt. villeicht hätte Intel sogar die threadripper geschlagen mit den 5,7 GHz p Kerne gegen threadripper 24 Kerne bei 4,8 GHz.
Ein echt tolles Duell. takt schlägt fast 8 extra Kerne. Beim Stromverbrauch ist der threadripper mit 24 Kernen bei 290 Watt.
Bei den 16 Kernen von AMD würde ich da wohl 5,7 GHz brauchen um die CPU 24 Kernen gleich zu ziehen. dann wäre der 16 Kerner 900 mhz höher.

War bei den anderen threadripper auch so gewesen. Wollte eigentlich noch mehr aus threadripper heraus holen aber wollte nicht. Habe es bei wem per teamview selbst testen dürfen. Zum testen waren die 24 und 32 Kerner echt geil gewesen.

ich selbst sehe aber ein aber. So geil die threadripper auch sein mögen. Der hohe idle stromververbrauch und die hohen Kosten der Anschaffung.
wenn das nicht wäre sehr genre.

Ecc denke ich mal hat der 2011 v3 ja aber ich brauche das eigentlich im Grunde genommen nicht weil ich ja kein server oder sowas mit vielen daten verwenden.
 
Taxxor schrieb:
Das sind keine 15-20W sondern 31W Differenz und auch nur ein Sprung von 3,9 auf 3,6GHz und selbst das würde in dem Fall schon ausreichen, um aus einer 65W TDP CPU eine 35W TDP CPU zu machen.

Jetzt gehst du von den 3,9GHz noch hoch auf 4,3GHz, damit wir den gleichen 700MHz Unterschied haben wie beim 7700X und 9700X und der 5600G müsste eine 105W TDP bekommen.
Ich meine weil Jemand schrieb, dass Intel 65W nur mit 2,5Ghz erreicht. AMD schafft bei 2,5Ghz auf 15-20W. Und selbst mein 5600G kommt mit 42W auf 3,6Ghz unter Last mit allen Kernen.

Ist Intel wirklich so höllisch ineffizient? Nur 6x 2,5Ghz bei 65W. Das wäre ja echt grauenhaft. Weil ich manchmal über einer Intel CPU nach denke, wegen Quick-Sync (besser für Videoschnitt). Aber wenn die bei 2,5 Ghz schon 65W braucht und mein 5600G schon auf ca 3,8Ghz bei 65W läuft, ist das schon ein richtig krasser Unterschied. Ich glaube kaum, dass irgendeine Intel CPU eine so viel krassere IPC hat um mit 2,5Ghz gegen 3,8Ghz anzukommen.
Das würde ja bedeuten, dass bei einem knall harten 65W Limit mein etwas alter 5600G ALLE! Intel CPU komplett nass macht. Was macht dann Zen4 und Zen5? Ohje!
 
crustenscharbap schrieb:
Ich meine weil Jemand schrieb, dass Intel 65W nur mit 2,5Ghz erreicht.
Dieser jemand war ich und ich hab extra ein "(überspitzt)" dahinter geschrieben, damit das nicht wieder irgendjemand auf die Goldwaage legt.
Keine Ahnung, vielleicht mach ich das nächste mal noch den Text bunt und fett, damit es keiner übersieht.


Es ging einfach nur um die große Diskrepanz zwischen Base und Boost Takt, die man eben dazu nutzt, um die TDP entsprechend niedriger angeben zu können.

Aber gerne auch noch ein reales Beispiel z.B. ein Ryzen 6800U, der gerade mal 15W TDP aber trotzdem einen Boost von 4,7GHz hat, deutlich über dem deines 5600G. Die niedrige TDP erreicht man nun dadurch, dass dafür der Baseclock nur bei 2,7GHz liegt.

Man hätte ihn auch mit 4,7 Boost und 3,7 Base machen können, dann bräuchte er halt 35W TDP.
Für die Performance im Gaming würde das aber absolut keinen Unterschied machen, weil hier keine starke Last anliegt.

Genau deshalb bedeutet auch die geringere TDP von Zen5 nicht automatisch, dass sie im Gaming weniger verbrauchen werden als Zen4.
 
Zuletzt bearbeitet:
da!mon schrieb:
Ist dir schonmal aufgefallen, dass die X3D CPU's allesamt niedriger Takten, als ihr non-X3D Gegenstück?
Es gibt Anwendungsgebiete, da ist nicht Cache = König, sondern Takt = König.

Mein 7950X3D meint, daß er sein Nicht-X3D-CCD auf die gleichen 5,7 GHz hochjubelt wie ein 7950X das tut... möchtest du deine Aussage eventuell ein wenig präzisieren?
 
  • Gefällt mir
Reaktionen: Alesis
Araska schrieb:
möchtest du deine Aussage eventuell ein wenig präzisieren?

Nö.
Aber danke, dass du mich mit deiner Aussage indirekt bestätigt hast 😘
 
Zuletzt bearbeitet:
@da!mon
Bei 142W liegen 7950X und 7950X3D gleichauf, weil der 7950X auch ohne V-Cache bei Last auf 16 Kernen nicht über 5,2Ghz taktet.

Bei 88W ist der X3D sogar leicht vorne
1719075079794.png


Man kann sich drüber streiten, ob die ~5% Mehrleistung, wenn man dem 7950X 230W gibt, es wert sind.


Und Singlecore ists sowieso egal
1719074731220.png


Wenn ein 9950X3D weniger Taktmalus ggü dem 9950X hat, gäbe es selbst bei 230W keine Nachteile beim X3D mehr, es sei denn man geht wirklich den Weg, beiden CCDs den V-Cache zu geben, dann hätte man in SC Anwendungen nach wie vor mit dem normalen X Vorteile.


da!mon schrieb:
Zur Info: AMD gönnt sich unter Volllast 230 Watt für den 7900X und den 7950X.
Das ist jetzt nicht so weit von Intels 253 Watt weg - es sind auf dem Papier genau 10%.
In der Praxis relativiert sich das aber sehr stark.
In der Praxis geht es bei Vollast noch mehr zu Gunsten von AMD, weil die 230W die auf dem Papier stehen, nie erreicht werden und bei ~195W Schluss ist, während der 14900K immer an sein 253W kommt und offen auch noch deutlich darüber gehen kann.

Im 14900K Test ist z.B. ein 7950X mit 230W Limit 2% schneller als ein 14900K mit 253W Limit.

Real sind die Verbräuche aber nicht 230W vs 253W sondern 196W vs 253W, der 7950X ist also auf dem Papier ~11% und in der Realität~24% effizienter
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stramma
Naja bei wem der 7950x mit ner Anwendung von mir richtig Last gibt,war nur bei AVX1 also kein starkes AVX getestet worden und da war sogar auf 200 Watt gewesen.Also diese CPU geht schon auf glatte 200 Watt.
230 Watt hat diese CPU nie gesehen gehabt.Wärend es beim 14900k auf 320 Watt Schluss war,auch ohne richtig viel AVX.AVX Lästig ist meine Anwendung nicht,kann man so sagen.Wäre es richtig AVX Lästig würden die Taktrate stark bei Intel runter gehen und die CPU bei AMD heißer werden wobei AVX der CPU nix ausmacht.
Das erklärt auch warum die beiden CPUS so nahe sind.
 
Nochmal: 320 Watt beim 14900K entspricht NICHT Intel's Vorgaben, sondern den "offenen" settings der Mainboardhersteller mit kurzzeitig 4095 Ampere.

Es macht keinen Sinn, diese 300+ Watt von Intel als Vergleich heranzuziehen und gegen eine AM5 CPU zu vergleichen, wenn diese nicht unter den gleichen Vorraussetzungen getestet wurde!

Wie würde sich eine AM5 CPU verhalten, wenn ich ihr kurzfristig 4095 Ampere reindrücken darf?

AVX würde ich auch nicht als Maßstab setzen: wer eine CPU für AVX braucht, kann gleich zu AMD greifen, weil Intel aktuell keinen AVX-512 support hat.

Araska schrieb:
Mein 7950X3D meint, daß er sein Nicht-X3D-CCD auf die gleichen 5,7 GHz hochjubelt wie ein 7950X das tut... möchtest du deine Aussage eventuell ein wenig präzisieren?
Um darauf nochmal einzugehen: wie hoch ist denn der allcore boosttakt deines X3D - ist der auf ALLEN Kernen auch so hoch wie beim normalen 7950X? Nein, ist er nicht. Ergo hat dein 7950X3D weniger allcore boosttakt als sein nicht-X3D Bruder. Heißt im Umkehrschluss: er taktet niedriger 😘
 
@da!mon
ja habe nicht geschrieben gehabt das dies Standard ist. zu damals wusste ich das aber nicht das dies so nicht Standard wäre. Die Ergebnisse entstanden durch genau so übertreten hoch treiben. Der 13900k war mit seinen 350 Watt sogar noch weiter außerhalb des Standards. Ich habe halt ne Anwendung die selbst ohne avx die CPUs nach oben treibt bei Temperatur und Stromverbrauch. Meine Anwendung ist auf den selben Level wie prime oder sowas.

habe ich halt so gemerkt gehabt. Nun ja mit den absenken des Stromverbrauchs wird alle Intel massiv an Leistung verlieren. Wenn es selbst bei AMD 300 mhz 5 % Leistung verliert, kann man es sich auch denken wie stark Intel dann an Leistung verlieren wird.

in der sache hat somit Intel gnadenlos verloren. Land sieht Intel da nicht mehr. Ich rechne also dann von rund 30 % an Leistungs verlust.

Aus dem würde wohl selbst ein ryzen 9 3950x die aktuellen Intel cpus schlagen also heißt es 140 vs 180 Watt.

Nun solange Intel also da nicht gut dasteht werde ich über Intel noch nicht nachdenken. Intel kann aber durchaus wieder an chance gewinnen, muss sich halt nur mehr anstrengen. fürs erste bin ich halt AMD fan, das liegt an der guten leistung, mehr nicht.
 
Zurück
Oben