News Gaming-Performance: Ryzen 9000X schlägt Ryzen 7000X3D „knapp“ nicht

latiose88 schrieb:
in der sache hat somit Intel gnadenlos verloren. Land sieht Intel da nicht mehr. Ich rechne also dann von rund 30 % an Leistungs verlust.

Aus dem würde wohl selbst ein ryzen 9 3950x die aktuellen Intel cpus schlagen also heißt es 140 vs 180 Watt.

Nun solange Intel also da nicht gut dasteht werde ich über Intel noch nicht nachdenken. Intel kann aber durchaus wieder an chance gewinnen, muss sich halt nur mehr anstrengen. fürs erste bin ich halt AMD fan, das liegt an der guten leistung, mehr nicht.
Was für ein grandioser Schwachsinn - ich könnte Regenbögen kotzen!

Du scheinst KEINE Ahnung von Mikroprozessorarchitekturen zu haben, oder warum man nicht einfach nur Ampere & Volt in eine CPU pumpen kann, um mehr Takt und mehr IPC rauszuholen

Die Leistung einer μArchitektur skaliert nicht immer 1:1 mit Takt oder der zugeführten Leistung in Form von Spannung und Stromstärke - AMD ist König bei diesem Beispiel: je geringer die Leistungsaufnahme, desto effizienter werden die Ryzen. Heißt im Umkehrschluss: die IPC fallen nicht linear ab und die Effizienz nimmt mit steigendem Takt ab.

Das ist etwas, was sich in JEDER Mikroarchitektur finden lässt, sei es nun Grafikkarten, CPUs oder SoC's.

Warum war die Core2 μArch von Intel wohl seinerzeit so effizient?
Warum gibt es wohl eine Taktgrenze bei RDNA3? Schonmal eine Radeon 7000 mit mehr als 2500 MHz Werkstakt gesehen? Der Boost-Takt liegt maximal bei 2,8 GHz und das auch nur bei 2 Modellen mit selektierten Chips. Schonmal beobachtet, was passiert, wenn man RDNA 3 auf über 3 - 3,3 GHz prügelt?
AMD weiß, dass RDNA 3 oberhalb von 3 GHz scheiße ineffizent wird - die Frequency/Voltage-Curve sieht aus, als wäre das Ding ein Ford V8 von 1935: viel Drehmoment, aber wenn Leistung abgerufen wird, dann säuft das Ding wie ein bodenloses Fass...

Und jetzt zu behaupten, ein 14900K verliert ~30% Leistung, wenn man ihm ~25% Leistungsaufnahme klaut, entbehrt JEDER GRUNDLAGE, ZUMAL ES BEREITS GETESTET WURDE.

HÖRT AUF SCHWACHSINN ZU VERBREITEN, NUR WEIL AMD VIEL TOLLERER UND BUNTERER AUSSIEHT!

Intel verliert 8-9% Leistung bei 70 Watt weniger Leistungsaufnahme!

320 Watt oder 253 Watt für die gebotene Leistung, das macht zwar einen 14900K noch immer nicht zu einem Effizienzwunder, aber es ist definitiv nicht der Horror der hier gerne (auch Seitens der Redaktion) verbreitet wird.

8-9% Leistung, bei 21% weniger Leistungsaufnahme. Weeeeiiiiiiit weg von den 30% Leistungsverlust, die der Fachidiot @latiose88 in seiner Horrorvorstellung alptraumhaft zusammengezimmert hat.

Aber "Intel hat gnadenlos verloren" - klar, wenn Idioten ihre Meinung verbreiten dürfen und dabei Kaufempfehlungen nicht aufgrund von Tatsachen, sondern weil sie dumme fanbois sind, aussprechen, dann hat einer der beiden CPU Hersteller verloren. Aber nicht weil er schlechter wäre. Sondern weil der dumme fanboi ggf. einen unwissenden Bekannten hat, der sich auf die Meinung des fanboi verlässt. Egal ob Richtig oder Falsch.

Anstatt also sachlich fundierte Meinungen aufgrund von Fakten auf den Tisch zu legen, wird hier lieber von "30% Leistungsverlust" geschwafelt, weil es einfacher ist, das eigene Narrativ damit zu füttern: Hersteller X ist geiler als alle anderen - die sind immerhin noch für den kleinen Mann und sein Hobby!

Richtig ist: AMD ist es scheißegal, was ihr von ihnen haltet, solange sie Geld verdienen.
AMD lügt der Presse und den Endkunden sogar ins Gesicht, wenn das die Verkaufszahlen nach oben drückt: siehe Ankündigung der neuen AM4 Prozessoren auf der Computex dieses Jahr: angeblich sind die CPUs gleichauf mit allem, was Intel so bietet. Dumm nur, dass mit einer Radeon 6600 im GPU limit getestet wurde...

Wenn ich also davon ausgehe, dass alle Raptor Lake CPUs so gnadenlos von den Mainboardherstellern übertaktet werden, nur weil man "BIOS defaults" von Anus, GiggleBreit o.Ä. lädt, und wenn ich davon ausgehe, dass der 14600K selbst mit den offenen settings sehr vergleichbare 7900X Leistung bietet, dann steht Intel nicht so scheiße dar, wie im Forum von AMDbiased gerne behauptet wird.

Also meine abschließenden Frage:

Wann wird hier endlich verstanden, dass es keinen Sinn macht, einen Hersteller zu hypen bis Scooter kommt? Und alles, was davon abweicht ist pauschal und generell durch Falschaussagen belegte Scheiße?

Wann wird verstanden, dass es nur billige und gute Hardware geben kann, wenn ALLE Hersteller im Wettkampf sind und kein quasi-Monopol haben?


Edith schrieb: videocardz.com hat die HWLUXX ergbnisse gedeutet und auf englisch für die Masse übersetzt.
Fazit: wenn man bei Spielen im GPU limit mit entsprechend potenten Karten ist, dann ist der Leistungsverlust eher gleich Null.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Bei 142W liegen 7950X und 7950X3D gleichauf, weil der 7950X auch ohne V-Cache bei Last auf 16 Kernen nicht über 5,2Ghz taktet.

Man kann sich drüber streiten, ob die ~5% Mehrleistung, wenn man dem 7950X 230W gibt, es wert sind.

In der Praxis geht es bei Vollast noch mehr zu Gunsten von AMD, weil die 230W die auf dem Papier stehen, nie erreicht werden und bei ~195W Schluss ist, während der 14900K immer an sein 253W kommt und offen auch noch deutlich darüber gehen kann.

Im 14900K Test ist z.B. ein 7950X mit 230W Limit 2% schneller als ein 14900K mit 253W Limit.

Real sind die Verbräuche aber nicht 230W vs 253W sondern 196W vs 253W, der 7950X ist also auf dem Papier ~11% und in der Realität~24% effizienter

Klar, wenn ich CPU 1 und CPU 2 beide auf die selbe TDP begrenze, dann ist klar: die CPU, die bei gleichem Takt mehr Cache hat, gewinnt.
Das ist wie im Krieg: wer zuerst keine Munition mehr hat, verkackt.

Aber: dein 7950X kann auch deutlich mehr als 195W, gerade wenn du den genauso offen betreibst, wie einen 14900K...

In der Praxis würde ich mir aber erstens auch keinen 14900K zulegen, weil der (wie schon mehrfach erwähnt wurde) kein Effizienzwunder ist.
Im Gegensatz zum 14600K, der ist halt effizient. Und der ist auch direkter Gegner eines 7900X.
Wenn du jetzt aber auf einmal gegen einen 7950X vergleichen willst: out of box braucht der halt mehr. Klar schafft der auch mehr als Intel's CPU's - aber wir gehen hier nicht vom durchschnittlichen Forenmitglied aus, dass weiß wie man eine CPU effizient nutzt. Wir gehen hier vom 08/15 Hans Wurst aus, der den Kasten allenfalls selber zusammenbaut und einfach einschaltet. Da wird der 7950X wohl kaum auf 105W TDP limitiert.

Und mal ehrlich: 253 Watt in spielen sieht ein 14900K allenfalls, wenn es ein cpu limit gibt. Und ich bezweifle doch stark, dass Overwatch 2 oder Rainbow Six: Siege die 253 Watt abverlangen. Oder 180 Watt, falls es ein 14600K ist.

Aber: 14900K mit 2% mehr Leistung als ein 7950X für 20W mehr ist halt auch nicht so der Bringer, weder für AMD noch für Intel.
Intel kann sich die "Leistungskrone" von Burger King auf die Vorhaut nageln, AMD kann sagen "weeeeeeeeee wir verbrauchen 2 Energiesparlampen weniger als Intel :freak:"

Und so wie du das darstellst, liegen bei Intel IMMER 253 Watt an, real sollten die 253W aber maximal für 56 Sekunden anliegen: Intel's vorgabe für PL1 ist 125W und für PL2 253W.

Langer Rede kurzer Sinn: auch wenn Intel mit seinem monolithischen Design inzwischen Steinzeitlich alt ist, und die "Intel 7" Fertigungstechnik nicht Stand der Dinge ist - Intel hat durchaus noch brauchbare Prozessoren.
Sie müssten nur entsprechend der Herstellerangaben genutzt werden, so wie bei AMD auch.
Und wenn man dann noch seinen bias zu AMD/Nvidia/CCP bei seite schieben, und fakten auch akzeptieren kann, ergibt das in Summe: mehr auswahl anstatt eines monopols, welches "friss oder stirb" sagt...
 
Zuletzt bearbeitet:
da!mon schrieb:
Klar, wenn ich CPU 1 und CPU 2 beide auf die selbe TDP begrenze, dann ist klar: die CPU, die bei gleichem Takt mehr Cache hat, gewinnt.
In dem Szenario hat der Cache überhaupt keinen Einfluss.
Es geht darum, dass der Allcore Takt auch beim 7950X mit 230W nicht viel höher ist als das, was der 3D-CCD des 7950X3D schafft(~5,25GHz), während bei Last auf wenigen Kernen beide einen CCD besitzen der auf 5,7GHz kommt und es daher in der Praxis selten größere Unterschiede gibt(~5% bei Volllast auf allen Kernen)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stramma
@da!mon
Nicht Falsch verstehen,bevor Ryzen kamen war ich ein Intel Fanboy gewesen weil es damals keine gute CPUS von AMD gab.Ich bin halt aus wo es am meisten Leistung gibt.Und das ist halt im moment AMD.
Und bei Intel war ja auch von 180 Watt die Rede.Von 320 Watt im offenen unlimitiert zu 180 Watt ist der Leistungsverlust unter Allcore vollast sehr groß.Oder willst du mir sagen der Takt sind bei so einen Unterschied kaum.Hatte zum Spaß mal den 14900k auch mal auf 140 Watt herunter gedrosselt gehabt.,Der Leistungsverlust bei MC war gewaltig gewesen.Nur weil du keine 100% Vollast auf so einer CPU schaffst,heißt das nicht das es bei mir ist wie bei dir.Und ja 100 % Vollast die gibt es,wenn man es drauf ankommen lässt.Bei AMD waren es nur 93 % Last gewesen.Wollte die CPU bei AMD eigentlich auch auf 100 % haben,aber sollte wohl nicht sein.
Bei den Popiligen Games,da kann man Vollast vergessen.Hier braucht man schon mehr um auch bei Games Vollast zu haben.ALso so 2-3 Anspruchsvolle Games die von CPU gut Profitieren gleichzeitig.Dann treibt es die CPU so richtig nach oben.Was ich mache ist ganz sicher kein Standard oder sieht du einen der 2 Gleichstarke Anwendung gleichzeitig startet und dann so richtig Vollgas damit gibt.
Ich meine wozu gibt es so eine starke Leistung wenn man sie nicht Voll Ausschöpft.Wird ne CPU dabei richtig Warm dann packt die diese Last eben nicht,dann ist es die Falsche CPU dafür.
Und klar wenn ne Intel CPU mit 5,7 GHz Allcore und AMD mit 5,1 ghz Allcore dann ist klar das Intel gewinnt bei ner Anwendung die vom CPU Takt sehr gut Profitiert.
Heißt aber auch im Umkehrschluss wenn der Takt sehr stark sinkt,das die Leistung auch sehr stark auch mit sinkt.
So extreme Tests wie 4 ghz Allcore will ich mal den 14900k sehen,was davon an Leistung am Ende noch übrig bleibt.Oder auch 320 Watt vs 180 Watt.Du tust also so als ob es der CPU und der Leistung nicht juckt wenn aufeinmal der Strom sehr stark begrenzt wird.

ALso ich kann mir ja gerne mal so eine CPU holen,sie auf 4 ghz oder vergleichbar gegen AMD antreten lassen.
Den 5950x habe ich auch auf 120 Watt gedrosselt.Ich bin wirklich so einer der extra eine CPU noch einbremst obwohl mehr geht.So wurde bei wem auch wirklich der 7950x auf 142 Watt gleiche Leistung wie ein 7950x3d mit gleicher Watt festgestellt.Sogar noch weiter auf 100 Watt.
War nur neugierig wie viel Leistung am Ende noch übrig bleibt wenn man so hart drosselt.

Aber klar ein Fiaer Vergleich ist nur wenn beide eine 7950x und ein 14900k beide auf 100 Watt im Mulicore begrenzt werden.Wer gewinnt ist denke ich mal aber klar.Oder willst du damit sagen der 14900k wird gewinnen wenn es dann auf 100 % Vollast geht mit den 100 Watt?
 
latiose88 schrieb:
Und bei Intel war ja auch von 180 Watt die Rede.Von 320 Watt im offenen unlimitiert zu 180 Watt ist der Leistungsverlust unter Allcore vollast sehr groß.
Dann war garantiert etwas im BIOS falsch eingestellt. Ein 14900k hat im Test von TechPowerUp z.B. bei 100W noch 75% seiner Leistung. Bei 45W sind es sogar noch 50% der Leistung (Intel Core i9-14900K Raptor Lake TechPowetUp: Tested at Power Limits Down to 35 W)

latiose88 schrieb:
Aber klar ein Fiaer Vergleich ist nur wenn beide eine 7950x und ein 14900k beide auf 100 Watt im Mulicore begrenzt werden.Wer gewinnt ist denke ich mal aber klar.Oder willst du damit sagen der 14900k wird gewinnen wenn es dann auf 100 % Vollast geht mit den 100 Watt?
Das halte ich jedenfalls nicht für unmöglich. Man muss bedenken, dass der AMD bei niedrigen TDPs gegen den Intel verlieren kann, weil der Anteil des IO-Die am Verbrauch immer größer wird.
Bei 125W ist der 14900k im Cinebench ja bereits auf Augenhöhe in der Effizienz (<1%) mit einem 140W 7950X3D: TechPowerUp: Intel Core i9-14900K Raptor Lake Tested at Power Limits Down to 35 W
 
Hmm... 'n 9950X3D² könnte etwas teurer werden...

I want one!
 
Zurück
Oben