Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Hersteller-Benchmarks: Ryzen 7950X3D angeblich 6% vor Core i9-13900K in Spielen
Sei bitte nicht so Kleingeistig. Es gibt genug Spiele die CPU Limitiert sind. Ich zb Spiele RUST und hänge trotz 4090 in 4K im CPU Limit. Der 5800x3D ist in dem Spiel 10% schneller als ein 13900K. Dabei sind mir die max. FPS nichtmal das wichtigste sondern die min. FPS.t3chn0 schrieb:Wenn ich mir das so angucke, rückt der 7900X für mich immer näher statt dem 3D Modell. Bis auf ein Spiel liegen alle hier gelisteten Spiele > 200 FPS bei beiden CPUs. Meine Gsync Range geht bis 120Hz und somit 116 FPS. Die schafft auch ein non 3D Modell komplett durchgehend.
Ich sehe gerade den Usecase nicht. Das kann doch höchstens für Personen mit einer 4080/4090 und WQHD + 240Hz+ interessant sein.
Der FS2020 läuft schon durch Frame Generation perfekt, da brauche ich kein 3D Modell.
Und 6% insgesamt doch nichts. Absolut enttäuschend. Daran sieht man wie stark Raptor Lake ist. Gönnt man hier dem 13900K noch schön die 7200er Speicher, liegt der Vorsprung von AMD bei noch 2% oder so.
Damit holt AMD rein gar nichts, außer der Effizienz Krone.
Ich frage mich hier noch immer, wer alles scheinbar ein 3D Modell benötigt, was ein normales X Modell nicht auch leisten kann.
Hier warten alle SEHNSÜCHTIG auf die 3D Modelle, aber in den Signaturen sehe ich nahezu keine Monitore die dass überhaupt benötigen würden.
Dann bleibt noch immer die Whitelist Geschichte.
Humbertus
Lieutenant
- Registriert
- Okt. 2011
- Beiträge
- 571
Also die allermeisten Nutzer verbringen den Großteil der Zeit im idle oder Teillast. Die Aussage würde ich so pauschal nicht unterschreiben.IBISXI schrieb:Effizienz sollte man primär unter Volllast betrachten. Weil es dort auch die größte Rolle spielt.
Zum Thema an sich: wer bereits eine aktuelle AMD oder Intel CPU hat wird sich das Upgrade sparen können. Wer auf was älteren Sitz oder wirklich das Hobby Technik liebt und das Geld hat macht ein Upgrade durchaus Sinn.
Shinigami1
Lieutenant
- Registriert
- Nov. 2010
- Beiträge
- 780
Die 6% durchschnittlich sind alles was ich wissen muss. Sagt mir das sich da kaum was getan hat. Einzelne Spiele rauspicken ist nicht so mein ding. Effizient juckt mich bei Hardware 0. Aber verbrauchen tut der 13900K in Spielen immer zwischen 110 und 130W.Taurus104 schrieb:Typische Aussage eines Intel Users schon schade das Mancher Vorurteile auch noch bestätigt.
Schon mal auf die einzelnen Spiele geachtet? Hier ist der 7950X3D auch gerne mal 30% schneller als dein 13900k. Die 6% sind Overall für diese spezielle Spieleauswahl. Nimmt man eine andere Auswahl, würde es auch anders aussehen. Desweiteren kann man jetzt schon davon ausgehen das der 7950X3D mit 120W TDP deutlich effizienter sein wird als ein 13900K. Zudem wurde schon bekannt die die Test mit Beta Bios und einem nicht auf die neuen CPUs optimierten Chipsatztreiber gemacht wurden. Weiterhin sind es nur Leaks.
Feier deinen Kauf also mal nicht so früh.
Rote_Orange
Cadet 3rd Year
- Registriert
- Juni 2018
- Beiträge
- 63
Ich möchte mir auch nächsten Monat ein neues System zusammenstellen. Ein paar Prozente hin oder her bei der Leistung interessieren mich nicht.
@ComputerBase, bitte testet die Leistungsaufnahme nicht nur in Benchmarks mit 100% Auslastung sondern auch in Realworld-Szenarien. Beim Entwickeln hat die CPU meist wenig zu tun. Auch bei Videobearbeitung hängt die nicht immer am Limit, oft ist da auch einfach mal nichts zu tun. Denn so gerne ich auch AMD kaufen würde, nach allem, was ich bisher so gelesen und angeschaut habe ist Intel dort im Vorteil, und das nicht zu knapp.
Es wäre daher super zu wissen, wie sich AMDs neue hier schlagen. Ich führe nämlich nicht den ganzen Tag Prime95 aus Vermutlich ist die meiste Zeit Leerlauf oder Browsen angesagt!
(Und ja, mich nervts bei beiden Herstellern (vor allem Intel), dass die für 5% Perfomance das doppelte an Strom opfern, um den "längsten" zu haben. Aber das kann man ja einfach beheben. )
@ComputerBase, bitte testet die Leistungsaufnahme nicht nur in Benchmarks mit 100% Auslastung sondern auch in Realworld-Szenarien. Beim Entwickeln hat die CPU meist wenig zu tun. Auch bei Videobearbeitung hängt die nicht immer am Limit, oft ist da auch einfach mal nichts zu tun. Denn so gerne ich auch AMD kaufen würde, nach allem, was ich bisher so gelesen und angeschaut habe ist Intel dort im Vorteil, und das nicht zu knapp.
Es wäre daher super zu wissen, wie sich AMDs neue hier schlagen. Ich führe nämlich nicht den ganzen Tag Prime95 aus Vermutlich ist die meiste Zeit Leerlauf oder Browsen angesagt!
(Und ja, mich nervts bei beiden Herstellern (vor allem Intel), dass die für 5% Perfomance das doppelte an Strom opfern, um den "längsten" zu haben. Aber das kann man ja einfach beheben. )
4
4BitDitherBayer
Gast
Das Zeigt eindeutig das Windows mit dieser Hybrid CPU noch nicht zurecht kommt u. ist wohl auch ein Grund dafür das AMD den 8 Kerner erst im April Luncht. Der wird in Spielen etwas schneller sein als seine beiden Brüder u. dann wäre AMD auf den Beiden Größeren sitzen geblieben.Taxxor schrieb:Ist auch das erste, woran ich gedacht habe als ich hier 6% Schnitt gelesen habe, bei der CES war man auf den Folien noch bei 19,5% Schnitt
Anhang anzeigen 1329126
SaschaHa
Commodore
- Registriert
- Nov. 2007
- Beiträge
- 4.792
Was ist das denn für eine Aussage? Die 6% sind ja nicht gegenüber seinem "Vorgänger" - dem 7950X (ohne 3D V-Cache) - sondern gegenüber dem 13900K. Gegenüber dem 7950X sind es ja immerhin 16%, trotz leicht geringerem Takt und deutlich geringerem Stromverbraucht. Was aber deutlich entscheidender ist als die Durchschnitts-FPS sind die Min-FPS, da solche Einbrüche oft viel stärker auffallen als eben die Durchschnitts-Werte. Das war eher eine Schwachstelle der Non-3D V-Cache-Modelle. Es ist also durchaus ein deutlicher Fortschritt.Shinigami1 schrieb:Die 6% durchschnittlich sind alles was ich wissen muss. Sagt mir das sich da kaum was getan hat.
Ist beim Zocken tatsächlich eher nebensächlich. Macht sich höchstens bei schlechter Kühlung und der daraus resultierenden Lautstärke bemerkbar.Shinigami1 schrieb:Effizient juckt mich bei Hardware 0.
Ich denke, AMD hat hier gut gezeigt, was möglich ist. Es bleibt ja festzuhalten, dass Intels P-Kerne aktuell die stärkeren sind, was AMD aber nun mit 3D V-Cache ganz gut kontern kann. Intel setzt hingegen eher auf L2-Cache.
Robman86
Lt. Junior Grade
- Registriert
- Sep. 2012
- Beiträge
- 388
Mir auch. Und gerade bei den min-fps ist der 13900K besser als bei den average-fps im Vergleicht zum 5800X3D, zumindest laut Computerbase (13900K = 99,0 ; 5800X3D = 81,7) und auch laut mir (hatte vor dem 13900K einen 5800X3D). Aber das kann bei Rust natürlich theoretisch anders sein bzw. du hast jetzt auch nicht das Gegenteil behauptet bzw. bist nicht drauf eingegangen. Fand es daher hilfreich, dass an der Stelle zu erwähnen.Hardy088 schrieb:Der 5800x3D ist in dem Spiel 10% schneller als ein 13900K. Dabei sind mir die max. FPS nichtmal das wichtigste sondern die min. FPS.
Northstar2710
Admiral
- Registriert
- Aug. 2019
- Beiträge
- 7.499
Naja, kommt drauf an. Wenn man bedenkt das der 13900k zwischen 11-21% vor dem 7000er liegt und jetzt die 7000x3d CPUs 6% for dem 13900k sind. Wäre das ein Performance Gewinn von 17-27% zum nonX3d Modell und das nur durch Vcache. Das ist mehr als hat sich kaum was getan.Shinigami1 schrieb:Die 6% durchschnittlich sind alles was ich wissen muss. Sagt mir das sich da kaum was getan hat
Und das würde auch zeigen das genügend Vcache immer noch eine ordentliche Schippe drauflegen kann egal wie schnell die CPU ist.
Ich fände eben 76003d (65tdp) interessant. Wird natürlich nicht kommen, obwohl sie ja die chiplets haben für den 7900x3d.
SaschaHa
Commodore
- Registriert
- Nov. 2007
- Beiträge
- 4.792
Das alles ist eigentlich auch mit dem "Bruder" ohne 3D V-Cache beantwortbar. Bei all diesen Szenarien kommt der 3D V-Cache nämlich praktisch nie zum Tragen, der ist fast ausschließlich beim Zocken von Vorteil. Zumindest war das beim 5800X3D so. Von daher lässt sich die Effizienz auch mit dem 7950X bemessen. Hier zeigt sich, dass er mit Werkseinstellung "in Ordnung", im Eco-Modus aber unfassbar effizient ist - meines Wissens nach etwa >15% effizienter als der 13900K bei identischem oder ähnlichem Power-Limit. Bei der Real-World-Performance dann das gleiche Resultat, da das Power-Limit hier ja eh selten ausgenutzt wird.Rote_Orange schrieb:@ComputerBase, bitte testet die Leistungsaufnahme nicht nur in Benchmarks mit 100% Auslastung sondern auch in Realworld-Szenarien. Beim Entwickeln hat die CPU meist wenig zu tun. Auch bei Videobearbeitung hängt die nicht immer am Limit, oft ist da auch einfach mal nichts zu tun. Denn so gerne ich auch AMD kaufen würde, nach allem, was ich bisher so gelesen und angeschaut habe ist Intel dort im Vorteil, und das nicht zu knapp.
Es wäre daher super zu wissen, wie sich AMDs neue hier schlagen. Ich führe nämlich nicht den ganzen Tag Prime95 aus Vermutlich ist die meiste Zeit Leerlauf oder Browsen angesagt!
Was bei AMD aber aktuell etwas nervt, ist der Idle-Verbrauch. Der ist - vermutlich aufgrund des Chiplet-Designs - deutlich höher als bei Intel. Bei meinem 7950X verbrauchen die 16 Kerne zusammen nur rund 2 Watt im Idle - die Package-Power (also zuzüglich I/O-Die mitsamt iGPU) liegt jedoch bei rund 20 Watt, wobei mein PC gerade auch die iGPU nutzt. Bei Teillast kann AMD dann aber sehr gute Resultate erzielen, und das dürfte für die 3D V-Cache-Modelle natürlich auch gelten.
Äh, ja - Da würde ich mal eben die Hand heben...t3chn0 schrieb:Das kann doch höchstens für Personen mit einer 4080/4090 und WQHD + 240Hz+ interessant sein.
scotch.ofp
Lieutenant
- Registriert
- Mai 2018
- Beiträge
- 607
Es wird nicht der große Wurf werden den sich viele erhoffen
AoS nutzt als einer der wenigen Spiele mehr als 8 Threads. Der 13900K hat insgesamt 24 Kerne, da kommt AMD schlichtweg mit 16 und davon 8 mit Cache nicht mehr mit.fox40phil schrieb:Dafür lieber Totgeburten wie Dawn of War 3 und Ashes of Singularity (war doch mal AMDs Benchmark Game schlecht hin - hier -11% :'o)
Interessant ist der Benchmark schon, wenn man mal auf die Zukunft oder einige Strategiespiele schaut, ob der für einen auch relevant ist, muss jeder für sich entscheiden.
Visualist
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.740
Das ist die 7000ner Reihe wie sie zu Release des AM5 hätte kommen müssen.scotch.ofp schrieb:Es wird nicht der große Wurf werden den sich viele erhoffen
Die CPUs werden Großartig damit sollte der AM5 Sockel an Fahrt gewinnen.
Lord_Helmi
Lieutenant
- Registriert
- März 2008
- Beiträge
- 994
Die Engine von DoW 3 wird immerhin in CoH 3 benutzt, zumindest also teilweise relevant heutzutage.fox40phil schrieb:Dafür lieber Totgeburten wie Dawn of War 3
danyundsahne
Commodore
- Registriert
- Okt. 2007
- Beiträge
- 4.430
Ich finde es wieder klasse wie sich hier die Köpfe eingeschlagen werden um CPUs, die gerade mal 5-15% auseinander sind.
Das ist lächerlich....
Und am Ende sind die meisten Leute immer noch hart GPU limitiert und es ist absolut wurscht welche CPU (ob 13900k oder 7950X3D oder 12600k oder 5600X, oder oder oder) werkelt, wenn die lahme RTX3060 oder RX6600XT so gut wie alles limitiert. Aber Hauptsache die CPU ist 10% schneller als die der Konkurrenz
Sehr amüsant.
Das ist lächerlich....
Und am Ende sind die meisten Leute immer noch hart GPU limitiert und es ist absolut wurscht welche CPU (ob 13900k oder 7950X3D oder 12600k oder 5600X, oder oder oder) werkelt, wenn die lahme RTX3060 oder RX6600XT so gut wie alles limitiert. Aber Hauptsache die CPU ist 10% schneller als die der Konkurrenz
Sehr amüsant.
Syrato
Rear Admiral
- Registriert
- Juni 2012
- Beiträge
- 5.893
Schon doof, AoS nutzt keine E-Cores.xexex schrieb:AoS nutzt als einer der wenigen Spiele mehr als 8 Threads. Der 13900K hat insgesamt 24 Kerne, da kommt AMD schlichtweg mit 16 und davon 8 mit Cache nicht mehr mit.
Ob und wie Spiele die von mehr Kernen profitieren, werden wir dann sehen. Ich hoffe CB guckt da genau hin.
H
HierGibtsNichts
Gast
Dann bist du halt einer von Wenigen.Shinigami1 schrieb:Effizient juckt mich bei Hardware 0. Aber verbrauchen tut der 13900K in Spielen immer zwischen 110 und 130W.
Ergänzung ()
Dann hast du für dich persönlich halt verpasst das Leistung in 2023 eben etwas anders beurteilt werden muss, nämlich nach dem welche Spiele man spielt und nachdem was man tatsächlich noch für weitere Anwendungsfälle mit seinem System hat. Als Gamer bestimmte MainGames hat interessiert es mich durchaus ob eine CPU oder auch GPU in meinen meistgespielten Spielen deutlich besser performt als die Konkurrenz, Hier ist mir die Leistung in den Games die Ich spiele wichtig und nicht die Leistung in 30 anderen Titeln. Gleiches kann man ebenso auf produktive Anwendungen auslegen.Shinigami1 schrieb:Die 6% durchschnittlich sind alles was ich wissen muss. Sagt mir das sich da kaum was getan hat. Einzelne Spiele rauspicken ist nicht so mein ding.
Zudem ist es immer noch ein Leak, nichts unabhängiges oder offizielles und es ist ebenfalls schon bekannt das ein nicht optimierten Chipsatztreiber dafür noch genutzt wurde.
Zuletzt bearbeitet von einem Moderator:
Ähnliche Themen
- Antworten
- 187
- Aufrufe
- 25.634
- Antworten
- 376
- Aufrufe
- 67.201
H
- Antworten
- 850
- Aufrufe
- 218.248