News AMD Ryzen 9 3950X: Taktprobleme angeblich für Verschiebung verantwortlich

asgaard schrieb:
Battlefield V, kann gut multicore ausnutzen, ein 9900k suckt da voll ab gegen 3900x.
das ist leider schlichteweg falsch. der 3900x performt fantastisch bei bf5 allerdings nicht so gut wie ein 9900k.
bf5 performt allerdings mit einem 9700k am besten da es mit ht nicht gut umgehen kann. (möglicherweise wurde das inzwischen gepatcht, zu meiner bf5 zeit war es allerding so und auch die meisten benchmarks zeigen das.)

vielleicht kann @t3chn0 da was zum aktuellen stand sagen damit es hier keinen streit gibt.
 
yummycandy schrieb:
Man sollte anscheinend nur hwinfo für die Sensoren benutzen:

Der Post bezieht sich darauf, dass Ryzen Master keine Aktualwerte, sondern bereits gemittelte Daten ausgibt und man ihn daher nicht als Tool nutzen kann um zu sagen welchen Takt die CPU gerade aktuell zum exakten Zeitpunkt hat.
Was angesichts des 2ms Wechsel der Taktraten aber sowieso quatsch ist, denn auch HWInfo zeigt dir dann immer (bei 500ms) nur eine von 250 Taktraten an, die die CPU in der letzten halben Sekunde hatte.

ZeroStrat schrieb:
Eher ist Ryzen Master Murks... ^^
Nein, er arbeitet nur anders als HWInfo in dem was er dir ausgibt. Auch ist HWInfo nicht in der Lage den Sleep State der Kerne zu erfassen und nimmt dann einfach den letzten bekannten Takt nochmal, also können die average Werte von HWInfo schon gar nicht so genau sein wie die von Ryzen Master.

Wenn du HWInfo ein Polling von 2ms einstellen könntest und dann jede Sekunde die Daten resettest, ist das was du dabei jede Sekunde im average Tab siehst, das was dir Ryzen Master ausgibt.
Nur dass die Werte in HWInfo viel höher ausfallen würden, da die Sleep States trotzdem nicht erkannt werden würden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LukS und derSafran
Fraggball schrieb:
das ist leider schlichteweg falsch. der 3900x performt fantastisch bei bf5 allerdings nicht so gut wie ein 9900k.
bf5 performt allerdings mit einem 9700k am besten da es mit ht nicht gut umgehen kann. (möglicherweise wurde das inzwischen gepatcht, zu meiner bf5 zeit war es allerding so und auch die meisten benchmarks zeigen das.)

vielleicht kann @t3chn0 da was zum aktuellen stand sagen damit es hier keinen streit gibt.
Ich sah bei Youtube ein Video allerdings nur mit gtx 1060 da war ein 3900x 20% schneller als 9900k. Ich selber bin intel Fan aber das war erstaunlich zum ansehen.
 
Ned Flanders schrieb:
Den Zusammenhang sehe ich ehrlich gesagt auch nicht. Wenns nur an der TDP läge, dann könnte man wirklich viele Wege gehen, inkl. jenen, das der 3950x eben nicht für jedes Board zugelassen würde.
Naja- Aber das ist doch letztenendes nichts anderes, als das was Intel macht.

Ob ich als Hersteller das Betreiben einer CPU auf Mainboard XY nicht spezifiziere/die Zulassung verweigere, oder ob ich auf einen Sockel eine Biossperre lege ist garantietechnisch ja das gleiche.
Ich darf seitens des Herstellers in beiden Fällen die CPU nicht auf dem Sockel betreiben.

Imho gibt es keinen guten Grund warum Hersteller Sockelkompatibilität einschränken sollten solange es keine Generationssprünge beim RAM gibt. Keinen!
Was nützt Dir die Sockelkompatibilität, wenn der Hersteller Dir erklärt, dass Deine CPU auf Mainboard XY nicht unterstützt wird bzw. nicht den Spezifikationen entspricht?

Man hat doch in der Praxis gesehen, dass beim aktuellen AMD Sockel eben kein beliebiges durchwechseln durch die Generationen möglich ist. Dass es Kompatibilitäts- und Zahnungsprobleme gibt, wenn man die neuen Boards mit den alten CPUs betreiben will.
Und dass man sich selbst dadurch Schranken auferlegt, die es anderweitig vielleicht nicht bräuchte, weil man spezifischer auf gewissen Entwicklungen reagieren kann.

asgaard schrieb:
Ich sah bei Youtube ein Video allerdings nur mit gtx 1060 da war ein 3900x 20% schneller als 9900k. Ich selber bin intel Fan aber das war erstaunlich zum ansehen.
Extrem unwahrscheinlich - Eine 1060 schreit nach GPU Limit

LG
Zero
 
Zuletzt bearbeitet:
Fraggball schrieb:
vielleicht kann @t3chn0 da was zum aktuellen stand sagen damit es hier keinen streit gibt.

Was will t3chn0 denn hier noch beitragen? Er hat keinen 3900X mehr und in seinem used case (min 200FPS bei 2560x1080 @ low) ist der 9900k besser. Das used case muss ja nicht auf alle zutreffen, das ist schon sehr speziell.
 
  • Gefällt mir
Reaktionen: NerdmitHerz
Colindo schrieb:
Für Spiele sollte doch relevant sein, wie die Taktrate bei Belastung von 1-6 oder maximal 8 Kernen aussieht. 3,5 GHz bei 16 Kernen in Vollast kann ich nachvollziehen, aber ich würde erwarten, dass bei spielespezifischer Teillast ähnliche Taktraten anliegen wie beim 3700X. Sollte dann auch gleich viel Strom verbrauchen, oder etwa nicht?

Der Stromverbrauch müsste etwas höher liegen. Die Kerne schlafen ja zur der Zeit nicht und der doppelte Cache spielt sicher auch eine Rolle. Mit 105 W TDP wird es halt eng beim 16 Kerner.
 
Taxxor schrieb:
Nein, er arbeitet nur anders als HWInfo in dem was er dir ausgibt

Entscheidend ist für mich bei der Sache, dass die gleiche Leistung gemessen wird, wenn ich die CPU auf 4.2GHz fest einstelle. Minimale Peaks bei der Last sind uninteressant für die Fragestellung, ob ein 3950X mit 4.4GHz Turbo 5% schneller ist als ein 3900X. Der Takt ist ja nur adaptiv, weil die Last ungleichmäßig ist.
 
  • Gefällt mir
Reaktionen: Baal Netbeck und onkas
@ZeroStrat Naja wenn du sie fest auf 4.2 einstellst, setzt du ja sowieso Precision Boost außer Kraft, Ryzen Master wird dir dann auch 4.2 anzeigen (vermutlich, habs noch nie probiert)
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Insgesamt eine traurige Entwicklung. Die Hoffnung, einen ebenfalls günstigen (im Vergleich zu einem Ryzen 8-Kerner) 16-Kerner zu bekommen, nun endgültig hin. Klar kann AMD auch weiterhin seinen 8-Kerner gut verkaufen, intels 8-Kerner ist halt teurer und mit OC auch schneller.

Ich hätte ja Interesse an einem "günstigen" 16-Kerner gehabt, vor allem für x265-Encodings. Aber nicht für den Preis und die im Vergleich vielleicht herbasgesetzte Performance. Dazu kommt noch, dass NVENC einen akzeptablen Job macht und ich die "Notwendigkeit" für einen 16-Kerner nun nicht mehr sehen kann, insbesondere wenn man die exorbitanten Encoding-Zeiten von x265 selbst mit einem 16-Kerner sieht. 🥴
 
  • Gefällt mir
Reaktionen: gesperrter_User
Dai6oro schrieb:
Das Problem ist doch nicht, dass die Chiplets den Takt nicht erreichen würden, das Problem ist, dass dieser Takt bei 105W TDP erreicht werden müsste, was eben oft zu wenig ist und die Ausbeute dementsprechend gering.
Was genau das ist was ich geschrieben habe....AMD braucht für den 3950 sehr gute Chiplets, weil nur diese eine ausreichend gute Takt/Spannungs-Kurve hinbekommen......die will AMD aber auch für Epyc und TR...

...und meine Spekulation war, dass sie schon einige produziert haben, wo die Chiplets nicht "sehr gut....beste 5% gut" sind, sondern etwas schlechter und jetzt stecken sie in der Klemme weil sie mit dem allcore Boost unzufrieden sind.....und der ist ja nicht über den maximaltakt gegeben sondern über die TDP begrenzt.
Dai6oro schrieb:
Mit höherer TDP würden mehr Chiplets in Frage kommen aber dafür ist der Sockel nicht ausgelegt. Es handelt sich dabei immer noch um die Consumer Plattform.
AMD hatte in der Consumer Plattform AM3+ auch 200W+ Monster...und Intels 9900K frisst auch viel mehr Strom und die neue 5GHz Variante wird wohl noch mehr verbrauchen.....Wie man sieht gibt es also kein Problem mit der Plattform Einteilung.....nur mit der ursprünglichen AM4 Freigabe.

Ich bin eigentlich ganz froh, wenn AMD sich anstrengt in den 105W TDP zu bleiben....sonst würden wir im 3950 nur "Schrott" Chiplets bekommen, die dann mit 150W TDP irgendwie, mit mitgelieferter Wasserkühlung hoch takten.

So kann dann PBO endlich mal was verbessern oder manuelles OC doch etwas bringen.
Wenn dafür die Verfügbarkeit schlecht ist, ist das zwar schade, aber AMD hätte endlich ein Flaggschiff, das richtig was reißt.....der 3950 ist ja mehr ein Prestigeprojekt als eine sinnvolle CPU für die Kaufberatung.

Der 3950 wird sich als Spiele CPU mit viel Rohleistung beim Rendern messen müssen....der Alleskönner der Intels 9900K endlich durch die Bank schlägt......längster Balken for the win! :freak:

Ob wir je Spiele sehen werden, die sich sinnvoll auf 16 Kerne aufteilen lassen halte ich für fraglich....und wenn doch, dann werden sie auf der Zen Architektur weiterhin schlecht laufen, weil so eine starke Multithreadausrichtung in Spielen mit viel Intercore Kommunikation einhergeht.
Und das hat sich immer noch nicht verbessert....sieht man auch an Ashes of the Singularity....das kann 16 Threads zu 90% auslasten...trotzdem verliert man mit weniger Kernen nicht entsprechen viel an Leistung.....Um so mehr Threads arbeiten um so mehr Zeit wird mit Datenaustausch verplempert, bis irgendwann kein Gewinn durch noch mehr Threads da ist.

Und sollte die Programmierung da doch noch Fortschritte machen und 16 Kerne können auch in Spielen gut genutzt werden, wird dem 3950 sein dual Channel Ram zum Verhängnis werden. Dann versuchen da 16 Kerne RAM-Anfragen zu stellen....das kann nicht gut gehen.

......Daher denke ich AMD sollte die CPU mit den besten Chiplets versorgen....Darauf achten zum Start auch wirklich bugfreie Bios Versionen und aktuelle Chipsatztreiber zu haben....und dann raus damit....Scheiß auf die Verfügbarkeit .
Um so länger sie warten um so näher rückt Zen2+ und um so eher bekommen sie von Intels 5GHz 9900er die Show gestohlen....der ja auch nur ein Prestigeobjekt sein wird.
 
  • Gefällt mir
Reaktionen: R00tMaster, iron-man und ZeroStrat
Dai6oro schrieb:
Was will t3chn0 denn hier noch beitragen? Er hat keinen 3900X mehr und in seinem used case (min 200FPS bei 2560x1080 @ low) ist der 9900k besser. Das used case muss ja nicht auf alle zutreffen, das ist schon sehr speziell.
gerade der use case zeigt ja die cpu performance eines 9900k im vergleich zu einem 3900x. abgesehen davon ist es ein leichtes bf5 vergleiche vom 3900x und 9900k zu finden.
googeln könnt ihr aber selbst oder?
BF5 tut sich schwer damit mehr als 8 threads auszulasten. (immer unter vorbehalt das es gepatcht wurde)
 
IronAngel schrieb:
Der Stromverbrauch müsste etwas höher liegen. Die Kerne schlafen ja zur der Zeit nicht und der doppelte Cache spielt sicher auch eine Rolle.
Ungenutzte Kerne schlafen schon die meiste Zeit, also da wird nicht viel verbraucht, das sieht man ja schon am guten Idle Verbrauch der Ryzens
 
  • Gefällt mir
Reaktionen: .Sentinel. und Baal Netbeck
Ich finde die 105 W TDP sehr gut. Vielleicht verschenkt man was fürs Gaming, beim Computing finde ich die "erzwungene" Effizienz hervorragend.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
reallife-runner schrieb:
Ich finde die 105 W TDP sehr gut. Vielleicht verschenkt man was fürs Gaming, beim Computing finde ich die "erzwungene" Effizienz hervorragend.
Beim Gaming kommst du nicht mal in die Nähe der 142W, die das Limit bei 105W TDP sind. Gerade da macht die TDP überhaupt keinen Unterschied, da sich alle CPU sowieso unterhalb der 80W Marke aufhalten.
 
Schon Interessant wie hier die Emotionen hoch gehen und dass nur wegen Spekulationen. Die einen sagen Takt und die anderen sagen, Prioritäten setzen. Wäre ich AMD würde ich mich auf den OEM Markt konzentrieren (wie Intel) und nicht dem Consumer bereich wo vielleicht 2k Stück bei Mindfactory in 1 Jahr abgesetzt werden. Epyc muss vorrang haben. Wenn man die OEMs hier einmal enttäuscht als neuling dann ist es vorbei. Ja AMD hat nicht unendliche Kapazitäten bei TSMC aber auch Intel nicht. Wenn die Anfrage das Angebot übersteigt dann muss man Prioritäten setzen und ich denke, die wissen schon was Sie tun. Aber die werden sicherlich für 2020 planen und bei TSMC planen. Für mich stellt sich auch die Frage, ob TR3 oder der 16C Ryzen. derzeit spricht alles für den 16Ryzen aber da muss ich mir noch die BIOS entwicklung ansehen.
 
  • Gefällt mir
Reaktionen: Iapetus, Zwirbelkatz, v_ossi und eine weitere Person
. AMD bewirbt die CPU ganz klar als Gaming-Prozessor, sollte sich der Takt im Alltag eher an der Basis von 3,5 GHz statt den Turbo-Modi orientieren, wäre das für Spiele mitunter zu wenig.

Verstehe irgendwie nicht den Gedankengang. Ein 3900x der definitiv schlechteres Silizium hat, taktet doch auch ganz normal. Wenn ein Spiel dann 10 Kerne nutzt, dann ist es doch praktisch egal ob der Prozessor 12 oder 16 Kerne hat?
Durch das bessere Binning sind dann vielleicht 50 MHz mehr drin beim 3950x bei gleicher Belastung.

Aber wenn ein Spiel wirklich alle 16 Kerne nutzt, müsste der 3900x 33% schneller takten als der 3950x um sein Defizit wett zu machen.

Ich kann mir daher kein Szenario vorstellen wo der 3950x langsamer sein sollte.
Sofern der Scheduler seinen Job ordentlich macht.
 
  • Gefällt mir
Reaktionen: Dai6oro, Baal Netbeck und valnar77
etoo schrieb:
Zu behaupten man brauche nie und nimmer mehr als 8 kerne für gaming ist bei manchen spielen unter realistischen umständen falsch!

fürs reine spielen braucht man nicht mehr als 8 kerne. darauf bezieht sich die aussage. Es sprach keiner davon im hintergrund noch zig andere programme offen zu haben die auch was von der cpu wollen.

Es ist derselbe satz der sagt: fürs gamen reichen 16GB, zum reinen gamen mag das stimmen. wenn dann noch nebenbei der browser, discord und gar spotify läuft und/oder nen stream können auch mal 16 GB knapp werden
 
Fraggball schrieb:
BF5 tut sich schwer damit mehr als 8 threads auszulasten. (immer unter vorbehalt das es gepatcht wurde)

Also threads lastet es mehr als 8 aus:
 
Simanova schrieb:
Dilemma für AMD: Sollte es einen Layout-Fehler in der aktuellen Produktion geben, so müssten die Chiplets neu designt werden. Das würde dazu führen das auch 3600/3700/3800 davon betroffen wäre und damit eine Verbesserung erhälten würden. Kunden die bereits die alte Version des Ryzen 3000 gekauft haben sind dann bestimmt nicht glücklich.

Ich weiß nicht ob ich Lachen oder Weinen soll.... unfassbar. Dieses Ryzen design-layout ist seit 3 Jahren im Einsatz du Einstein. Spätestens nächstes Jahr hast du ein Refresh der jetztigen umgebung und ja dann ist alles schneller und stabiler. Soltest du doch kennen diese 5-7% durch Intel oder ?
 
ZeroZerp schrieb:
Naja- Aber das ist doch letztenendes nichts anderes, als das was Intel macht.

Ob ich als Hersteller das Betreiben einer CPU auf Mainboard XY nicht spezifiziere/die Zulassung verweigere, oder ob ich auf einen Sockel eine Biossperre lege ist garantietechnisch ja das gleiche.
Ich darf seitens des Herstellers in beiden Fällen die CPU nicht auf dem Sockel betreiben.
Ne, weil Intel einfach alle CPUs einer Generation in beiden Richtungen aussperrt. Das ist schon nochmal ne ganz andere Liga.
ZeroZerp schrieb:
Was nützt Dir die Sockelkompatibilität, wenn der Hersteller Dir erklärt, dass Deine CPU auf Mainboard XY nicht unterstützt wird bzw. nicht den Spezifikationen entspricht?

Sie läuft ja in diesem hypothetischen Beispiel auf vielen Boards. Ob sie Läuft kann ich auf der Homepage meines Board Herstellers ja sehen. Wo ist das Prob?
 
Zurück
Oben