Ryzen 3000 Leak

Wenn man alle Gerüchte miteinander kombiniert, bin ich mir mittlerweile sehr sicher, dass AMD am 50. Geburtstag ein großes Event stattfinden lässt und Matisse enthüllen wird. Man wird wohl konkrete Informationen zur Technik bekommen, mehr als noch zur CES. Ich glaube man wird bekannt geben, ob es 12 oder doch maximal 16 Kerne geben wird. Vielleicht sogar schon das Topmodell mit den jeweiligen finalen Taktraten bekannt geben. Der mittlerweile obligatorische Cinebench mit nem 9900k darf natürlich nicht fehlen. Nur diesmal wird der arme 9900k komplett zerlegt.
Man wird denke ich auch was zu Navi sagen. Wenn auch mehr so einen kleinen Teaser.
Zur Computex Ende Mai ist dann der offizielle Launch und mit den entsprechenden Reviews.Mainboards wie immer ausschließlich erst mit dem teuren X-Chipsatz. ÅLTERE X370 und x470 sowieso die meisten B450 Boards dürften BIOS-Updates bekommen. Viele(aber nicht alle) B350 User könnten aber Pech haben.
Navi Launch ist dann später zur Gamescom.

Schade, dass man sich nicht wie bei reddit selbst einen automatischen Reminder für Posts setzen kann
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha
Den 9900k mit Cinebench zu zerlegen, sagt genau gar nichts über die Gamingperformance aus und es gibt nur wenige Leute die intensiv auf eine Mainstream CPU Cinebench spielen!
 
Ach?

Und ich dachte immer AMD stellt Prozessoren her, die für den Betrieb und alle Aufgaben eines Desktop-PCs gedacht sind. Neben Gaming gibt es sehr viele Anwendungsfelder.
Ich denke mal AMD ist es selbst überlassen, dass Sie bei einem Event den Prozessor im Besten Licht erscheinen lassen. Und Cinebench ist nunmal dafür eine Paradedisziplin.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha
Was Ach? Wie oft spielst Du Cinebech? Ein 1950X kostet kaum mehr als ein 9900K und schlägt diesen in Cinebench um Längen, verkauft sich aber mies im Vergleich zum 9900K, der die viel bessere Gamingperformance bietet! Also ist der Score in Cinebench wertlos und keineswegs ein Verkaufsargument, wie AMD und seine Fanboy und Guerilla Marketing Bots (wie du) es hinstellen wollen.
 
Wenn das mit den Cinebench tests jetzt natürlich andersrum ist ( wie es schon oft war)
Dann ist die Relevanz plötzlich da. xD
Ergänzung ()

BTW - es gitb nicht nur Gamer auf dieser Welt, manch einer will vllt mit der CPU auch arbeiten und nimmt dann die Paar Punkte weniger Gaming-Leistung ( die immernoch vollständig ausreicht) einfach hin.
 
  • Gefällt mir
Reaktionen: Gortha, Heschel und Rock Lee
CB ist zumindest ein Indikator für Anwendungsleistungen (sofern da keiner beim Compiler gepfuscht hat um den eine oder anderen zu bevorzugen). Ein Indikator für Spieleleistung wäre 3DMark. Mehrere Indikatoren zusammen geben ein größeres Bild.
 
Kleines Problem sind die "schlafenden" Spielehersteller die nicht auf alle Kerne optimiert haben. Es werden halt nur wenige genutzt, darum wirkt sich halt der hohe Takt auf paar Kerne aus. Die neuen Spiele sind schon besser, darum kann ich mit dem alten FX8350 noch sehr gut spielen, weil er jetzt ausgelastet wird-> 2 Kerner die damals schneller waren schauen jetzt durch die Finger.
Die Vergleiche sind ja auch sehr mühsam bei Spielen: da gibt es Grad mal <5fps Unterschied und diese machen den Unterschied zwischen flüssig / ruckelig auch nicht aus. Bei 4K sind wieder alle gleich auf weil die Graka in die Knie geht.
 
Intel war in der Single-Core-Performance doch schon immer besser als AMD - und da die Spielehersteller, wie OICW schon sagte, es kaum gebacken kriegen, mal mehrere Kerne/Threads zu nutzen als 2, bis aktuell max. 4 Kerne (unter DX12 doch sogar noch mehr?), liegt Intel wegen der besseren Performance pro Kern natürlich weiter vorne.
Wenn in Zukunft aber vermehrt drauf geachtet wird, dass man auch Multi-Core in Spielen unterstützt (wie es DX12 z. B. deutlich besser tut), dann dürfte man deutlich einen Anstieg merken. Intel meint ja, ihre 6 oder 8 Kerne + HT sind das große neue Wunder und verkauft diese dann für gut und gerne doppelt so viel wie AMD. Von dem her...
 
Holt schrieb:
Den 9900k mit Cinebench zu zerlegen, sagt genau gar nichts über die Gamingperformance aus und es gibt nur wenige Leute die intensiv auf eine Mainstream CPU Cinebench spielen!

Doch, tut es.

Der Unterschied zwischen 2700X und 8700k bei 4 GHz zeigte schon, dass es kaum noch Unterschiede gibt. Der Verbrauch (bei jetzigem Test Zen2 vs. 9900k) zeigt deutlich, wieviel Luft nach oben ein Zen2 hat (130W vs 180W).

Und wenn man nicht gerade eine 2080(ti) hat, sinkt der Vorteil der Single-Performance der Intel-CPUs, da hier die Graka eher ans Limit läuft, als die CPU.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha
Holt schrieb:
Also ist der Score in Cinebench wertlos und keineswegs ein Verkaufsargument, wie AMD und seine Fanboy und Guerilla Marketing Bots (wie du) es hinstellen wollen.

Dein Niveau ist auch grade wieder auf Tiefflug, nicht wahr ? Andere als Guerilla-Marketing-Bots hinstellen, und selbst nur die Intel Flagge am schwenken.

Mach dich doch nicht immer so lächerlich.

Der 9900k, meinst du die CPU die sich so schlecht verkauft, weil sie preislich einfach nur peinlich ist ?
 
  • Gefällt mir
Reaktionen: Gortha, Max007, Rock Lee und 2 andere
Was heißt denn peinlich? Der 1800X hat damals auch 500 gekostet, nur dass er höchstens in Anwendungen schneller war als ein 7700K. Und der 1700 der vom Preis her gleichauf wie der 7700K war, der war nur in Anwendungen gleichschnell.
Und als der 8700k raus kam, war dieser günstiger als der 1800x

Da finde ich den Preis für den 9900K gar nicht so "peinlich", dafür dass er immer schneller ist.

Beim Zen 2 kann ich mir ja gut vorstellen dass der 3___X 8-Kerner Stock den 9900K in Cinebench schlägt, wobei der OCed 9900K bestimmt etwa gleichauf wäre.
Also 2200 CB R15 Punkte könnte ich mir beim Zen 2 8 Kerner bei 95W TDP schon vorstellen.
 
Zuletzt bearbeitet:
VelleX schrieb:
Was heißt denn peinlich? Der 1800X hat damals auch 500 gekostet, nur dass er höchstens in Anwendungen schneller war als ein 7700K. Und der 1700 der vom Preis her gleichauf wie der 7700K war, der war nur in Anwendungen gleichschnell.
Und als der 8700k raus kam, war dieser günstiger als der 1800x

Da finde ich den Preis für den 9900K gar nicht so "peinlich", dafür dass er immer schneller ist.

Ein 1800x war kein Gegenspieler zum 7700k. Er war der Konkurrent zum HEDT 8-Kerner von Intel (6900k). Dieser hatte sogar 1000 € gekostet. Trotz seines Preises war er in Spielen langsamer als der 7700k, und nun? Da war der 1800x im Vergleich ein Schnapper.

Der 9900k ist immer noch zu teuer. Er ist in der Regel 20% schneller als ein 2700x, kostete aber eine ganze Weile fast das doppelte. Da passt hinten und vorne nichts.
 
  • Gefällt mir
Reaktionen: Gortha, Ph4ntom, Denniss und 2 andere
Und ? Er bot 8-Kerne, kostete die hälfte von den 8 Intel Kernen und war ihnen mehr als gleichwertig.
 
  • Gefällt mir
Reaktionen: Gortha, Rock Lee, W0lfenstein und eine weitere Person
Holt schrieb:
Den 9900k mit Cinebench zu zerlegen, sagt genau gar nichts über die Gamingperformance aus und es gibt nur wenige Leute die intensiv auf eine Mainstream CPU Cinebench spielen!
ach holt ...
Spielkinder holen sich keinen 12/16 Kerner normalerweise , bei den Apps wird der 9900K total zerlegt , da sieht der schon beim 12 Kerner die Rücklicher des 12C nur noch aus weiter Ferne .
Zudem werden einige die bisher mit der HEDT geliebäugelt haben , aber nicht wirklich Verwendung für Quadchannel und die ganzen PCIe Lanes haben zum Ryzen 16 Kerner greifen

Der Ryzen 3700x 12 Kerner wird wohl nicht so viel kosten wie ein 9900K und einen höheren Basis Takt haben , der Boost wird wohl bis 5 Ghz gehen . Die Frage ist jedoch , kommt da noch xfr und PBO oberdrauf , quasi per Auto OC = 5,15 Ghz ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha
Denniss schrieb:
CB ist zumindest ein Indikator für Anwendungsleistungen (sofern da keiner beim Compiler gepfuscht hat um den eine oder anderen zu bevorzugen).
Cinebench ist sehr FPU lastig, die FPU Performance der Bulldozer und seiner Weiterentwicklungen war aber eher bescheiden. Damals kam von den AMD Fans die Theorie auf, dass CB auf Intel optimiert wäre und AMD benachteiligen würde und sowieso irrelevant zur Bewertung der Gesamtperformance wäre. Nur letzeres stimmt, auch wenn diese Leute aktuell das Gegenteil behaupten. Außerdem hat AMD schon eine deutliche Steigerung der FPU Performance bei Zen2 angekündigt:
Insgesamt verspricht AMD für einen "specific financial services workload which benefits from both integer and floating point performance" 29% IPC Steigerung:
Die Frage wird sein, wie viel dieser 29% bei gemischtem Integer und FP Workload auf die FPU Befehle entfällt und wie weit die IPC nur bei Integerbefehlen steigt.
Keine Ahnung wie weit diese Steigerung nur bei der Nutzung von AVX2 Befehlen die Leistung steigert, oder auch wenn normale FP Befehle abgearbeitet werden. Die FPU Performance von RYZEN ist ja schon sehr gut,wenn diese Zahlen stimmen sogar besser als bei Intel:
275 / 5,3GHz wären 51,89 Punkte/GHz, 231 / 4GHz wären 57,75 Punkte/GHz. Wenn AMD nun 50% mehr FPU Performance als bei Zen erreicht, so hat der Rechner in der Demo nicht einmal 2/3 der Taktraten des 9900K dafür gebraucht, wenn der 9900K mit den 4,7GHz Allcore lief, sind nur knapp über 3,1GHz nötig gewesen. Nehmen wir die 29% für den gemischten Integer und FP Workload den AMD nennt, wäre nur wenig mehr als die 3,6GHz nötig um etwa mit dem 9900K bei 4,7GHz gleichzuziehen.
ToflixGamer schrieb:
und da die Spielehersteller, wie OICW schon sagte, es kaum gebacken kriegen, mal mehrere Kerne/Threads zu nutzen
Das Problem ist, dass man eben nicht alle Algorithmen parallelisieren kann. Gerade bei Spielen gibt es viele Abhängigkeiten der Handlungen, wenn einer scheißt muss der Getroffene umfallen oder wenn einer beim Autorennen dem anderen ins Auto fährt, so muss etwas passieren. Man kann also diese Sachen nicht unabhängig voneinander berechnen, wie es bei Cinebench möglich ist, wo man ja regelrecht sehen kann, wie jeder Thread auf einem Teil der Daten vor sich hinrechnet. Da muss man mindestens eine Menge Synchronisierung zwischen den Threads betreiben, was zu Wartezeiten bei den Threads und damit einer schlechten Auslastung der Kerne führt.

Wer keine Ahnung von der Softwareentwicklung hat, der fordert immer wieder Dinge die schlicht gar nicht möglich oder nicht sinnvoll sind. Denn einen Thread zu öffnen, erzeugt einiges an Overhead und lohnt sich nicht für jede Kleinigkeit die parallelisiert werden könnte und immer wenn die Daten der Berechnung vom Ergebnis der vorherigen Berechnung abhängt, geht es gar nicht.
VelleX schrieb:
Also 2200 CB R15 Punkte könnte ich mir beim Zen 2 8 Kerner bei 95W TDP schon vorstellen.
Die einer CPU ist kein linearer Wert und ein Fertigungsprozess mit kleineren Strukturen bedeutet nicht automatisch das die Effizienz bei allen (besonders den höhen) Taktraten besser ist. Die alten FX aus der 32nm Fertigung wurde mit bis 5GHz Takt verkauft, aber versucht man einen RYZEN aus 14nm oder 12nm Fertigung auf 5GHz zu prügeln, da muss man aber bei der Kühlung ganz andere Geschütze auffahren, denn die laufen irgendwo bei 4,3 bis 4,5GHz regelrecht an eine Wand wo man für kaum noch mehr Takt dann extrem viel mehr Leistungsaufnahme hinnehmen muss, weshalb dies auch kein Mensch macht.

Bei 5GHz hat der alte FX also weniger Leistungsaufnahme als ein RYZEN, aber bei 3GHz ist es umgekehrt. Die Leistungsaufnahme bei den jeweiligen Taktraten skaliert eben bei unterschiedlichen CPU Architekturen und Prozessen nicht in gleicher Weise und für 10% mehr Takt braucht man nicht nur 10% mehr elektrische Leistung, sondern mehr als diese 10% und umso höher der Takt wird, umso deutlicher wird die Leistungsaufnahme überproportional zum Takt steigen. Mess mal die Leistungsaufnahme bei 3GHz und dann bei 3,3Ghz und wiederhole das bei 4 und 4,4GHz, dann sollte klar werden, was gemeint ist.

AMD hat den RYZEN 3000 bei der Demo an einem Betriebspunkt gezeigt, wo die Effizienz gut ist und genau dies gezeigt, die Frage wie viel Leistung er hat wenn es mit einer Leistungsaufnahme von 95 oder 105W betrieben wird, kann keiner aus der Demo ableiten, ebenso wenig wie jemand jetzt schon erraten könnte, wie hoch die Taktraten maximal gehen können. Der kleine 7nm Fertigungsprozess hat nämlich auch den Nachteil, dass die Fläche auf der die Wärme entsteht, damit auch sehr klein ist.

Wenn sich AMD also entscheiden hat die gute Effizienz zu zeigen, obwohl vielen Enthusiasten die Effizienz hier egal ist, sonst würden nicht so viele Leute ihre CPU übertaktet betreiben, so kann es durchaus sein, dass ein übertakteter RYZEN 3000 8 Kerner einem übertakteten 9900K gar nicht gewachsen ist, denn sonst wäre es ja viel interessanter gewesen dies zu demonstrieren. Vielleicht lief die CPU in der Demo gerade mit 3,7GHz und es dann wie bei den bisherigen RYZEN eine regelrecht Wand gibt. bei den bisherigen RYZEN ist die Kurve der Leistungsaufnahme bei steigendem Takt ja fast wie ein Hockeyschläger. Wir wissen nicht, ob dies bei den Zen2 auch so ist und wenn, ab welchem Takt eine weitere Taktsteigerung keinen Sinn mehr macht, weil die Steigerung der Taktrate in keinem Verhältnis mehr zur Steigerung der Leistungsaufnahme steht.
 
  • Gefällt mir
Reaktionen: ToflixGamer und OICW
@Holt : Danke für die Erklärung bei den Spielen, kann es jetzt nachvollziehen warum sich nicht soviel tut.
 
  • Gefällt mir
Reaktionen: ToflixGamer
@Holt

Das ist mir schon klar. Ich habe auch einfach nur mal mit maximal 10% mehr leistung bei zb 40% mehr Stromverbrauch gerechnet.
Der 2700x mit 105w TDP verbraucht mit fast 200W in cb im Vergleich zum 2700 mit 65W TDP und 125W zb fast 60% mehr. Bei allerdings 17% mehr leistung.

Weiß allerdings nicht ob da PBO aktiv war beim test des 2700X und den fast 200W.

AMD selbst hatte doch bei zen 2 angegeben 25% mehr leistung bei gleichem Verbrauch. Allein das wären schon 2250 Punkte ausgehend von 1800 beim 2700x.

Kann natürlich auch auf Grund der höheren kernzahl gemeint sein, bei Niedrigen aber effizienteren Taktraten.
 
Aldaric87 schrieb:
Dein Niveau ist auch grade wieder auf Tiefflug, nicht wahr ? Andere als Guerilla-Marketing-Bots hinstellen, und selbst nur die Intel Flagge am schwenken.

Mach dich doch nicht immer so lächerlich.
Immerhin zeigt er jetzt mal sein wahres Gesicht und fährt die persönliche Schiene, als sich ständig hinter irgendwelchen Textwalls mit teilweise (nicht ausschließlich) Scheinargumenten zu verstecken. Ich nehm die Beleidigung mit Humor.
Nicht viele schaffen es bei einen Beitrag, in dem es lediglich um die Release-Timeline und Zusammenfassung der Gerüchte ging, sich an dem Wörtern "9900k zerlegen" so getriggert zu fühlen, dass man einfach mal komplett das Thema wechselt und die verbale Blutgrätsche auspackt;)

So und um diesen Beitrag nicht völlig ins Offtopic rutschen zu lassen:
@MK one Ich habe hier noch einen ganz interessanten Kommentar zu deinem verlinkten Techpowerup-Link gefunden.
https://www.reddit.com/r/Amd/comments/b4q01o/a_quick_analysis_of_the_new_zen_2_bios_options/
Man muss kurzgesagt zwischen MEMCLK, FCLK, und UCLK unterscheiden.
 
  • Gefällt mir
Reaktionen: Gortha
VelleX schrieb:
Ich habe auch einfach nur mal mit maximal 10% mehr leistung bei zb 40% mehr Stromverbrauch gerechnet.
Nicht gerechnet, sondern unterstellt oder angenommen. Aber keiner von uns weiß bisher wie viel Mehrleistung eine RYZEN 3000 Desktop CPU die bei 75W läuft, bei 40% mehr Leistungsaufnahme bei welchem Benchmark erreichen wird. Dies können 10% sein, aber auch noch weniger oder noch viel mehr, 40% werden es aber mit Sicherheit sind sein, aber vielleicht 20% oder 25%? Oder nur 5% weil AMD die CPU in der Demo kurz vor dem Punkt betrieben hat, wo die Leistungsaufnahme massiv steigt, wenn man den Takt weiter steigern will? Ich weiß es nicht, aber Du weißt es auch nicht. Vielleicht schaffen die keine 4GHz, aber die 8 Kerner haben damit die Leistung wie ein 9900K mit 5GHz, vielleicht aber auch nur bei FP und nicht bei Integer, keine Ahnung, wir werden die neutralen Reviews abwarten müssen, auch wenn hier viele die kleinen Kinder in der Vorweihnachtszeit wirken und manche ihre Wunschzettel auf Youtube und in den Foren als Fakten verkaufen.
 
Zurück
Oben