News AMD Ryzen 9 7950X („Raphael“): Gerüchteküche spricht von bis zu 5,7 GHz

Nixdorf schrieb:
Da der Cache aber auch Bestandteil der CPU ist, halte ich das für eine legitim ermittelte Abweichung, wenn man die ganze CPU bewerten will, und nicht nur die Rechenkerne.
Falsch ist ein hartes Wort, wenig hilfreich eher. Es wird halt ein RAM/Cache Benchmark mit langsamen übergang zum IPC Benchmark.

Phoronix hat viele Microbenchmarks, die nur kleine Teilbereiche einer CPU testen, ich denke das dürfte ganz gut Richtung IPC gehen, wobei ich von den Programmen selbst wenig verstehe (habe keinerlei Berührungspunkte damit)
 
Zuletzt bearbeitet:
Rockstar85 schrieb:
@Taxxor
Spiel dann weiter Cinebench.. Ich bin da schon weiter und beobachte sehr interessiert, was da an Werte eintrudeln.
Es ist echt schwierig mit dir...

Ich habe mich über den gesamten Verlauf immer klar auf Cinebench bezogen. Wenn du hier Erwartungen anzweifeln willst, dann haben Gaming oder andere Anwendungen zu dem Zeitpunkt in der Diskussion doch überhaupt nichts verloren.
Wenn du mit mir darüber reden willst, dann fang die Unterhaltung so an wechsle nicht einfach mittendrin das Thema auf einen anderen Benchmark, bei dem es auch um andere IPC- und Performancesprünge geht, über die ich nie geredet habe.

Rockstar85 schrieb:
Und ich sag es immer noch, es steht da ein Größer vor.. Das heisst immer noch, dass es mehr als 15% sind. Herrgott nochmal, Mathe

Sind die 19% die ich nun für Cinebench aufgrund der gestiegenen Taktraten erwarte etwa nicht mehr als 15%?

Mir scheint du hast ein Problem mit deiner Wahrnehmung, so oft wie ich das ">" nun in den letzten Wochen schon in meinen Posts erwähnt habe und du offenbar immer noch der Meinung bist, ich würde es ignorieren.
 
Mir war beim 5900X schon mulmig mit dem Verbrauch, aber wenn der 7900X nochmal deutlich mehr konsumieren wird, ich weiß ja nicht das gefällt mir nicht.

Aber abwarten was der Test dazu sagen wird, darauf freue ich mich schon sehr.
 
Rockstar85 schrieb:
Warum nicht? Der Bench ist Valide, wir kennen nur die Rahmenbedingungen nicht..
Genau deswegen.

Rockstar85 schrieb:
Den Aufwand den sich der Ersteller des UB gemacht hat, um AMD zu diskreditieren, macht man nicht für einen Fake. Das ist Fakt.
Ist für mich kein Fakt, aber okay und mit der Anschuldigung geh ich auch nicht unbedingt mit. Ich kenne die Beweggründe dieser Person nicht.
Ob es ein Fake war oder valid, lässt sich so nicht sagen. Für mich passt es aber nicht zu AMDs präsentierten Werten und deshalb halte ich es für Fake.

Rockstar85 schrieb:
Selbst wenn es ein 7600X mit DDR6400 ist, dann ist es eben immer noch ein valider Test. Und das reicht nun mal für ADL. Das ist ein Fakt, den auch du nicht wegdiskutieren kannst.
Auch die Werte der offiziellen Präsentation reichen für ADL. Ich glaube, dass niemand davon ausgegangen ist, dass ZEN4 langsamer als ADL seien wird.
 
UB ist Latenzkritisch also ist das interessanter als CB... Ja CB hat AMD gesagt wert xY.. Aber nochmal: Da stand immer noch ein größer. Mindestens heisst das. Also kennen wir nicht den Gesamtzuwachs.. Wenn AMD nun sagt: das Modell hat andere Werte als wir mal sagten und sind höher, dann ist das eben so.
Ich finde immer wieder verwunderlich warum dann manche Leute nicht gleich bei AMD und Intel anfangen.
Wartet doch einfach mal ab und vor allem: lest richtig!


@owned139
Sie müssen aber für RPL reichen, das ist der Knackpunkt.. Denn wie wir ja eindrucksvoll sehen, kauft eben der Großteil: Schneller ist besser.
ADL muss AMD packen, in Schlagdistanz zu RPL zu kommen bedeutet am Ende nur, dass X3D eben nicht schon 2023/24 kommen muss, sondern später.
 
  • Gefällt mir
Reaktionen: DevPandi
Colindo schrieb:
Ich finde diese Rechnung, vor allem angesichts des berüchtigten Größer-Zeichens, sinnvoller. Mal sehen, was im finalen Produkt tatsächlich ist.
Ich glaube eher, dass AMD bei der ersten Präsentation noch mit einem ES getestet hat und die finalen möglichen Taktraten und Co noch nicht bekannt waren. Sie wussten, dass sie 5.5 GHz schaffen - Spiele gezeigt - aber das bedeutet nicht, dass auch der Cinebench-Benchmark auch mit 5.5 GHz lief oder dass er etwas früher der Wert ermittelt wurde.

AMD wusste, dass sie gegen RaptorLake antreten werden und AMD wird - wie Intel - am Anfang noch nicht alles herausgelassen haben, um nicht dem Konkurrenten zu viele Einblicke schon zu geben. Intel hält sich ja bei RaptorLake selbst auch vergleichsweise bedeckt.
owned139 schrieb:
Und vor allem, warum erst jetzt? Intel war schon immer ordentlich im Verbrauch. Bei ZEN1/2 hat man da auch nicht mitgezogen, nur um den längeren Balken zu haben.
Nein, Intel war nicht immer ordentlich im Verbrauch. Zu Zen und Zen+ hat Intel die TPD als PL2 angeben. Bei den 7000er und 8000er galt "vereinfacht" PL2 = TDP. Erst mit der 9000er und 10000er hat Intel PL2 - also mit dem Aufkommen von Zen 2 - hat Intel PL2 wirklich über der TDP-Klasse angesetzt und die Mainboard-Hersteller auch die "zeitliche" Begrenzung gelöst.

AMD hat AM4 zu einer Zeit entworfen, als Intel sich mit x < 125 W bei der TDP begnügte und der Turbo auch nur in diesem Rahmen agierte.
owned139 schrieb:
Ich glaube eher, dass man den Weg gegangen ist, weil bei der IPC nicht viel rumkam und es traurig gewesen wäre,
AMD hat bereits das Mittel - 8 % - bekannt geben, das sind zwar keine 20 % - wie vorher bei Zen 2 und Zen 3 (etwas übetrieben) - oder den 20 %, die Intel mit RocketLake und AlderLake brachte. Es ist aber "okay".

AMD geht diesen Weg, weil Intel diesen Weg gegangen ist. Intel ist diesen Weg damals gegangen, weil sie die längsten Balken in den Benchmarks haben wollten. AMD geht diesen Weg nun auch, weil sie versuchen den längsten Balken in Benchmarks zu bekommen.
owned139 schrieb:
Wäre auch nicht mehr drin gewesen, wenn man das beim Design der CPUs mit berücksichtigt hätte?
AMD wusste damals, dass sie mit Zen SkyLake nicht schlagen können, warum also mit der Brechstange es versuchen? Bulldozer galt als ineffizient und wurde von AMD über das sinnvolle hinaus geprügelt. AMD wollte dieses Bild nicht erneut erzeugen, das wäre für Zen damals fatal gewesen, denn jede Techseite hätte dann Zen zerrissen, wenn sie zwar "SkyLake" schlagen, aber dafür deutlich mehr Leistung gebraucht hätten. Der Rückstand von 15 % bei Spielen (gemittelt) bei Spielen bei einem ähnlichen Verbrauch hat man hingenommen, vor allem weil AMD wusste, dass man Zen auch mit Bulldozer vergleicht und da war der Effizienzgewinn dramatisch und entsprechend wurde akzeptiert, dass AMD zwar "ineffizienter" war als SkyLake, gleichzeitig hat man aber gesehen, was AMD kann und wusste dann auch, dass der "Rückstand" aufholbar ist, der damals herrschte.

Und da der längste Balken bei Benchmarks immer noch eine massive Werbekraft hat und die meisten es nicht interessiert, wie diese Balken zustande kommen, das wird ja auch nicht in der Werbung erwähnt, nutzen beide nun eben genau das, was sie nutzen können.
Perdakles schrieb:
Weil die Fertigungsprozesse leider nicht mehr so große Schritte machen wie früher und die Kunden trotzdem die zuletzt gewohnten Leistungssteigerungen in jeder neuen Generation sehen wollen.
Oh, das hat an der Stelle nicht unbedingt etwas mit den Kunden zu tun, und dass die ja weiter ihre gewohnten Leistungssteigerungen sehen wollen. Als AMD mit Bulldozer zu knabern hatte, hat Intel auch keine Probleme gehabt pro Generation nur ca. 10 % zu liefern. 3770K war damals nur 5 % schneller, der 4770K war 6 % schneller und auch zwischen dem 4770K und dem 6700K lagen dann ca. 10 %.

Den Kunden ist es in der Regel egal, ob eine neue Generation 5 %, 10 % oder 15 % schneller ist. Den meisten Kunden wäre es sogar recht, wenn nicht jedes Jahr oder alle 2 Jahre "neue Hardware" kommt, sondern die Abstände sogar noch größer wären, weil sie dann weniger Geld ausgeben würden.

AMD, NVIDIA und Intel kämpfen um den Kunden und entsprechend versuchen sich die Firmen zu übertrumpfen, um Kunden zu gewinnen. Der Kunde ist zwar auch in dem Fall durchaus die Ursache dafür, dass die Firmen so agieren, gleichzeitig ist den meisten Kunden es aber eigentlich egal.

Karten der Klasse > RTX 3080 - bald 4080 - sowie > RX 6800 oder Prozessoren wie der 5800X(3D) oder 12900 und bald der 13900K und die 6900 und 6900 X sind für die meisten Kunden vollkommen irrelevant und eigentlich zu teuer.

Diese Produkte, die Balken und wie viel schneller, ist für Hardwarefreaks interessant, die PC als ihr Hobby ansehen, aber das ist eine echt kleine Gruppe.

Ich kenne so viele Menschen, die geben sich mit 30 - 60 FPS bei Spielen zufrieden, die leben sogar mit mittleren Einstellungen und hängen noch bei FullHD.
Laphonso schrieb:
Also ist es nicht Intels "Schuld", sondern die der Kunden, richtig?
Bedingt sind wir Kunden wirklich Schuld, wir lassen uns oft von bestimmten Zahlen blenden, aber wir Kunden zwingen Intel, AMD und NVIDIA nicht dazu, aber die Psychologie und der Werbeeffekt. ;)
Laphonso schrieb:
Solange "der Markt" mehr Performance möchte, wird das abgeliefert.
Ist es wirklich der "Markt" der mehr Performance will - also wirklich der ganze Markt? Ich glaube, hier ist eher der Wettbewerb zwischen den Anbietern, die eben immer mehr Leistung bringt.

Entwickler von Software sind findig und arrangieren sich auch mit Leistung und der große Teil des Marktes? Die kaufen neue PCs und Co oft in der Regel nur noch, weil entweder die Geräte kaputtgehen oder man halt nach "x-Jahren" mal was Neues will.

Ich hab einige Freunde, die zwar gerne am PC spielen, aber teilweise Rechner haben, die sind 5 - 8 Jahre alt, da wird halt dann die Einstellung runtergeregelt und man kommt halt auch mit 30 - 60 FPS ans Ziel.

Es ist immer wieder interessant, wenn man mal mit nicht Hardware-Freaks sich unterhält und wie "genügsam" die Leute sind.
 
  • Gefällt mir
Reaktionen: Hawk1980, Wattana, Colindo und 10 andere
@DevPandi
Richtig..Und sollte wirklich mal X86 fallen, dann sieht das nochmal anders aus
Spannend ist in meinen Augen, dass ADL schon zeigt, dass BigLitte und X86 einfach nichts taugt, weswegen der Konsequente Step zu X64 dafür notwendig ist. Mal schauen, ob wir dann in 15 Jahren endlich X86 beerdigt haben.
 
Rockstar85 schrieb:
UB ist Latenzkritisch also ist das interessanter als CB... Ja CB hat AMD gesagt wert xY.. Aber nochmal: Da stand immer noch ein größer. Mindestens heisst das.
Langsam komme ich mir vor als würde ich mit einem Demenzkranken schreiben oder warum vergisst du immer wieder, dass ich weiß, dass dort ein > steht und wiederholst es ständig?

Meine 19% für Cinebench sind ebenfalls >15%, also ist doch alles gut.

Dass es in dem Szenario von UB je nachdem wie die CPU und der RAM konfiguriert war, auch >50% sein können, ist ja durchaus möglich, das hab ich auch nie bestritten, denn ich hab ja nicht darüber geredet.
 
  • Gefällt mir
Reaktionen: Colindo
Nixdorf schrieb:
Aber ergibt dann ein 12900KS statt einem 12900K noch irgendwie Sinn?
Wenn mit Luft gekühlt wird dann auf jeden Fall aber ergibt eine 750€ CPU jemals einen Sinn ?
Die bessere Chip Güte des 12900KS ist für mich auf jeden Fall 100€ Aufpreis zum 12900K Wert
denn beim Bauer müsste man für einen 12900K mit 5,2Ghz Garantie bestimmt 1000€ zahlen. :lol:
 
Gut wunderbar Taxxor und wieso behauptest du dann eben am Ende deines Textes, dass man sich auf Cinebench zu beziehen hat? Seit wann sind Herstellerbenchmarks nun neuerdings die Wahrheit? (wie es Owned meinte)
Und den Demenzkranken kannst du direkt wieder löschen, sonst muss ich doch mal den Mod bemühen. Sorry aber DAS ist kein Feiner Stil und ich beleidige dich ebenso wenig.
Sorry Leute, aber so muss sich keiner wundern, wenn er auf der ignore landet.
 
Rockstar85 schrieb:
Spannend ist in meinen Augen, dass ADL schon zeigt, dass BigLitte und X86 einfach nichts taugt, weswegen der Konsequente Step zu X64 dafür notwendig ist.
Nichts taugt stimmt nicht.
Es zwingt AMD ihren neuen 5nm 16 Kerner mit mehr Power denn je zu Betreiben, denn sonst könnten Sie mit den 8+16 nicht mithalten. Wenn Intel bei 8+8 geblieben wäre, dann hätten wir sicher einen 7950X mit 125W TDP, statt 170W TDP.
Es ist ein Mittel zum Zweck und für Intel wohl der einzige Weg.
 
ich weiß ja nicht.
schön dass neue cpu's kommen und die technik vorrangeht...ohne frage.
aber an cpu leistung hat es zuletzt ja nicht gemangelt, oder?

jetzt wo sich das gaming mehr und mehr zu höheren auflösungen verschiebt, sind eher effiziente und potente gpu's gefragt...
 
MortalTeamwork schrieb:
Über weniger Watt würde ich mich freuen. 😉

Ich auch. Wobei es bei mobile Laptops mit passiver Kühlung am dringend geworden ist. AMD - und mehr noch Intel - sind von Apples M1 stehen gelassen worden. MacBook Air ist lüfterlos. Ein lüfterloses ThinkPad? Das X13s gibt es tatsächlich. Aber eben mit Qualcomms ARM-Chip, was besonders bei Windows mit quellgeschlossenen Anwendung ein Nachteil ist und darüber hinaus fehlt offizielle Linuxunterstützung. Die quellgeschlossenen Kernelmodule von Qualcomm sind ja schon bei Smartphones ein großes Problem.

Zen4 bringt uns hoffentlich lüfterlose X13 und T14. Im Jahr 2022 sind Lüfter in mobilen Laptops nur noch nervig. Und Strom verbrauchen die Dinger auch noch, den Stecke ich lieber in die Laufzeit.

Insbesondere beim Basis- und Boost-Takt...
Das ist wichtig und gut so. Der Basistakt ist entscheidend beim Kompilieren, Spielen oder Transkodieren. Der Boost-Takt hilft wenig. Zum Glück hat sich in anderen Bereichen das Konzept Vmax gleich Vconst gehalten (Luftfahrt, Bahn, Auto).
 
Zuletzt bearbeitet:
Taxxor schrieb:
Das war eben das was nach AMDs Zahlen in Cinebench rausgekommen ist, wenn man von den 5.5GHz ausgegangen ist.
Aber üblicherweise hört man mit Zahlenspielen auf, wenn man mitbekommt, dass die Zahlen nicht zusammenpassen. Und dass die Zahlen die AMD genannt hat, nicht zusammenpassen ist offensichtlich.
 
  • Gefällt mir
Reaktionen: Colindo und Rockstar85
@bad_sign
Ich schaue mir die Effizienz des M2 an und muss sagen: Doch leider ja. Denn X86 ist einfach nicht für solche Lösungen erdacht.. Windows müsste dafür viel Konsequenter die Verwaltung der Thread überwachen, das sehen wir bisher eher nicht.
 
Zuletzt bearbeitet: (Edit)
von realen 76 Watt zu 142 Watt und von 142 Watt zu 230 Watt..

selbst meinen 5600x brachte ich @Default und einem Dark Rock Pro 4 schon auf über 80 Grad in einem normalen Gehäuse. Ohne Airflow geht da nichts mehr.. und dann jetzt noch deartig mehr..

Stellt man die TDP von früher ein, bleibt von der Performance wahrscheinlich nicht mehr viel Plus übrig. Was für eine Entwicklung.. bin gespannt ob sich das Zeug bei uns auch noch verkauft, wenn wir mal 60-70cent/kwh haben.

Im Single Core immer höhere Temperaturen und Leistungsaufnahme. Da gibt es wieder viele "der Lüfter dreht beim Spielen auf und ab" Meldungen oder v.a. beim Browsen, YT schauen wo meistens nur 1-2 Threads arbeiten und boosten.
 
Rockstar85 schrieb:
@bad_sign
Ich schaue mir die Effizienz des M2 an und muss sagen:
Das ist doch Blödsinn. Warum sollte ein so aufgebohrter x86 Kern nicht mit einem ARM Kern mithalten können?
Ein 6800U in 6nm ist nicht so weit hinter M1/2 hinterher. Lass uns doch auf ein 5nmLP gefertigten Zen4 warten. Das hätte eine solide Vergleichsbasis

@opoderoso sind deine Lüfter aus? Die 50-60W im Gaming lassen sich sehr leicht mit einem DRP4 weit unter 80°C halten. Hatte beim Kumpel genau die Kombo verbaut, Gaming meist 60 +-5
 
@bad_sign
Kannst du machen, aber X64 wird eh ab spätestens 2030 Alleinstelllung haben
Und dann muss der 7800U ja auch noch die gleiche perf/w haben, und da sehe ich schwarz.

@opoderoso
Sorry aber selbst wenn du ihn auf 80W PTT bremst, wirst du eher bei der ST Power eines X3D rauskommen, als eines 5600X.. Und dass der Dark Rock das nicht schafft, mag ich fast nicht glauben.. Mein Macho RevB macht das mit Leichtigkeit mit einem 5700X, der dürfte nicht besser sein als der Dark Rock
 
SVΞN schrieb:
Ryzen 5 7600X6/124,7 GHz5,3 GHz36 MB
Der 6-Kerner muss 38MB haben, wenn der 8-Kerner 40 MB hat. 2 Kerne weniger-> 2 MB weniger Cache, den die CPU hat ja 1 MB L2 Cache pro Kern. Oder anders ausgedrückt: 6MB+32MB=38MB
 
  • Gefällt mir
Reaktionen: SVΞN
In MT hat ein 6800U bereits heute gleiche perf/w, nur ST ist M1/2 deutlich voraus mit 3,2 GHz und 7W.
Wobei nicht ganz klar ist, was genau alles bei diesen Softwarereading dabei ist.
 
Zurück
Oben