Notiz CPU-Gerüchte: AMD Raphael mit 16 Kernen bei 170 Watt TDP

Taxxor schrieb:
Dagegen spräche, dass man dafür halt selbst Hand anlegen muss, statt out of the Box eine effiziente CPU zu bekommen.
Dafür spräche hingegen, dass man out if the Box eine leistungsstarke CPU bekommt. Und nun?
 
Jetzt mal den Skalierungsfaktor, der zum realen Verbrauch führt (PPT), außen vor gelassen. Von 105W TDP nach 170W TDP sind satte 62% Steigerung. Selbst wenn der Skalierungsfaktor sich später unterscheiden sollte, wird sich das Verhältnis nicht großartig ändern.

62% Steigerung der TDP, aber nur 33% mehr Kerne, das ist offensichtlich Brechstange. AMD hat was vor, irgendwas marketingtechnisches in Richtung "16 Kerne mit unglaublichen 5GHz in Cinebench, bähm, eat this!". Man will offensichtlich Raptor Lake ärgern. Mit 5GHz und 20% IPC sind 40-45% mehr Leistung möglich in Cinebench, das wird ein 13900K mit 8 zusätzlichen E-Cores wohl eher nicht aufs Parkett legen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: owned139, DevPandi und Innocience
hahaqp schrieb:
Hier im Forum herrscht im Bezug aufs Gaming eh eine faszinierende "Geilheit" auf CPUs. Dabei sehen wir mit jedem CPU Test (zuletzt AL) wieder, dass, zumindest in den hohen Auflösungen, die CPU mehr oder weniger irrelevant ist. Selbst eine 3090 rennt in 4K ja voll ins Limit. In UHD liefert ein 12900k im Vergleich zu meinem ollen 7700k stolze 14% mehr max. FPS und 30% bessere Frametimes. Dafür paar hundert Euro ausgeben? Nee, danke.
Das ist immer sehr subjektiv.

Wenn auf einer Autobahn 130 gilt, dann fährt die ein Opel Astra auch. Ein 911 Turbo S natürlich ebenfalls. Der Porsche kostet jedoch so viel wie 8 Opel Astra. Ankommen wird man mit beiden. Und nur weil man in 4 Sekunden auf Tempo 130 ist, statt in 16, zahlt man doch keine 210.000€ Aufpreis für die paar Sekunden.

Ich schon =D (wenn ich könnte).
 
Was mich bei beiden Herstellern nervt ist die Tatsache, dass die CPUs mit der höchsen Single-Core-Leistung i.d.R. auch die meisten Kerne haben. Sorry, aber meiner Meinung nach brauchen Leute, die z.B. 16 Kerne und mehr ausgelastet bekommen, selten die höchste Single-Core-Leistung.

Das ist eine Willkür, die manche Zocker quasi dazu "zwingt", unnötige Kerne zu kaufen. (Ich weiß, niemand wird gezwungen)

Und natürlich wehrt sich AMD gegen Intel mit allen Mitteln. Dass die TDP das heutige Mittel ist, ist schei..., äh schade. Aber die gleiche Entwicklung sehen wir ja auch bei Grafikkarten.
 
  • Gefällt mir
Reaktionen: Beitrag, Innocience und .Sentinel.
@tollertyp
Das liegt an der Natur der Dinge seinen Spitzen Modellen nicht zu kannibalisieren, nur wer wegen 100-200Mhrz eine doppelt so teure CPU kauft hat in meinen Augen rein ums Zocken irgendwie ein falsches Bild der Computer.
lg
 
tollertyp schrieb:
Was mich bei beiden Herstellern nervt ist die Tatsache, dass die CPUs mit der höchsen Single-Core-Leistung i.d.R. auch die meisten Kerne haben. Sorry, aber meiner Meinung nach brauchen Leute, die z.B. 16 Kerne und mehr ausgelastet bekommen, selten die höchste Single-Core-Leistung.
Interessanter Denkansatz. Da ist was Wahres dran.
Jedoch- Wenn wir mal spiele Workloads nehmen hast Du 1-2 Mainthreads, die alle anderen Nebenthreads versorgen.
Die haben mit jedem zusätzlichen Kern mehr Verwaltungsaufgaben zu übernehmen, um die Informationspipeline am Laufen bzw. synchron zu halten.

Insofern sorgt in der Praxis dann doch leider ein einzelner Kern dafür, dass man ins CPU Limit läuft, obwohl der Prozessor im Schnitt wenig ausgelastet scheint. Und je mehr man diesen Kern aufbohrt, umso weniger wird er zum Flaschenhals, wenn viele andere Kerne durch diesen mit Aufgaben versorgt werden müssen.

Da sind die granularen Möglichkeiten der neuen CPUs schon ein Segen. 1-2 Kerne maximal prügeln und den Rest damit ungestört füttern.

Ich bin diesbezüglich auch ein großer Freund des Hybrid- Ansatzes.
Latenzkritische Aufgaben mit höchster Singlecore- Leistung verarbeiten und den Rest auf die anderen Kerne verteilen. Low priority Tasks und Hintergrundrauschen (Teamspeak, Virenscanner, Browser) dann auf die stromsparenden Kerne verlegen und damit Interrupts auf den anderen Kernen verhindern.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Da sind die granularen Möglichkeiten der neuen CPUs schon ein Segen. 1-2 Kerne maximal prügeln und den Rest damit ungestört füttern.
Aber das passiert ja nicht. Die P-Cores eines 12900K kleben bei 4.9GHz in Games. In extrem singlecore-lastigen Spielen, geht das auch mal rauf auf 5.1GHz. Das ist aber sehr selten.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Esenel schrieb:
Haha.
Und wie sich im Thread des 12900 über eine solche Leistungsaufnahme aufgeregt wurde.

Da bin ich nun gespannt was die Argumente sind, die eine solche Leistungsaufnahme auf Seiten AMDs gut heißen.
Entscheidend ist, was bei dem Verbrauch am Ende bei rum kommt. Beim 12900K hat man eben die Effizienz völlig über Bord geworfen, um aus der CPU genug Leistung für ein hochpreisiges Flaggschiff herausquetschen zu können. Klar gefällt das nicht jedem.
Ich finde den 12700er viel runder.
 
Zer0Strat schrieb:
Aber das passiert ja nicht. Die P-Cores eines 12900K kleben bei 4.9GHz in Games. In extrem singlecore-lastigen Spielen, geht das auch mal rauf auf 5.1GHz. Das ist aber sehr selten.
Ja- Das ist das Korsett in welches man die CPU stock zwängt.
Wenn man aber mal ein wenig rumexperimentiert und bei Spielen, die für viele "unerklärlich" im CPU Limit hängen, den favored cores mal die Sporen gibt, dann sieht man, dass der Flaschenhals oftmals die Singelcore- Leistung nebst dem gesamten i/o Gedöns drumherum die Ursache ist.

Ich bin gespannt, wie da das Powermanagement bei den neuen AMD CPUs aussehen wird. Generell finde ich das schon cool, wie es die Sensorenpahalnx schafft, inzwischen wirklich viel aus dem Silizium rauszuholen.
 
Finds da eher schade, dass die CPUs im Gegensatz zu ARM und eben Apple einfach noch mehr Strom verbrauchen müssen, um weiter Leistung zu bieten. Zumindest wirkt es oft so. Die Architektur kann ja eher solala sein, solange man kleiner bauen kann. Intel hat ja bewiesen, dass sie sehr gute Architekturen (und Gesamtsysteme) abliefern können und Mehrleistung bieten, auf der selben Baugröße.

AMD kann das natürlich auch - doch fehlt mir oft die Effizienz - AMD 3000er und 5000er Systeme brauchen im Idle oft mehr Strom als so mancher Mac in Volllast. Intel konnte auch erst mit dem 12000 aufholen was das angeht, waren aber tendenziell glaube ich immer besser. Hat ja auch was mit dem Gesamtsystem zu tun.

Persönlich sehe ich den Punkt der "mindestens durchschnittlich benötigten Leistung" bei CPUs längst überschritten für den normalen User - fände hier kleine elegante und sparsame Systeme schon eher interessant. Ein aktueller Hexacore aus dem Laptop bietet bei halben Stromverbrauch doppelte Leistung zu meinem Quadcore aus 2015 mit dem ich noch immer Videos machen kann. Das würde aber bedeuten: Systeme können kleiner werden und weniger Strom verbrauchen. Und da sind wir schon wieder bei Apple... aber das ist nicht meine Welt...
 
.Sentinel. schrieb:
Ja- Das ist das Korsett in welches man die CPU stock zwängt.
Wenn man aber mal ein wenig rumexperimentiert und bei Spielen, die für viele "unerklärlich" im CPU Limit hängen, den favored cores mal die Sporen gibt, dann sieht man, dass der Flaschenhals oftmals die Singelcore- Leistung nebst dem gesamten i/o Gedöns drumherum die Ursache ist.
Ich habe unzählige Stunden an Benchmarks gesessen und Daten analysiert, eines hat mich dabei stets gewundert, nämlich wie gleichmäßig die Kerne bei modernen Spielen takten, dabei gibt es ja, wie du sagtest 1-2 Mainthreads, die am Ende limitieren. Wie selten man den höchst möglichen Boost sieht, ist echt überraschend für mich. Aber Spiele hängen immer noch sehr stark am Speichersystem. Ich baue gerade eine Erweiterung, um die Hitrates des L3 Caches mittracken zu können. Da ist immer noch viel Luft nach oben und so Golden Cove Monster-Cores werden oftmals ausgebremst durch Wartezyklen.
.Sentinel. schrieb:
Ich bin gespannt, wie da das Powermanagement bei den neuen AMD CPUs aussehen wird. Generell finde ich das schon cool, wie es die Sensorenpahalnx schafft, inzwischen wirklich viel aus dem Silizium rauszuholen.
Die Sensorik von modernen CPUs ist der Wahnsinn, aber Peak Boost Verhalten in Games kann man eher nur sehr selten beobachten.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Esenel
Bei den aktuellen Strompreisen begrüße ich die Veränderung überhaupt nicht. Dass man Verbrauch eine Eigenschaft von Hardware ist, auf die ich Wert lege hätte ich vor 5-10 Jahren auch nicht gedacht.....

Bin gespannt wie sich das Ding kühlen lässt, kleine Fertigung wäre doch mehr Hitze auf kleinerer Fläche, oder irre ich da? Mein 5950X geht unter Wasser ja schon stellenweise auf 71°C.
 
  • Gefällt mir
Reaktionen: therealcola
tollertyp schrieb:
...

Und natürlich wehrt sich AMD gegen Intel mit allen Mitteln. Dass die TDP das heutige Mittel ist, ist schei..., äh schade. Aber die gleiche Entwicklung sehen wir ja auch bei Grafikkarten.

Das eigentliche Problem ist hier, dass Strom noch nicht teuer genug ist, damit effektive CPU´s/GPU´s höher gewichtet werden. Solange nur Speed zählt, egal was der Strommesser anzeigt, solange sind wir leider noch keinen Schritt weiter in punkto Stromeinsparung.
 
Zer0Strat schrieb:
Ich habe unzählige Stunden an Benchmarks gesessen und Daten analysiert, eines hat mich dabei stets ..
Die Sensorik von modernen CPUs ist der Wahnsinn, aber Peak Boost Verhalten in Games kann eher nur sehr selten beobachten.
Sind wir wieder beim Scheduler und vor allem der Messbarkeit in Sachen Kernen. Solange ein Algorithmus die Threads auch innerhalb der Cores immer und immer wieder umschaufeln kann, um z.B. Hotspotbildung zu vermeiden, wird es schwierig das zu tracken.

Die Frage ist ja immer in welcher Abstraktionsebene eine Moderne CPU die inneren Vorgänge überhaupt nach außen sichtbar macht.
Wie Du richtig sagst, liegt ja auch dann ein CPU Limit vor, wenn die Cores nicht schnell genug mit Daten versorgt werden können.

Ziemlich vielschichtiges Thema.

Hier habe ich mal ein 7700K vor einiger Zeit auf niedrigste Latenzen in allen Ebenen getrimmt und dann in Relation zu den möglichen Drawcalls getestet:
https://www.computerbase.de/forum/attachments/37-3nslatency-jpg.617895/

Das System hat damals in diesem Test alles nass gemacht... Ebenso, was die Spieleperformance anbelangt.
Nicht weil die Taktung der Kerne so hoch war, sondern weil ich alle Ebenen drumrum (stark) optimiert hatte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zer0Strat
Esenel schrieb:
Haha.
Und wie sich im Thread des 12900 über eine solche Leistungsaufnahme aufgeregt wurde.

Da bin ich nun gespannt was die Argumente sind, die eine solche Leistungsaufnahme auf Seiten AMDs gut heißen.

Nunja, sehen wir Mal was davon auf der Straße landet. Wenn das Performance pro Watt Verhältnis gut ist kein Thema.
Das ist was zählt.

Finde das pauschale Genörgel da auch scheiße.
 
Zer0Strat schrieb:
62% Steigerung bei der TDP, aber nur 33% mehr Kerne, das ist offensichtlich Brechstange.
Brechstange ist für mich mit z. B. mit überproportional hohen Verbrauchssteigerungen ein bißchen Performance herauszukitzeln.

Bei Zen 4 bleibt nach allem was bekannt ist die Anzahl der Kerne gleich. Grundsätzlich ist klar, dass AMD nicht in den Benchmarks schlechter dastehen will, nur weil die Konkurrenz mehr Saft in den Prozessor bringt. Aber wie sehr sich AMD bei 170 W TDP vom Sweetspot entfernt ist momentan unklar.

Das Problem bei dieser ganzen Diskussion ist, dass wir nicht wissen wie Zen 4 mit steigendem Verbrauch skaliert. Und Rückschlüsse aus dem Verhalten von Zen 3 bei einer bestimmten Wattzahl auf das Verhalten von Zen 4 bei derselben Wattzahl halte ich für gewagt. Im Vergleich zu Alderlake fällt auf, dass der N7-Prozess auf dem Zen 3 produziert wird, nicht für HPC ausgelegt ist. Nach allem was AMD behauptet, soll dies bei Zen 4 anders sein.

F4irPl4y schrieb:
1 Million Beiträge zur TDP, niemand spricht über den neuen 6nm I/O-Die? Was stimmt nicht mit euch?
Weil es hier nicht um den IOD geht.

Und was willst Du uns damit sagen? Der N6 ist der neue Standardprozess für 7nm bei TSMC. Praktisch alle neuen Designs werden für N6 entworfen.

Auf dem IOD sind Schaltungen die nicht stark von kleineren Prozessen profitieren, also dürfte sich auch die Einsparung beim Verbrauch im IOD durch den Shrink in Grenzen halten. Es ist allerdings so, dass ein großer Teil des Verbrauchs, der dem IOD zugerechnet wird, nicht im IOD verursacht wird, sondern für die Kommunikation zwischen den Chiplets erforderlich ist.

So wie ich es verstehe wird Zen 4 mit einem neuen Packaging-Verfahren montiert. Und dieses Verfahren bringt eine erhebliche Verbrauchssenkung bei der Inter-Chiplet-Kommunikation mit sich.

Aber das spielt keine Rolle, falls AMD bei einem Realverbrauch von 230 W die CCDs weit über ihrem Sweetspot betreiben sollte.

Was klar ist: AMD will bei Zen 4 den ganz großen Hammer auspacken. Es ist zu befürchten, dass dabei auch die Effizienz über Board geht.
Aber wie hier schon einige klar gemacht haben, um die Spitzenleistung zu ziehen, muss man die 16 Kerne auch mit Aufgaben füttern, die diese Kerne auch wirklich auslasten.
 
Zer0Strat schrieb:
Ich habe unzählige Stunden an Benchmarks gesessen und Daten analysiert, eines hat mich dabei stets gewundert, nämlich wie gleichmäßig die Kerne bei modernen Spielen takten, dabei gibt es ja, wie du sagtest 1-2 Mainthreads, die am Ende limitieren. Wie selten man den höchst möglichen Boost sieht, ist echt überraschend für mich.

Japp.
Auch ich würde mir wünschen dass die favored Cores einfach standardmäßig 300-400MHz höher liegen könnten um den Mainthread abzuarbeiten, während der Rest auf AllCore läuft.

Aber wie von dir schon erwähnt defaulted alles immer zu schnell auf die AllCore Usage.
 
  • Gefällt mir
Reaktionen: t3chn0 und bad_sign
Luxamman schrieb:
Finds da eher schade, dass die CPUs im Gegensatz zu ARM und eben Apple einfach noch mehr Strom verbrauchen müssen, um weiter Leistung zu bieten.
Das sind die Designentscheidungen.

Aber bei Apple vs AMD/Intel nur den Verbrauch zu vergleichen und dabei zu ignorieren was Apple an Die-Fläche aufwendet, ist nicht sinnvoll.

Auch sollte man berücksichtigen, dass Apple einen Node weiter ist.
 
  • Gefällt mir
Reaktionen: Innocience, Luxamman und .Sentinel.
Esenel schrieb:
Haha.
Und wie sich im Thread des 12900 über eine solche Leistungsaufnahme aufgeregt wurde.

Da bin ich nun gespannt was die Argumente sind, die eine solche Leistungsaufnahme auf Seiten AMDs gut heißen.
Nun ja, bei 80% mehr Verbrauch, für 9% mehr Multi Leistung, ist nun mal Heftig. (12900k vs 5950)

Ob die 170watt effizient sind, oder eine 12900 Brechstange sind (wobei hier immer noch Rund 90 Watt 170-260 Differenz mal eben im Raum stehen) werden Tests zeigen müssen.

Wenn der Ryzen 7000 ebenfalls 80% für 8% mehr Leistung benötigt, ist der genauso „schlecht“ wie der 12er Intel.

Aber wir reden hier von 142 auf 170 Watt, also 30 Watt mehr. Und das nur beim 16 Kerner, ohne dessen Leistung zu kennen.

Während Intel für 8% Leistung rund 80% mehr Energie benötigt,
Braucht der neue 16C rund 20% für x% Leistung.

Da sehe ich schon einen großen Unterschied.
 
GERmaximus schrieb:
Ob die 170watt effizient sind, oder eine 12900 Brechstange sind (wobei hier immer noch Rund 90 Watt 170-260 Differenz mal eben im Raum stehen) werden Tests zeigen müssen.

Interessant wie bei Intel immer von PL2 geredet wird, bei AMD aber vom PL1 Pendant TDP.
Warum?
 
Zurück
Oben