News Intel Core i9-12900KS: 5,5 GHz angeblich nur dank 150 Watt TDP

_Heisenberg_ schrieb:
Aber, die interessantere Frage stellt sich dann, gibt es eine Grenze was die Kosten, Verbrauch und Leistung angeht auch bei den Enthusiasten oder sind Grenzen nur für Normalos gesetzt? Wann würde die „spezielle Gruppe“ eine rote Linie ziehen?

Ich kann nur von mir reden:
Habe meinen geliebten Golf 7R Variant verkauft, nachdem die Aral 102 Preis die 2€ deutlich geknackt haben. 20€ plus auf 100km gehen einfach nicht mehr.
Habe 2-3 mal im Monat getankt, unvorstellbare Gekdverbrennung.

Im it Bereich aber ist die Grenze noch so weit weg, da die Komponenten eh fast nie auf Volllast laufen.
Um das aber zu überwachen, habe ich eine Stromuhr dran.
Mein gesamtes Büro läuft darüber, inkl 2-3 Tage Homeoffice die Woche, komme ich auf 655kwh im Jahr. Wir zahlen 0,31€/kWh
Was also 16,4€ im Monat entspricht.
Das ist so lächerlich wenig, im Vergleich zu allem anderen Hobbys. Die ich betreibe.

Das Argument „Verbrauch“ ist beim Gaming selbst mit highend Komponenten schlicht nur ein Papier Argument. Im Alltag und an der Stromrechnung merkt man es nicht.
Und wer mir erzählt das er 5€ mehr im Monat merkt, da ist dann was anders im Argen.
 
  • Gefällt mir
Reaktionen: Drakrochma und iceshield
@owned139
Dementsprechend benötigen sie auch weniger Energie und takten niedriger als die P-Cores, laufen als näher am Sweet Spot
Keiner der Cores läuft im Sweetspot, weder P noch E
Das ein 10nm Prozi effizienter ist, als ein verpfuschter Backport 14nm, ist doch hoffentlich das mindeste.
Aber ja ADL ist effizient, nur nicht so, wie Intel ihn verkauft. Das möchte ich auch für Zen 3 und >5800X sagen (Singlecore)
 
Gerithos schrieb:
alder lake ist toll, keine Frage, aber ich bin vom big little Konzept bisher nicht überzeugt,
Intels aktuelles Konzept hat wenig mit klassischem big.LITTLE zu tun.
Gerithos schrieb:
heavy user oder gamer haben davon nix, der Verbrauch ist trotzdem hoch und die ersparnis für einen "ich mach mal mit meiner Hölle Maschine bisschen Office" im Gegenzug für mich nicht hochcgenufg um dieses hybrid konzept zu feiern, mir fehlt da der dicke Mehrwert einfach. Mal sehen wohin die Reise geht.
Im Gegensatz zu klassischen big.LITTLE geht es bei Intels Variante weniger um Energie- als um Flächeneffizienz: Auf der Fläche von einem P-Core werden vier E-Cores untergebracht. Diese vier E-Cores liefern in diversen Multicoreanwendungen einfach mehr Performance als ein P-Core.
Der Flächenansatz macht auch das gesamte Portfolio verständlich: Hier (bei AlderLake-S) wäre die Alternative zu 8xP+8xE 10xP gewesen, bei AlderLake-P entsprechend 6xP+8xE vs 8xP und bei AlderLake-M 2xP+8xE vs 4xP. Besonders letztere Prozessoren (die bislang ungetestet sind, es gibt noch keine entsprechenden Notebooks) profitieren durch Intels big.LITTLE-Variante wahrscheinlich am Meisten. Das heftige Upgrade der Multicoreperformance wird sich beim Entpacken von Dateien praktisch drastisch bemerkbar machen.
 
LamaMitHut schrieb:
Joa, die Fertigung und BigLittle-Konzept sind also schon jetzt am Ende.
So wirklich überzeugt haben die Neuen von Intel auch nicht. Bisl mehr Singleleistung und in Multi weiterhin zurück. Die Ryzen 5xxx waren ja schon lange am Markt, ein wirklicher Konter sieht anders aus. Das sieht man auch daran das AMD ihre Preise nicht anpassen musste. Zu mal die Mainboardpreise für Intel CPUs absurd sind.
 
  • Gefällt mir
Reaktionen: loser, DirtyHarryOne und GERmaximus
owned139 schrieb:
Es ist auch eine Effizienzverbesserung, denn 4 E-Cores sind so groß wie ein P-Core. Dementsprechend benötigen sie auch weniger Energie und takten niedriger als die P-Cores, laufen als näher am Sweet Spot.
Das mag sein, aber die ersparnis ist in meinen Augen trivial wenn man sich aktuelle Benchmarks anschaut
 
bad_sign schrieb:
Keiner der Cores läuft im Sweetspot, weder P noch E
Habe ich auch nie behauptet, sondern dass sie näher am Sweet Spot laufen:
owned139 schrieb:
...laufen also näher am Sweet Spot.

bad_sign schrieb:
Das ein 10nm Prozi effizienter ist, als ein verpfuschter Backport 14nm, ist doch hoffentlich das mindeste.
Aber ja ADL ist effizient, nur nicht so, wie Intel ihn verkauft. Das möchte ich auch für Zen 3 und >5800X sagen (Singlecore)
Die E-Cores sind trotzdem effizienter als die P-Cores. 3 E-Cores sind fast 50% schneller als ein P-Core und benötigen dafür die selbe Energie. Sie sind also rund 50% effizienter, aber eben nur bei MT Workloads.
Dazu kommt noch, dass man auf der Fläche eines P-Cores aber 4 E-Cores unterbringen kann.
Nicht nur die Chipfläche ist hier effizienter, sondern auch die Leistung/Watt in Summe.
Wenn du einen E-Core mit einem P-Core Vergleichst, stinken sie natürlich ab, aber du musst es auch in Relation zur Chipfläche sehen.
 
wolve666 schrieb:
Achja Intel... Da war doch mal was mit Sicherheit... Spectre...?? Interessiert wohl niemanden mehr und die Redakteure erwähnen auch nichts mehr davon in ihren Jubelartikeln. Wurde das bei Intel mittlerweile (ohne Leistungsverlust) gefixt?
weiterhin anfällig für spectre v2 und v4. leistungsverlust allerdings im grunde nicht vorhanden.

alderlake_mitigations_perf.png

https://www.phoronix.com/scan.php?page=article&item=alder-lake-mitigations
 
  • Gefällt mir
Reaktionen: wolve666
floq0r schrieb:
Mimimi
Wer 750$ für die CPU hat wird noch 50 Cent für die kwh haben die die CPU in knapp 7h braucht.
Zumal das ja auch nur bei Volldampf... also in der Realität wird es wohl noch irrelevanter sein
 
bad_sign schrieb:
Der Unterschied, Intel kostet es nur Binning, welches eh betrieben wird. AMD setzt Hardware ein, wovon sie eh schon zu wenig haben.
Jetzt stellt sich nur die Frage, wieviel Chips bleiben nach dem Binning übrig vs wieviel l3Cache Chips lässt sich produzieren...
Plus das was nicht im Desktop verkauft wird, wird im Server verbaut.

Thema Verbrauch. Naja, wenn man nicht unbedingt Prime95 zockt... Wenn argumentiert wird, dass Chips eh selten auf Volllast laufen, wäre der Chip am Ende sinnvoll für Gaming Benchmarks ;) Sprich 58003DX und dieser Chip hat sowieso die Zielgruppe, Gaming am "Limit".
 
Was genau hat 150w mit den 5.5ghz zu tun? Die CPU rennt ja niemals all-Core 5.5ghz bei nur 150w. In der Regel bezieht sich diese TDP ja auf die untere Grenze der Gigahertzangabe (z.B. 3.6-5.2), da liegen dann 5.2ghz bei Single-, Dual- oder meinetwegen auch Quadcorelast an. 150w bedeutet doch nichts anderes, als dass ein Mainboard, welches die Einstellungen der CPU ausliest diese auf 150w Leistung beschränkt oder nicht?
 
AMD soll endlich mit den 3D Cache Prozessoren aus der Hüfte kommen. Eigentlich war letztes Jahr der „5950X3D“ schon fest eingeplant. Das wird natürlich nix mehr wenn es im Sommer schon mit Zen 4 weitergeht.

Was Intel treibt ist auch klar, schon der 9900KS lieferte damals keinen echten Mehrwert. Mit etwas Selektierung bekommt man das auch selbst hin. Dafür kann man sich mit Raptor Lake dann mit gestiegener Effizienz rühmen…Intel halt.
 
Da kommen wir ja bald auf einen Verbrauch von einer Klimaanlage . Ich finde das mal ein Ende haben .
Apple hat es vorgemacht wenig Stromverbrauch viel Leistung .
 
Shoryuken94 schrieb:
Die 8 P Cores und die 8 E-Cores beim 12900k sind also so groß wie 10 P Cores ...
... des 10900K und beim Gaming teilweise langsamer (wenn man das IPC Plus abzieht). :lol:

 
Steini1990 schrieb:
Mit den stark steigenden Strompreisen werden solche CPUs noch weniger interessant wie bisher.
Bei einem Freund von mir auf einem seiner Schilder auf einem seiner Flure steht; "Wer spart, hungert bloß für die Erben":schluck:

Ich glaube mich erinnern zu koennen, das der ehemals "Bulli" aus dem Hause AMD ebenfalls nicht gerade sparsam gewesen ist. Vor allem war die Leistung die sich schlussendlich daraus ergeben hat, eher ernuechternd als berauschend. Gott sei dank, hat sich zumindest letzteres zum besseren entwickelt!

Gruss Fred.
 
0ssi schrieb:
... des 10900K und beim Gaming teilweise langsamer (wenn man das IPC Plus abzieht). :lol:

Und wenn man irgendwelche Youtube Videos mit Gamekey Werbung direkt am Anfang, die in 1080p testen und den 12900K auch oft mal ins GPU Limit(Beispiel Forza 5, Battlefield 5, Teile von Hitman 3, Teile von Witcher 3) bzw Engine Limit(Assassins Creed Valhalla) rennen lässt, dazu das ganze noch mit Windows 10 statt Windows 11 testet, statt seriöse Reviews zurate zieht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: owned139 und Shoryuken94
Iguana Gaming schrieb:
Soll halt der Konter zum 5800X3D sein.
Kann AMD wirklich so viel Gaming Leistung rausholen ? Der 5800X3D hat 300Mhz weniger als der 5800X
und der 12900KS hat 300Mhz mehr als der 12900K also wird der Vorsprung zum 5800X auf 15% wachsen.

15% nur durch diesen Wunder 3D Cache ? Na mal schauen. Das wird der Kampf der 8 Kern Krüppel ! :lol:
Comet Lake Besitzer kaufen einfach DDR4-4400Mhz statt 3200Mhz wenn sie 15% mehr FPS wollen. :daumen:

3DCache.png
 
Zuletzt bearbeitet:
Gerithos schrieb:
Dann gibt es also keinen wirklichen Vorteil für den User, sondern für die fertigenden Unternehmen, was theoretisch ein Vorteil für User werden kann, oder?

Das würde ich so nicht sehen. Dadurch können solche leistungsstarken CPUs erst zu solch relativ humanen Preisen angeboten werden. Eine immer teurere Fertigung schlägt sich auch in den Endkundenpreisen nieder.

0ssi schrieb:
... des 10900K und beim Gaming teilweise langsamer (wenn man das IPC Plus abzieht). :lol:

So ein CPU Test macht ja natürlich voll Sinn, wenn man den zu nicht unerheblichen Teilen im GPU Limit macht. Wirklich ein sehr seriöser aussagekräftiger Test. Das ein reiner Spieletest jetzt auch nicht gerade das Paradebeispiel für das Thema Multicoreleistung ist, um die es ja bei der Flächeneffizient ging, steht auf einem anderen Blatt.

Berlinrider schrieb:
AMD soll endlich mit den 3D Cache Prozessoren aus der Hüfte kommen. Eigentlich war letztes Jahr der „5950X3D“

Du wirst ziemlich sicher niemals einen 5950X3D kaufen können. Bislang ist nur der 5800x3D angekündigt und wenn man diversen Leaks glauben darf, wird es auch dabei bleiben. Kein Wunder. AMD möchte diese relativ teure Technik wesentlich lieber im Servermarkt nutzen. Außer dem 5800X3D würde ich da nichts erwarten. Wer mehr Kerne und Leistung möchte, der wird wohl eher zu Zen4 greifen müssen.
Ergänzung ()

0ssi schrieb:
Kann AMD wirklich so viel Gaming Leistung rausholen ? Der 5800X3D hat 300Mhz weniger als der 5800X
und der 12900KS hat 300Mhz mehr als der 12900K also wird der Vorsprung zum 5800X auf 15% wachsen.

Wird man sehen müssen. Beim Cache kommt es sehr stark auf das Spiel an, ob man da einen Vorteil hat oder nicht. Aber beim Takt muss man eh mal schauen, was dann wirklich anliegt. Das was angegeben ist und das was wirklich bei rumkommt sind besonders bei Zen 3 zwei verschiedene Paar Schuhe. Der 3D weiß vielleicht zu überraschen, würde aber auch keine Enttäuschung ausschließen. Wenn der Preis wirklich so hoch ausfällt, wie es gemunkelt wird, werden den aber eh nicht viele in Betracht ziehen. Zudem wird der 5800X3D bei der Anwendungsleistung kein Land sehen. Am Ende wird es stark auf den Marktpreis ankommen.
 
  • Gefällt mir
Reaktionen: Col.Maybourne
Zurück
Oben