News Core i9-12900KS: Intel kontert AMD Zen 3D mit bis zu 5,5 GHz

Diese Neuigkeit passt zu der hier im Forum kürzlich aufgestellten Vermutung, dass der Grund für stellenweise leicht suboptimale Ergebnisse beim OC von CPU & Ram bei den 12900k-Modellen, eine vorauseilende Selektion hat sein können.

👍​
Yes​
No​
i9 12900KS​
x​
i5 12400f​
x​

 
owned139 schrieb:
Der 5775C war trotz 700MHz weniger Takt schneller als der 4790K: https://www.pcgameshardware.de/Broa...775C-i5-5675C-Iris-Pro-Graphics-6200-1160517/

In F1 war der 5775C 12% schneller. Wenn du da jetzt noch 700MHz Takt zurechnest, fehlt nicht mehr viel zu den 25% und diese 25% sind auch nur best case in einem einzigen Spiel. Im Durchschnitt werden es wohl eher ~15% sein und davon war Broadwell nicht wirklich weit entfernt, wenn man den Takt berücksichtigt.
Wie gesagt ist die Idee nicht neu, aber warum Intel das verworfen hat, kann ich dir nicht sagen.
Hat sich bei Broadwell eher zufällig ergeben , weil der dram eigentlich für die igpu gedacht war, dann aber Hammer in Games abgeliefert hat. Und Braodwell war um einiges teurer als Haswell, man hat also für die Leistung ebenfalls wieder bezahlt, wie jetzt auch schon immer. Somit was bringt einem ein super schneller 12999 KK der noch extra cache bekommt, dafür 800€+ kostet. Nichts, ausser den Enthusiasten und die werden ja hoffentlich noch auf Zen 3 warten können ;) .
Zumal die Frage ist, um wieviel der Cache den Verbauch und abwärme noch weiter steigern würde bei Intel. Dürfte also auch eine technische / preisliche Komponente bei Intel sein warum Sie das derzeit noch nicht machen.
 
Holy Makaroni, es ist immer wieder ein Schauspiel, wenn die rote Garde randaliert auf ComputerBase. :D

Ryzen 3D Cache könnte die Luftnummer des Jahres (eher bezogen auf die Erwartungen) werden, wenn nur das 8 Kern SKU mit 3D Cache kommen sollte. Dann kommen die CPUs nicht einmal am 12700K vorbei in Games.
 
  • Gefällt mir
Reaktionen: thuering
Zu gut was hier wieder an Intel-Bashing Falschinformationen kommentiert wird.

Gut, man kennt es hier nicht anders, passt schon.

Ich finde den KS absolut sexy und übertrieben geil. Was der wohl im SingleCore beim Cinebench raushaut?

Gefühlt komme ich daran wieder nicht vorbei. Lohnt sich null umzusteigen…aber der "Will haben" Effekt ist schon gigantisch.

Ich bin echt gespannt wie sich 3D Cache auswirkt. Das wird wohl nicht in allen Szenarien etwas bringen. Dort wo Cache hingegen Auswirkung zeigt, wird es vermutlich ordentlich Rund gehen.

Intel versucht mit aller Macht die Krone zu behalten, ist doch geil. Wir reden hier von 5,5Ghz out of the Box und das wo die Kiste so schon ein fucking IPC Monster ist.

Wie langweilig hier alle über den Verbrauch reden. Beim Gaming ist Alder Lake teils deutlich sparsamer und effizienter als ZEN3.

Hier schreiben echt sogar welche rein, dass die neue Core Architektur keine Zukunft hat…. =D WTF….

Das ist der 1. Wurf einer vollkommen neuen Architektur. Dafür knallt Alder Lake schon massiv. Bereits mit Raptor Lake werden die E Cores verdoppelt und bekommen eine höhere IPC. Die Skalierbarkeit ist doch hervorragend…egal.
 
  • Gefällt mir
Reaktionen: thuering
Gehöre auch eher zur Fraktion Undervolting, aber es natürlich erstaunlich was da in der Fertigung möglich ist.

ZeroStrat schrieb:
Ryzen 3D Cache könnte die Luftnummer des Jahres werden
ne das wird nicht klappen, niemand stößt dich vom Thron.
 
  • Gefällt mir
Reaktionen: DonL_, dergraf1, DarknessFalls und eine weitere Person
Würde der Kühler schon entwickelt oder wird eine Kompressionskühlung mitgeliefert?:D
 
Die von Intel scheinen wohl genau zu wissen was AMD da bald raushaut sonst würden die nicht jetzt schon die Brechstange rausholen :D :D
 
  • Gefällt mir
Reaktionen: Haudr0ff und Windell
Was hier immer abgeht ist echt nicht mehr feierlich.
Man sollte einfach froh sein, dass AMD es geschafft hat zu dem zu werden was sie jetzt sind.
Auch wenn ich eher bei Intel bin ist dieses niederknien vor einer Marke echt unangenehm.

Ich bin übrigens nur bei Intel, weil ich dieses Jahr einen 5600X da hatte und ich das Gefühl nicht losgeworden bin, dass meine Spiele Mikrolags hatten. Es fühle sich nicht smooth an. Wenn wer dafür eine Antwort hat gerne eine PN.
 
Knuddelbearli schrieb:
Dann mit 350W statt 250W?


Ich glaube nicht, kommt aber stark auf die VID an. Im screenshot sieht man eine VID von 1.38V, die kaum höher liegt als beim 12900K mit ~1.35V. Spannung ist da der Haupttreiber, weniger die Taktfrequenz.

Der Multithread Takt liegt anscheinend bei P und E Kernen 300 Mhz höher, das entspricht einem Performance Zuwachs zwischen 5-10%. Im ähnlichen Rahmen könnte auch der Strombedarf Anstieg ausfallen, würde ich bei +0.03V und +300 Mhz jedenfalls so schätzen. Ein 40% Anstieg halte ich für ausgeschlossen, jedenfalls nicht bei der Spannung.
 
DaBas schrieb:
Das mag vielleicht bei Teillast wie z.B. bei Games stimmen.
Füttert man aber einen 5900/5950 als auch die entsprechenden Intel CPUs mit Aufgaben, welche in der Lage sind, alle Kerne auf Anschlag auszulasten, sieht Intel bei der Effizienz aber mal ganz alt aus und zieht auch leistungstechnisch gegen ZEN3 weiterhin den kürzeren.
Das stimmt so nicht:
1641304555792.png

https://www.igorslab.de/intel-macht...ation-einsatz-und-eine-niederlage-fuer-amd/9/
Oder als Video:

Intel kann sowohl mit der Leistung (Single- sowie Multicore) als auch bei der Leistungsaufnahme sehr gut mit AMD mithalten und ist bei beidem oft besser.
 
Die heutigen Systeme sind insgesamt sehr aus der Balance geraten.

Leistung zu haben ist das eine, diese aber auch "auf den Asphalt zu bringen" oder für den Anwender nutzbar zu machen das andere.
Sehr viele Cores braucht man wirklich nur dann, wenn Applikationen diese auch nutzen können. Aber das sind doch eher Spezialfälle: Benchmarks und Rendering Programme, aber dann hört es doch fast schon auf.

Es wäre wesentlich klüger, wieder performante und energieeffiziente Systeme zu bauen mit hoher Single Thread Performance weil viele Programme immer noch nicht mit vielen Cores umgehen können oder weil sehr viele Anwendungen eine hohe Single Thread Performance eher dringend nötig haben.

Überhaupt, Windows sollte am besten auch noch ein bisschen umgekrempelt werden. Aus Windows wird zwar nicht so einfach ein Real-Time OS ... Aber man könnte sich doch zumindest mal überlegen, die Treiber und Windows so umzudesignen, so dass man zwischen geringer Latenz und hoher Performance wählen kann, also die Zeit vom Betriebssystem aus konfigurierbar machen, wie lange ein Treiber eine CPU belegen darf, um bei Bedarf die DPC Latenz verringern zu können.

Statt dessen wird an Stellen, die eigentlich nicht sooo extrem wichtig sind, rumgeschraubt, als gäbe es kein Morgen mehr. Dabei wären geringere DPC Latenzen durchaus auch für andere Audio Anwendungen sehr schick, sei es beim Musik hören oder Gamen, damit es eben nicht so zu Audio Drops kommt.

Oder auch nativer ASIO support für Windows und seine Applikationen mit Audio Support, damit man auch mal den bescheuerten Windows Mixer umgehen und direkt auf Audio Karten mit ASIO Unterstützung zugreifen kann.

Eine ziemliche Konzept- und vor allem Phantasielosigkeit .... Oder sollte man sagen Innovations- und Designmüdigkeit ? Aber nein jetzt kommt PCIe v5 .. ja, das hat die Welt wirklich gebraucht ... oder hätte es PCIe v3 nicht auch noch ne zeitlang getan .. aber nein, man braucht ja unbedingt teure Grafikkarten Monster, u n b e d i n g t .. aber profitieren die wirklich von PCIe v4 oder v5 ??? Man hat ja schon bei NVMe SSDs gesehen, dass PCIe v4 da nicht unbegingt viel gebracht hat, wenn ich mich recht erinnere oder hat sich da in der Zwischenzeit wirklich etwas Wesentliches daran geändert ? Also ich glaube eher nicht.

Wie ich sagte, irgendwie gerät eine gewisse Balance immer mehr in Schieflage...
 
Die Frage ist ob man die überhaupt kaufen kann, die dürften extrem selektiert sein, damit man auf einem Core (oder zwei) die 5.5GHz schafft. Und das dann sicher auch bei üppiger Leistungsaufnahme. Könnte mir vorstellen, dass diese dann im Vergleich zur jetzigen 2 Peak um 50% höher liegt.
 
owned139 schrieb:
Ich sagte nicht, dass es technisch exakt gleich ist, aber abstrakt betrachtet ist es ein zusätzlicher vergrößerter Cache. Es ist die selbe Idee, nur anders umgesetzt und das gab es nun mal schon bei Broadwell.

Frei nach der Definition gab es seit der Erfindung der Von-Neumann-Arch keine entwicklung mehr :-D

Spaß beiseite - also ich finde es schon einen unterschied, ob ich einfach einen DRAM-Chip neben den Die pflansche und über das substrat als L4 Cache anbinde oder den schon vorhandenen L3 cache erweitere, indem ich einen 2ten Chip oben aufsetze.
Zum Thema wirksamkeit kann man übrigens bei broadwell sehr schön sehen, was das bringt. der ist in der pro takt leistung gut voraus gewesen. und der edRam war ja vergleichwese langsam angebunden und ein mittelding aus RAM und on die cache...
 
ZeroStrat schrieb:
Ryzen 3D Cache könnte die Luftnummer des Jahres (eher bezogen auf die Erwartungen) werden,
alle lachen über zeedy´s geistreiche kommentare, du aber übertriffst ihn seit mindestens 2 jahren massiv..
 
  • Gefällt mir
Reaktionen: Kloin
Mein 10900kf SP98 braucht für 5,1Ghz allcore lediglich 1,0v Vcore. Warum meint hier jeder dass ein KS so deutlich mehr verbrauchen wird?
Das werden stark selektierte 12900k sein, die eben weniger Voltage brauchen als die 0815er von der Stange.
 
3D Cache tut wohl besonders weh, sonst würden die nicht in solche Panin geraten.
 
S.Kara schrieb:
Das stimmt so nicht:



Intel kann sowohl mit der Leistung (Single- sowie Multicore) als auch bei der Leistungsaufnahme sehr gut mit AMD mithalten und ist bei beidem oft besser.

Wenn man aufwendige Einstellung im Bios vornimmt, selbst ein lanjähriger User hier bei CB hat erwähnt, das er es Anhieb nicht schafft.

Und diese Behauptung gilt nur bei Games, ist das auch bei Anwendungen so?
also Bios richtig einstellen und intel verbraucht gleichviel wie AMD und leistet mehr in Anwendungen?
 
Süß, 5.5Ghz.
Intel-Marketing strikes back!
HWInfo zeigte auf mein 3700x auch schon 16Ghz an. Von daher würde ich mich nicht wirklich drauf verlassen auf die "neue Folien".
 
Zurück
Oben