News Intel-Alder-Lake-Marktstart: Finale Core i9-12900K und Core i5-12600K im Umlauf

Hektor26 schrieb:
https://www.computerbase.de/forum/threads/limitiert-cpu-xyz-die-graka-abc.818979/

So wie du die Frage stellst, scheint das hier perfekt für dich zu sein lies dir das erstmal durch da geht es darum ein Cpu oder Gpu Limit richtig zu erkennen.

Nach meinem Verständnis nach liegt kein CPU Limit vor wenn die GPU beim zocken eine Last von 99% hat - nach kurzem überfliegen steht das auch in deinem Link. Das ein CPU limit vorliegen kann wenn nur ein Thread auf einem Kern ausgelastet ist, ist mir bekannt.

Die Sache ist: meine GPU ist bei bisher jedem gezockten Spiel - inklusive Cyberpunk - bei 99% last. Die einzige Ausnahme ist wenn ich in einigen Games die Frames bewusst limitiere, in einem RTS z.B. brauche ich nicht mehr als 60 fps und dann muss ich kein Strom verschwenden.

Ich probiere es gerne gleich mal aus.
 
ArcherV schrieb:
Die Sache ist: meine GPU ist bei bisher jedem gezockten Spiel - inklusive Cyberpunk - bei 99% last.

Du scheinst eine echte Wunder CPU zu haben.
Ich sollte dann wohl mal den 5900x gegen einen 3700x tauschen :p
 
  • Gefällt mir
Reaktionen: GT200b
owned139 schrieb:
In 13/16 Tests profitiert man von SMT, also wie kommst du zu deiner Annahme?
Man muss schon den ganzen Artikel lesen und sich grundsätzlich auch ein paar Gedanken über SMT machen. SMT kann und funktioniert meistens, weil man diverse Latenzen umgehen kann, zum Beispiel wenn ein virtueller Kern noch auf Daten aus dem RAM wartet.

Zum Problem wird es dann, wenn man dadurch zusätzlichen Flaschenhals schafft, zum Beispiel wenn 32 Threads Daten aus dem Speicher anfordern, dadurch die Speicheranbindung auslasten, aber selbst nun mal nicht die Leistung von echten 32 Kernen erbringen oder durch die Nutzung der Threads das Power Budget erschöpft wird und die CPU grundsätzlich niedriger takten müsste.

In dem verlinkten Test sind praktisch nur Vorteile bei Anwendungen zu sehen, weshalb man heutzutage ja auch grundsätzlich zumindest bei Applikationen empfiehlt HT eingeschaltet zu lassen. Es bedeutet aber nicht, dass es der Weisheit letzter Schluss ist und man die Recheneinheiten nicht auch anders besser auslasten kann ohne die Nachteile von SMT in Kauf nehmen zu müssen. Schaut man sich die Spiele an, so sieht es ähnlich wie schon bei den CB Tests aus, es bringt schlichtweg so gut wie nichts.
1634987032361.png


Deshalb auch meine Aussage, man sollte das Thema SMT schon vorsichtig betrachten und nicht pauschal davon ausgehen durch SMT bekommt man grundsätzlich 25% mehr Leistung als ohne. Bei einer 4C CPU wird man andere Resultate bekommen, als bei einer 16C CPU, mit genügend Speicherbandbreite werden die Resultate unterschiedlich ausfallen, als im RAM Bottleneck und letztlich hängen die Vorteile von der eingesetzten Software, dem Power Budget, dem Scheduler und einigen anderen Sachen ab.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb und konkretor
@Hektor26 eigentlich nicht wenn ich an gestern erinnern darf. :D
Hab gerad noch mal ganz kurz Cyberpunk getestet. 70-90 fps je nach Spielszene, 99% GPU Last wobei mir aufgefallen ist das er hin und wieder für 1-2 Sekunden auf 98% last geht. Kann man das schon als CPU Limit werten? Vielleicht liegt es an den Settings?
 
ArcherV schrieb:
Aber bis jetzt habe ich noch nie gemerkt, dass mein 3700X ins CPU Limit rennt....
Um "merken" geht es dabei ja auch selten ;)
Sprich du wirst das nicht merken... Zumindest sehr häufig nicht, weil einfach der Vergleich zu dem feeling fehlt, wie es in der jeweiligen Problemszene wäre, wenn das Limit nicht deckeln würde.

Das ist btw. auch eine Eigenart des Menschen als Gewohnheitstier. Du wirst weniger ein Problem damit haben etwas nicht zu haben, was du gar nicht kennst. Aber ein sehr großes Problem damit, wenn du etwas gewöhnt bist zu haben, was dir in dem Moment aber fehlt.
Wer daran gewöhnt ist wird also häufiger mal anliegene CPU Limit "Framedeckel" gar nicht merken. Wer aber dran gewöhnt ist, weil deutlich flinkere CPU, dass diese dort nicht da sind, wird den Unterschied beim Vergleich abwärts meist sehr deutlich spüren. Weil man eben überhaupt erstmal merkt, dass die Szenen hier und da ins Limit rutschen.

Beides ist natürlich völlig legitim. Am Ende ist die Frage halt, ob es einem ausreicht wie es performt. Die Frage kann man sehr häufig mit ja beantworten. Insofern sind die Vergleiche eher im Detail zu werten als in Form einer Pauschale.
xexex schrieb:
In dem verlinkten Test sind praktisch nur Vorteile zu sehen, weshalb man heutzutage ja auch grundsätzlich zumindest bei Applikationen empfiehlt HT eingeschaltet zu lassen. Es bedeutet aber nicht, dass es der Weisheit letzter Schluss ist und man die Recheneinheiten nicht auch anders besser auslasten kann ohne die Nachteile von SMT in Kauf nehmen zu müssen.
Ich hab das auf nem 5950X grad mal versucht - CB R20 MT mit in den Settings auf 16 Threads und 32 Threads verglichen. Ergebnis - beide Runs sind gleich schnell. Auf in meinem Fall 50-100 Punkte genau kommen da 108xx - 109xx Punkte bei rum. Obwohl das technisch irgendwie nicht ganz erklärbar ist.
Auch sinkt die Leistungsaufnahme im 16x Thread run um 30W, was ggü. den 180W des 32x Thread runs mal schlappe 20% sind. Also 20% weniger Effizienz. Am Powerlimit kann es eigentlich nicht liegen, weil das Powerlimit nicht greift bei 16x Thread run. Bandbreiten/IF und so Kram wäre eine Vermutung, aber auch das wäre eigentlich unlogisch, da bei mehr Threads normalerweise durch das interne OoO und Pipelining Zeugs innerhalb der Cores bei mehr Workload eigentlich bessere Auslastung - und damit eben in Summe mehr Performance bei rum kommen müsste. Die CPU macht ja auch irgendwie mehr - der Verbrauch steigt hier ja auch gut an. Theoretisch. Bei meinem 1600er Ryzen ist das btw. nicht der Fall. Der gewinnt seine um die 20%+- durch die doppelte Threadanzahl im Cinebench und Blender Run.

Kein Plan woran das jetzt hier genau liegt. Ich kann das Verhalten auf dem 5950X unter Win10 bei mir zumindest soweit nachstellen, dass es Runs in Cinebench, Blender Cycles, wie auch Handbrake betrifft. Bei letzterem hatte ich das noch auf die CCD Schwurbelei von Microsoft geschoben, weil Handbrake mit meinen Settings "nur" ca. 60-80% CPU Load erzeugt. Aber selbst da kommt die identische Leistung bei rum, wenn man im Taskmanager bspw. die Threadzuweisung auf nur jeden zweiten Thread festpinnt und man spart wieder die +-20% an Verbrauch wie beim Cinebench und Blender Run eben.


Lange Rede, wenig Sinn - es ging ja um die Rechnung, dass man da SMT mit so und so viel Prozent einrechnen muss. Neee, den Werten nach, SMT Leistung kann schlicht komplett verpuffen.
Ist natürlich nicht Stock (anders als bspw. in den Reviews), aber Stock interessiert mich persönlich auch nicht.
 
Mit SMT liegt garantiert wieder an Windows. Unter Linux lässt sich das ganze oft viel besser messen. Traurig aber wahr.
 
DarkStarXxX schrieb:
Welche Konkurrenz? Man sollte schon aus den Jahrgang vergleichen in dem die CPU herausgekommen ist.
Die Tests damals schon vergessen?
Nicht jeder ist ein Gamer.

Mir reicht jedenfalls die Leistung auch heute noch völlig aus, jedes mal wenn ich den Taskmanager mal öffne dümpelt die CPU bei 10-20% rum.
Man muss hier etwas den Kontext der Diskussion betrachten. Es ging ursprünglich darum ob es für einen 12900K Pflicht ist, einen 5950x zu schlagen. Also eine CPU, welche mehr Threads gleichzeitig bearbeiten kann.
Also muss die per Core Performance, vor allem bei den großen Kernen erheblich höher sein.
Zen hat das genaue Gegenteil gemacht. Dort hat man es über die Masse an Kerne gemacht.
War bei guter parallelisierbarkeit ein voller Erfolg. Ansonsten war die CPU im Rückstand.

Richtig perfekt würde es ab Zen3. Mit 8C Cluster die Latenzen minimiert und mit der guten Fertigung auch sehr effizient (schon ab Zen2).
 
  • Gefällt mir
Reaktionen: t3chn0
Cmdr_Michael schrieb:
Das Testsetup ist ideal. Niemand der sich so eine CPU kauft zockt in 1080p. Daher sind 1080p Testsetups nur akademisch.
Wenn wir das ganze mal nicht akademisch" betrachten, dann ist das Testsetup *nicht ideal.

Was schert den seriösen Besitzer eines 5950x die Spieleperformance unter gleich welcher Auflösung? Das Teil ist ein Arbeitstier. Ja, man kann mit ihm auch Zocken, aber das kann man mit dem empfindlich günstigerem 5800x mindestens eben so gut. Für die Fraktion "zeitgleich Zocken und Arbeiten" (Streamer und Co) gibt es mit dem 5900x eine passendere CPU und selbst für die würde ein 5800x überwiegend ausreichen, zur Not mit einem zusätzlichen Capture Device.
(Womöglich ändert sich mit Einführung des 3D V-Cache da etwas, aber wenn dann rückt voraussichtlich der 5900 mit seinen 12 Kernen in den Fokus, wenn sich bewahrheiten sollte, dass nur die beiden dicken Zen 3 den 3D V-Cache erhalten sollen)

Ähnlich sieht es bei Intel aus. Der i9 11900(k) ist verarsche, da ein i7 11700(k) es eben so gut tut.
Und bei Alder Lake vermute ich mal wird es ähnlich aussehen, wenn der überwiegende Unterschied zwischen den einzelnen i9 / i7 / ... die E-Cores sind. Pack meinetwegen 4 dazu für "sonstiges arbeiten" neben dem Zocken und du wirst gut aufgestellt sein.

Wer übrigens in WQHD und höherer Auflösungen zockt, gerne auch mit hohen Settings, kommt im übrigen auch sehr gut mit einer noch kleineren CPU als einem 5800x / 11700(k) über die Runden. Das Geld welches man sich mit der Wahl eines 5600x, 11600(k) oder gar 11400 einspart ist bei der GPU, wie auch dem Ram, im Interesse der Spieleperformance besser untergebracht.




t3chn0 schrieb:
Beim FS2020 muss man nur mal am Flughafen Frankfurt starten mit Live Spielern und Live Wetter.

Da pumpt der 5950X gerade mal noch 12—30 FPS raus bei 40% GPU Load.
Ja, der FS2020 ist der eine Ring, sie alle zu knechten, so wie der Simulator jetzt da steht auch Alder Lake, Zen 4 und wohl auch noch vieles was danach kommt, einfach weil der FS2020 trotz des September Performance Patch weiterhin praktisch alles auf einem einzelnem Thread laufen lässt. Ganz gleich wie die Single Core Leistung da steigt, das Teil wird gnadenlos untergebuttert.
Da war ja die Hoffnung, dass mit dem leider entkoppelten und verschobenen DirectX 12 Patch auch die Multicore Unterstützung verbessert eingeführt wird.

Was einst Farcry für Grafikkarten war (komm in 2 Generationen noch mal vorbei, damit du mit Karten aus dem gehobenem Mittelfeld die volle Grafikpracht in flüssiger Darstellung bekommst), ist nun der FS2020, nur dass die Problematik missverstanden wird und man auf den entsprechenden Patch mit Multicore Unterstützung warten muss.
 
@catch 22 völlig unabhängig vom Preis ist auch ein 5950X eine Consumer CPU. Die "Arbeitstiere" - also für Workstation und co - sind ganz klar die Threadripper definiert.

AM4 ist und bleibt eine Consumer Plattform.
 
5900x 5950x stinken als timelord total ab, mein nächster wird auf jeden fall intel sein
 
@ArcherV
achte mal auf das Intro meines Beitrags. Der Part den ich zitiere und meinen einleitenden Satz.

Davon abgesehen ist der 5950x trotz AM4 effektiv mehr Workstation als Consumer Plattform, da er einem 5800x in "regulären Consumer Dingen" (a.k.a Zocken, Surfen, Videos schauen, Mails und wenn es exotisch sein darf mal ein Brief schreiben oder in einer Tabellenkalkulation zusammenstellen, wieviel Haushaltsgeld man so im Monat verballert) vielleicht mal beim Schwerpunkt Zocken in Einzelfällen bis zu grob 5% schneller ist, insgesamt betrachtet beim Zocken wohl eher nur 1 bis 2%. Hingegen für jeden, der einfach der Produktivität wegen nur mehr Kerne braucht (z.B. Videobearbeitung, Compiler, ...) ein Segen, da sie eben nicht mehr auf die Workstation Plattform festgenagelt werden, die für ihre Bedürfnisse vieles mitbringt, was sie gar nicht brauchen (z.B. zusätzliche PCIe Lanes). Klar, wem die Performance des 5950x dann noch immer nicht ausreicht, geht dann zum Threadripper, aber nicht der Plattform wegen, sondern wegen der noch mehr Kerne.
AMD hat mit dem Ryzen x950 Prozessoren das Workstation Niveau noch mal weiter spezialisiert, professionalisiert und für die "breite Maße" unnötiger gemacht / die "breite Maße" die sowas brauchen könnte, auf Diät gesetzt.
 
Hm, ich bin gespannt wie stark Single-Core lastige Spiele wie Total War - Warhammer 2 (und im kommenden Jahr nach Veroeffentlichung des dritten Teils) mit den neuen Intel Alder Lake CPUs laufen werden, ich hoffe, das wird von CB auch getestet (der genannte Spieletitel oder etwas vergleichbares von den CPU Anforderungen duerfte ja schon laengere Zeit nicht im CB Parcours sein).

Von den Leistungsdaten finde ich immer noch den i7 12700(non-K) am interessantesten da der Einstiegs-8-
Kerner mit Big-Little-Funktionalitaet und vermutlich immer noch ueppig Single Thread Leistungsvorsprung vor allen Zen 3 Prozessoren (nun gut, ob sich ein 12900 (non-K) lohnen wird (mit den 4 zusaetzlichen kleinen Kernen?) wird man sehen, ich hege da eher Zweifel) ... m.E. kann man sich die "K" Varianten sparen.

Spaetestens wenn die H670 Boards im kommenden Jahr (evt. im Fruehjahr?) aufschlagen als deutlich guenstigere Alternative zu den Z690 Boards, duerfte Alder Lake in der Breite ankommen/interessant werden, zumal sich dann Verfuegbarkeit und Preise eingependelt haben duerften.

Dann stellt sich auch mit dem Marktstart von den Intel Arc Alchemist GPUs die Frage, ob die mit Intel Alder Lake CPUs (und Boards) als Bundle mit Preis- oder Verfuegbarkeitsvorteil angeboten werden?
Aehnliches koennte ich mir dann auch fuer Intel Laptops in Zukunft vorstellen, auch wenn das nVidia nicht freuen wird.

Allzu lange duerfte man da eigentlich auch nicht auf H670 Boards warten muessen, wenn Raptor Lake schon im Herbst/Winter kommenden Jahres als naechste CPU-Generation von Intel kommen soll.
 
  • Gefällt mir
Reaktionen: Klever und loser
Experte18 schrieb:
Hoffentlich gibt es dann bald ein 5950X für 300 Euro.
Nach ersten unabhängigen Benches vom 12900K wird der Preis des 5950X von zuletzt Ende August bis Anfang Oktober über 689 - 699 € auf 799 - 849 € steigen (bzgl. FPS/€ vs. 12900K).

MfG Föhn.
 
Ich freue mich schon sehr auf diese CPU Generation. Man dürfte wieder weit an der Spitze sein und AMD auf die billigen Plätze verweisen. Da die Preise auch recht gering sind, wird AMD selbst die Preise erheblich reduzieren müssen, um überhaupt Käufer zu finden.

Für den Kunden ist das gut.
 
  • Gefällt mir
Reaktionen: Hektor26 und ArcherV
Onkel Föhn schrieb:
wird der Preis [..] steigen
DavidG schrieb:
wird AMD selbst die Preise erheblich reduzieren müssen
Was davon stimmt, das hängt einzig und allein an den finalen Einzelhandelspreisen von Alder Lake. Die Listenpreise kann Intel theoretisch noch Minuten vor dem Launch anpassen, und die realen Preise im Handel werden dann durch die Lieferbarkeit bedingt. Beides ist noch unklar. Erste Stimmen zu angeblich geringen Liefermengen hier im Thema deuten darauf hin, dass die AMD-Preise zunächst nicht runter müssen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Vermutlich weil beide in einem ähnlichen Preisbereich liegen werden. TDP ist heutzutage eh nicht mehr aussagekräftig.
 
Zurück
Oben