News Single-Core und Multi-Thread: Core i9-12900KS schlägt Ryzen 9 5950X im Cinebench R23

lordfritte schrieb:
Intel schlägt einen 2 Jahre alten Prozessor, Glückwunsch.
vergiss nicht, dass der Großteil der Leistung durch die 8 Performance Cores kommt, gerade deswegen ist das beachtlich was Intel da abliefert. Man stelle sich nur 16 P Cores vor, wenn man die mit 4.5 ghz laufen lässt zersägen die so ziemlich alles im MT und Verbrauchen dabei nicht viel. Meine 6 ziehen mit 4.1 ghz 75W im CB, ein bisschen besseres Binning und der Verbrauch bleibt auch mit 4,5 ghz aehnlich und so ne CPU verbraucht dann 200W im Cinebench mit 16C/32T
 
cruse schrieb:
und genau darum geht es! möglichst geringe abweichungen/schwankungen der messergebnisse.
Und inwiefern haben die Daten bestand, wenn sie in der Anwendung nicht auftreten?
Ein CSGO Benchmark soll CSGO messen und nicht die Source Engine.
Das ist kein synthetischer Benchmark, bzw er ist es aber der Name suggeriert was anderes, schließlich bekomme ich in einem SC2 CPU Test ja auch echte Leistungsdaten aus dem Spiel mit den CPUs.

BF haben ein ähnliches Problem, aber hier wird auch immer (zumindest bei den deutschen Seiten) erwähnt, es handle ich um den Singleplayer, und hat damit keinerlei aussagekraft über den MP
 
Zuletzt bearbeitet:
gunmarine schrieb:
vergiss nicht, dass der Großteil der Leistung durch die 8 Performance Cores kommt, gerade deswegen ist das beachtlich was Intel da abliefert. Man stelle sich nur 16 P Cores vor….

Wenn wir 16 P Cores fahren um gescheite Leistung zu erreichen, dann sind wir im Winter def. schon mal das Gasproblem los.

Nein, mal im Ernst - du bist dir aber auch bewusst, dass der Großteil der Leistungsaufnahmen eben NUR durch diese 8 P Cores geprügelt wird, was schon recht abartig ist. Das ist keine Leistung - das ist nur max. Leistung durch max. zumutbare Spannungen und Verbrauchswerte.

Schaut man sich dagegen die Verbrauchswerte der einzelne Kerne anderer Architekturen an ( egal ob Intels Vorgänger oder AMDs CPUs ), dann ist da nichts feierlich.
 
wern001 schrieb:
Wie weit die MultiCore Entwicklung tatsächlich ist, sieht man doch an aktuellen Spielen. Wenn Spiele oder auch 3D mark mit 4 Kerne ins CPU-Limit rennen und noch 20 Kerne nur Däumchen drehen ist da gewaltig was schief gelaufen.
Man könnte sich natürlich auch mal die Frage stellen, warum nach 15 Jahren Multicore im Mainstream nachwievor Schwierigkeiten in der Auslastung vieler Kerne bestehen.

Alle unfähig? Oder vielleicht doch harte Hürden?

@Allgemeinheit
Zudem ist das Argument, welches man hier öfter liest, dass es ja einfach sei, mehr Energie in den Prozessor zu Pumpen um dadurch Leistung zu erhalten auch nicht stichhaltig.

Die Architektur muss das hergeben, dass zugeführte Leistung in Rechenkraft umgewandelt werden kann. Ansonsten kannst Du Strom reinstecken, bis das verglüht und es wird nicht schneller werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwirbelkatz, t3chn0, Innocience und 2 andere
TheWeirdestKid schrieb:
Wenn wir 16 P Cores fahren um gescheite Leistung zu erreichen, dann sind wir im Winter def. schon mal das Gasproblem los.

Nein, mal im Ernst - du bist dir aber auch bewusst, dass der Großteil der Leistungsaufnahmen eben NUR durch diese 8 P Cores geprügelt wird, was schon recht abartig ist. Das ist keine Leistung - das ist nur max. Leistung durch max. zumutbare Spannungen und Verbrauchswerte.

Schaut man sich dagegen die Verbrauchswerte der einzelne Kerne anderer Architekturen an ( egal ob Intels Vorgänger oder AMDs CPUs ), dann ist da nichts feierlich.

lies mal meinen edit
 
Nice CPU.

Ja Verbrauch ist hoch, aber wie oft zockt ihr Cinebench r23 so? ;-)

Bei mir kommt n Schnäppchen R9 5900x am Montag an, deshalb bin ich bedient .. aber finde solche CPUs schon nice, wenn sie nicht so teuer wären.

Allein der 12900f kostet ca. 500eur.

Wenn Geld und Prinzipien eine Rolle spielen, dann kauft man die CPU eigentlich nicht.
 
.Sentinel. schrieb:
Man könnte sich natürlich auch mal die Frage stellen, warum nach 15 Jahren Multicore im Mainstream nachwievor Schwierigkeiten in der Auslastung vieler Kerne bestehen.

Alle unfähig? Oder vielleicht doch harte Hürden?

Kosten, Zeitaufwand, nötige Expertise.

Manches lässt sich nicht von 10 Leuten in 2-3 Monaten auf 20-32 Threads umbauen. Teils geben das die Engines nicht her, teils aber auch die Abläufe selbst nicht.

Dann kommt dazu noch in der Entwicklung das Henne/Ei-Problem.

Wie beim Windows Phone und des App-Store damals.

Kaum einer wollte dafür Apps entwickeln, weils kaum jemand genutzt hat und kaum Windows Phone User dazukamen. Gleichermaßen waren die pot. Neukunden nicht gewillt ein System zu nutzen, welches die gewohnten Apps nicht drin hat. Ein endloser Kreis, bis WP tot war.

So ähnlich kann man sich das vorstellen.
 
cruse schrieb:
wo sind die denn nutzlos?
wozu macht man einen benchmark? doch bestimmt nicht um die erwartbare leistung des eigenen systems in game x zu messen. Man bencht um es mit anderen systemen zu vergleichen!

ich z.b. finde normale ingame messungen "nutzlos" bei csgo, wo z.b. immer mal wieder dust2 abgelaufen wird auf einem bot server (macht pcgames glaub ich). wenn du das nämlich 50x in folge auf dem selben system machst hast du enorme schwankungen. beim benchmark hingegen hab ich sehr geringe abweichungen - also ich bekomme auf dem gleichen system ca. immer das selbe raus.
und genau darum geht es! möglichst geringe abweichungen/schwankungen der messergebnisse.

Haben wir das heute immer noch? Synthetische Benchmarks sind ein bequemes Mittel zur Leistungsbewertung. Und bewerten genau das, eine synthetische Situation. Wenn sie gut gemacht sind, führen die Benchmarks reale und einzeln nachprüfbare Software aus. Aber auch dann muss man sich fragen, ob die für den Anwender wichtige Software enthalten ist und entsprechend hoch gewichtet wird.

Für Computerspiele ist eine dreimalige Messug von CSGO in Folge sinnvoller, wenn man auch FPS-Ausreißer gewichtet. Vor allem wenn man CSGO spielt. Den Kernel unter Linux zu kompilieren, ist für Softwareentwickler wesentlich sinnvoller, als jeder synthetische Benchmark. Weil dann CPU, Hauptspeicher unter Last kommen und zum Teil auch der Festspeicher (make -j bzw. make -j KERNE-1). Die Angabe von fünfzig Messungen halte ich für übertrieben.

Wichtig ist, dass man Abweichungen durch Caches und die modernen fairen wie unfairen Schummeleien ausschaltet egalisiert (CPU-Boost, TDP-Überschreitung). Der Boost hilft beim Browserstart, im Spiel ist der nutzlos. Im allgemeinen würde ich jede Messung mehrfach durchlaufen, welche unter fünf Minuten dauert. Damit die Kühlung, Stromzuführung und andere Faktoren auch einfließen. Dann fällt schnell auf ob der Kühler im Laptop zu klein ist, nur der Boost-Takt geholfen hat oder der Cache der Festplatte ausgelastet war.

// edit
"ausschalten" durch "eaglisiert" ersetzt um Missverständnisse auszuschließen, es geht in dem Absatz nicht darum die TDP und den Basistakt fest zu legen! Unter bestimmten Anforderungen macht auch die Festlegung auf den Basistakt und Limitierung der TDP Sinn, etwas wenn bestimmte Leistungskritierien erfüllt werden müssen (man denke an Automotive oder Avionik oder Industrieanlagen). Darum ging es mir hier aber nicht, weil wir im Personal-Computing in der Regel diese Eigenschaften ohne Konsequenzen nutzen können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheWeirdestKid
.Sentinel. schrieb:
Alle unfähig? Oder vielleicht doch harte Hürden?
Hart im Sinne von unüberwindbar sind die Hürden sicher nicht. Bei den Konsolen wird ja auch immer fleißig ausgenützt, was da ist.

Das hat halt marktwirtschaftliche Gründe der Spieleentwicklung, würde ich meinen.

Und, vieles davon hatte auch was mit DX11 zu tun, wie Dx12/Vulcan zeigen.
 
Single Core ist speziell bei Konstruktionsrechner (Solidworks, Inventor, AutoCAD...) super.
Der 3D Bereich wird eh nur auf einem Kern abgearbeitet.
 
  • Gefällt mir
Reaktionen: 7H0M45
Rickmer schrieb:
Die Zahl kommen mir irgendwie cherry-picked vor
Nicht unbdingt. Führen den selben Benchmark auf der gleichen CPU drei mal aus und du wirst drei unterschiedliche Ergebnisse habe.
Rickmer schrieb:
Kurios, CB hat da 28782 Punkte gemessen
Auch das ist nicht unbedingt ein Widerspruch. Frage ist, wie viele Durchläufe man macht und ob man dann den Wert auch passend Mittelt. Schwankungen um 10 % sind in vielen Benchmarks nicht mal unüblich, weil bereits ein Schluckauf im OS dazu führen kann, dass das Ergebnis nach unten negativ beeinflusst wird und genau so kann ein perfekter Durchlauf auch mal 10 % über dem Mittelwert liegen.

Deswegen lässt man bestimmte Benchmarks in der Regel auch eher 3 - 5 mal laufen und eliminiert das beste und schlechteste Ergebnis und bildet aus den anderen 3 ein Mittelwert. Das ist nur sehr aufwändig und gerade die ganzen "Twitter"-OC-Größen als auch die YouTube-Journalisten machen genau das nicht. ;)

Also: Nein, nich Kurios, nur Tests mit unterschiedlichen Bedienungen zu unterschiedlichen Zeiten. Kein Widerspruch, nicht kurios, sondern einfach Realität.
SANDTIGER schrieb:
Ja schön , schön diese synthetischen Benchmarks mit nur 30% mehr IPC ....
Nein, keine 30 % mehr IPC, sondern 30 % mehr 1T-Performance. :) Bei der IPC liegt GoldenCove aktuell im Schnitt ca. 10 % vorne, keine 30 %.
CPUTaktPunktePunkte/GHzRelativ
12900 K5,3 GHz2.032383109 %
12900 KS5,5 GHz2.162393112 %
5900X4,8 GHz1684351100 %
Tzk schrieb:
Afaik skaliert der Cinebench kaum mit dem Ram. Also ist die Info interessant, aber vermutlich beeinflusst das den CB Score eher weniger...
Jein, nicht ganz richtig, weil heute mit dem RAM-Takt auch ein paar andere Sachen auch bei Intel CPUs skalieren. Bei Zen hängt der Takt vom IF am RAM-Takt und entsprechend kann schneller RAM ohne dass er wirklich benötit wird, indirekt durchaus auch beim Cinebench für eine Beschleunigung sorgen.

Gerade die Core-to-Core Kommunikation hängt am IF und geht es da aus einem CCX heraus ins andere, dann hat das sehr wohl Einfluss. Ähnlich verhält es sich bei Intel mit dem Interconnect, dass das teilweise durch den RAM-Takt beschleunigt wird.
.Sentinel. schrieb:
Mehr cache ist letztendlich der Turbolader auch für per core Performance.
Pauschal nicht ganz richtig aber auch nicht ganz falsch.

Mehr Cache kann die Performance deutlich erhöhen, weil man mehr Daten nah an der CPU halten kann und nicht in den RAM muss und warten, aber es ist in dem Fall ein Stückweit auch abhängig, wie intensiv wirklich Daten aus dem RAM gelesen werden bei der Anwendung.

Spontan mehr Cache kann bei gewissen Dimensionen sogar das Ziel verfehlen und einfach nur die Kosten steigern, ohne dass es viel bringt. Intel ist das mit den Änderungen von SunnyCove zu WillowCove passiert beim L2-Cache. Der fasst beim SunnyCove 512 KiB beim WillowCove 1280 KiB, normiert man beide CPUs wieder auf den Takt von 1 GHz rechnerisch, kommen beide am ande bei ca. 500 Punkte im CineBench R23 heraus und es liegt, trotz nominell 250 % mehr L2-Cache keine IPC-Steigerung vor.

Erst GoldenCove mit einer deutlich stärkeren Überarbeitung - 5 INT-ALU - kann aus den 1280 KiB L2-Cache dann deutlich an Leistung hinzu gewinnen.

Caches sind immer ein zwei schneides Schwert und sie sind kein Wundermittel für die IPC-Steigerung.
owned139 schrieb:
Komisch, bei ZEN1 wurde genau das gefeiert und jetzt ist es nichts besonderes mehr?
Du machst dich - mal wieder - ziemlich lächerlich mit deinen Verweisen auf irgendwelches ungleiche Behandlung oder Verhalten und ebenso lächerlich ist es, dass du jedes mal dann deine kindischen Vorwürfe der ganzen Community machst.

Dein Verhalten in diesen Zusammenhängen über die vielen Themen hinweg kann man nur noch als peinlich bezeichnen und auch wenn dir vielleicht von verantwortlichen entsprechend da nicht auf die Finger geklopft wird, die Community macht es jedoch regelmäßig, weil genau dein Verhalten jedes mal auch dazu führt, dass entsprechende Diskussionen dann unsachlich werden oder unnötig aufgeheizt werden.

Diese Themen sind ohnehin schon oft hitzig genug, da braucht man nicht noch jemanden, der ständig meint den moralischen Zeigefinger zu heben, weil er irgendwie ein unfaires oder ungerechtes Verhalten aufdecken will.

Das ist eigentlich ganz klassisch kindisches Verhalten.
 
  • Gefällt mir
Reaktionen: bad_sign, Col. Jessep, Kenzo2019 und 8 andere
Rickmer schrieb:
Den 12900K hat CB derweil nur mit 27485 Punkten gemessen, wie soll der KS denn 6% schneller sein bei 2% höherem Takt?


Zum RAM: Ist Cinebench nicht eins der Programme, das von schnellem RAM komplett unbeeindruckt ist?
RAM ist irrelevant für Cinebench, das stimmt. 5,2GHz vs 4,9GHz all core sind in meinem Rechner 6,1% mehr.
Ergänzung ()

Klar sind 260 Watt super viel, aber nur 19 Watt (7,9%) mehr PL2 für 6,1% mehr Takt ist Ansicht sehr gut.
 
  • Gefällt mir
Reaktionen: 0ssi
bad_sign schrieb:
Und inwiefern haben die Daten bestand, wenn sie in der Anwendung nicht auftreten?
Ein CSGO Benchmark soll CSGO messen und nicht die Source Engine.
Das ist kein synthetischer Benchmark, bzw er ist es aber der Name suggeriert was anderes, schließlich bekomme ich in einem SC2 CPU Test ja auch echte Leistungsdaten aus dem Spiel mit den CPUs.
er soll das system messen. nicht zwingend csgo.
wenn ich cpu benchmarks machen will bzw. cpu's vergleichen, dann will ich die cpus vergleichen und nicht csgo...
die benchmark map ist ein klassischer synthetischer Benchmark, denn die map wurde nur für den zweck gebaut. sie schaltet auch diverse config einstellungen ab bzw. ignoriert sie - z.b. fps_max=144 etc.

ich kanns nur nochmal wiederholen: es spielt absolut keine rolle für den benchmark, bzw. die nutzung, ob es was mit csgo zu tun hat oder nicht, das einzige was zählt ist die wiederholgenauigkeit.

flaphoschi schrieb:
Wichtig ist, dass man Abweichungen durch Caches und die modernen fairen wie unfairen Schummeleien ausschaltet (CPU-Boost, TDP-Überschreitung).
find ich z.b. nicht wichtig und würde ich auch nicht machen.
damit erschafft man nämlich eine sondersituation und genau damit sind die werte dann unbrauchbar.
jeder, der hier mitmachen will, müsste nämlich die gleiche situation schaffen - das ist viel zu kompliziert und auch wertfrei, denn im normalen spieleablauf ist das zeug ja eh an und wird benutzt...wozu sollte ich es also ohne benchen?
niemand schaltet bei cpu tests den boost aus, deaktiviert den cache oder stellt einen festen tdp wert ein. es gibt situationen für so etwas, aber im normalfall macht man es nicht.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Die Architektur muss das hergeben, dass zugeführte Leistung in Rechenkraft umgewandelt werden kann. Ansonsten kannst Du Strom reinstecken, bis das verglüht und es wird nicht schneller werden.

Gibt Software die hochgradig gut skaliert mit Kernen (SMP). Die Compiler GCC und LLVM freuen sich und auch Kompressionsbibliotheken. Spieleengines brauchen da schon länger, weil sie selbst und Multiprozessprogrammierung hochkompiliziert sind. Wenn man mehrere Sachen parallel ausführt und die zu undefiniertem Zeitpunkt fertig werden, ist ein Testen schwierig. Moderne Bibliotheken und Sprachen wie C++11 machen es leichter auf niedriger Ebene. Mir machen fork, thread, jthread, future, async und promise große Freude - mit zweimal Nachdenken komme ich da aber nicht zum Ziel. Eher fünf mal aufwärts ;)

Dann hat man aber auch CPU-Fertiger wie - Intel - die lange Zeit eine hohe Single-Core Leistung bevorzugt haben und die Entwicklung dadurch nicht beschleunigt haben. Wir hatten wegen Intel bis vor kurzem nur zwei echte CPU-Kerne (SMP) im mobilen Laptop (nicht 45 Watt Desktop-Replacement). Dann ist AMD mit Zen gekommen "Hier acht Kerne!". Auf einmal hatte Intel innerhalb kürzester Zeit und mit gleichem Fertigungsverfahren vier Kerne, dann achte Kerne. Von den heterogenen CPUs mit verschiedenen Kernen halte ich - persönlich - nicht viel, weil es sogar Anpassungen im Systemkernel erfordert. Bin aber aus Gewohnheit gegenüber allen Hybridansätzen skeptisch. Weswegen mir die jetztige AMD-Herangehensweise besser gefällt, achte gleiche Kerne die effizienter mit der Energie umgehen und weniger Komplexität nach außen tragen.
 
Nebula2505 schrieb:
RAM ist irrelevant für Cinebench, das stimmt. 5,2GHz vs 4,9GHz all core sind in meinem Rechner 6,1% mehr.
Aber der 12900K hat einen 5,1GHz allcore Turbo?
 
Ned Flanders schrieb:
Hart im Sinne von unüberwindbar sind die Hürden sicher nicht. Bei den Konsolen wird ja auch immer fleißig ausgenützt, was da ist.

Das hat halt marktwirtschaftliche Gründe der Spieleentwicklung, würde ich meinen.
Du hast in Sachen Engineoptimierung ein großes Problem, welches die ganzen Paralellisierungsträume oft platzen lässt (ich bin da ja gerade in einem Projekt).
Und zwar muss die Engine grundsätzlich in festgelegten Zeitenheiten immer wieder "in Sync" sein.
Du brauchst immer einen Status X, wenn ein Frame ausgegeben wird. Da kannst Du noch so viel poolen, threads spawnen usw. usf.
Du musst in kurzer Zeit dann alles wieder einsammeln, was Du vorher großflächig verteilt hast. Der Vorteil des Threadings wird irgendwann zunichte gemacht, weil der Mainthread dann immer mehr mit Verwaltungsaufgaben vollgemüllt wird.

Zudem kannst Du auch vieles nicht im Voraus berechnen, weil die Engines auf die Eingaben eines Users in Echtzeit reagieren müssen.

DX12 hilft da ein wenig, weil Du über mehrere Threads "submitten" kannst, aber auch dem sind enge Grenzen gesetzt.

Ich sehe da in absehbarer Zukunft noch keine großen Alternativen zur Erhöhung der per Core- Performance.
Natürlich kann ich low priority busy- loops in der Engine fahren und der Jubel bei der Spielergemeinde wäre hoch, weil sugeriert wird, dass alle Cores gleichmäßig ausgelastet werden aber.... ;)
 
  • Gefällt mir
Reaktionen: t3chn0 und Zer0Strat
Blaaaaaa, die CPU Säuft zu viel BLAAAAAA, BLAAAAAA
meine Fresse, habt ihr alle nichts besseres zu tun :king:

Alle daheim im Keller Cinebench am laufen, und das 24/7.

Vielen Dank an Intel für so ein biest.
Jetzt muss AMD nachlegen.

Konkurrenz = Super Sache
 
  • Gefällt mir
Reaktionen: kaji-kun und GT200b
flaphoschi schrieb:
Mir machen fork, thread, jthread, future, async und promise große Freude - mit zweimal Nachdenken komme ich da aber nicht zum Ziel. Eher fünf mal aufwärts ;)
Ich sage nicht, dass sich viel machen lässt. Ich sage auch nicht, dass man nicht optimieren kann. Ich sage nur, dass man es sich einfach macht, wenn man sich hinstellt und auf die Programmierer schimpft, dass diese unfähig wären ihre Kernmonster mit 32 Threads ordentlich auszulasten.
 
  • Gefällt mir
Reaktionen: flaphoschi
Peinlich für Intel, nur noch über den absurden Verbrauch punkten zu können.
Peinlich für CB, die Leistung im Vergleich zum Ryzen nicht ins Verhältnis zum Verbrauch zu setzen.

Die bessere Technologie ist eindeutig bei AMD zu finden.

Ihr könntet mir und allen anderen Lesern einen Gefallen tun und den höheren Wert als TDP bezeichnen und nicht nach Intels Pfeife tanzen.

By the way, wie alt sind die Ryzen 5000 inzwischen?
 
  • Gefällt mir
Reaktionen: PegasusHunter
DevPandi schrieb:
Du machst dich - mal wieder - ziemlich lächerlich mit deinen Verweisen auf irgendwelches ungleiche Behandlung oder Verhalten und ebenso lächerlich ist es, dass du jedes mal dann deine kindischen Vorwürfe der ganzen Community machst.
Die Tatsache, dass du immer nur auf meine, aber nicht auf die anderen Posts eingehst, gibt mir irgendwo recht.
Du störst dich nicht an solch unsachlichen Aussagen wie "Brechstange" oder "Der normale i9 säuft ja schon wie die Notentwässerung einer Talsperre.", sondern nur an meinen.
Kritik gegen Intel ist dir egal, aber wehe jemand hat eine andere Meinung und kritisiert AMD bzw. berichtigt einige unsinnige Aussagen.

ZenMasterTM schrieb:
Die bessere Technologie ist eindeutig bei AMD zu finden.
Hier ist doch mal wieder der beste Beweis. 16c/24t vs 16c/32t - wie kommt man darauf, dass AMD deswegen technologisch besser ist? Erwartet ihr wirklich, dass eine 24t CPU eine 32t CPU schlägt und dabei auch noch weniger verbraucht? So einen Mumpitz findest du zu Hauf in diesem Thread.
Zu solchen Aussagen würdest du kein Wort sagen und das ist auch genau das, was ich dir und vielen anderen vorwerfe.
 
  • Gefällt mir
Reaktionen: 7H0M45
Zurück
Oben