News Geekbench-Ergebnisse: Intel Core Ultra 9 285K schlägt AMD Ryzen 9 9950X

Ayo34 schrieb:
Aber überall in den News wird immer so geschrieben, ob man da 20%+ durch verliert und trotzdem so stark ist...
Das liegt daran, weil man Benchmarks vergleicht und keine realen Anwendungen.

Gaming verliert im Schnitt gern mit Hyperthreading, weil von außen nicht sichbar ist, welcher der Threads jetzt die FPS Rate limitiert. Ist es einer, der zusammen mit einem zweiten auf dem selben Core um Ressourcen kämpft, dann sinkt zwangsweise die Leistung. Das wird noch schlimmer in LowRes Benches, wo es auf maximalen Durchsatz ankommt.
Das heißt nicht, dass es nicht auch Games gibt, wo im CPU Limit bspw. auch Leistung durch SMT generiert wird. Siehe die Debatte um Cyberpunk mit SMT damals bei Ryzen CPUs. Aber das liegt halt dann an recht hohen Anforderungen. Teils sieht man ja auf nem 8C/16T CPU Loads beim Gaming von 50, 60, 70%. Da greift SMT natürlich schon voll. Nicht unbedingt zwingend, dass es wirklich schneller wird, sondern es wird konsistenter, weniger zickzack, mehr Smooth. Es werden Drops bei den Framelaufzeiten verbessert bzw. abgemildert. Wirklich viele FPS gewinnt man damit nur im Extremfall. Also nem 4C vs. nem 4C + SMT in einem aktuellen Titel mit ner aktuellen dGPU bspw.

sikarr schrieb:
Ging auch schon ohne HT, SMT ist u.a. dafür da um die Rechenwerke besser auszulasten.
Das ist heutzutage aber nicht mehr unbedingt der Maßstab. Je nach Software ist die Auslastung auf Biegen und Brechen nicht das, was man erreichen will, weil man das Problem auch einfach mit mehr Ressourcen, also mehr Rechenwerken erschlagen kann.

Wenn eine Software SMT Threads nutzen kann, kann sie auch physische Kerne nutzen. Das heißt, es macht eigentlich keinen Sinn SMT zu nutzen wenn man auch Kerne dran bauen kann. Es sei denn, das Design gibt Limits vor.

Zudem es auch nach wie vor so ist, dass Rechenwerke besser auszulasten nur dann ein Vorteil ist, wen die Rechenzeit pro Thread irrelevant ist. Spätestens wenn Threadlaufzeiten ins Spiel kommen, will der Anwender maximale Performance in diesem einem Thread und nicht die Summe von zweien, dafür mit Abstrichen bei beiden.
Gaming + Rendern auf der selben CPU geht, aber stark zulasten der FPS, wenn man jeweils die geraden Threads dem Game und die ungeraden dem Rendertool zuweißt. Dann lieber 50% der Cores dem Game und 50% der Cores dem Rendertool. Dann dauert da rendern wahrscheinlich länger, dafür läuft das Game schneller und dort kommt es auf die Threadlaufzeit an. Während das beim Rendern total egal ist.
 
  • Gefällt mir
Reaktionen: GR Supra und sikarr
Bei mir hat intel ausgeschissen mit seinen stromfressenden fehlerbehaftenden müllprozzis, nie mehr intel prozessoren fehlerhaft und überteuerter schrott.
 
  • Gefällt mir
Reaktionen: JarlBallin und SweetOhm
Gefällt mir. Ich bin gespannt wie es real aussieht. Wenn ich ne Vermutung in den Raum stellen sollte würde ich sagen beim Gaming hat der x3D die Nase vorne. Aber das ist Meinung ohne Ahnung :D
 
sikarr schrieb:
Sry aber ein i9 mit nur 8P aber dafür 16E-Cores geht für mich überhaupt nicht und zeigt eigentlich auch Intels Machtlosigkeit gegenüber AMD.
Ich glaube da versteifst du dich auf etwas. Was bringen dir 16P Cores? Lieber noch mehr E-Cores. Die Applikationen die mit mehr Kernen skalieren ist es relativ egal ob E oder P Cores. Wenn E-Cores weniger Fläche brauchen, man dafür also mehr E-Cores erhält, ist mir das lieber. Fürs Gaming sind 8P Cores auch genug.
 
  • Gefällt mir
Reaktionen: chaopanda, Yosup, 7H0M45 und 3 andere
fdsonne schrieb:
Das ist heutzutage aber nicht mehr unbedingt der Maßstab.
Hab ich auch nicht behaupten wollen, dennoch war es eine Möglichkeit mit vergleichsweise geringen Aufwand an mehr Performance zu kommen. Nicht für jeden Fall aber dennoch.
fdsonne schrieb:
Wenn eine Software SMT Threads nutzen kann, kann sie auch physische Kerne nutzen. Das heißt, es macht eigentlich keinen Sinn SMT zu nutzen wenn man auch Kerne dran bauen kann. Es sei denn, das Design gibt Limits vor.
Im besten Fall ist SMT Transparent und der Scheduler des OS kümmert sich darum. Hat man sehr gut bei Bulldozer und den ersten Ryzens und auch beim ADL gesehen wenn dann 2 Leistungskritsche Threads auf einem Core oder nur auf den SMT Cores gelandet sind.
Brrr schrieb:
Ich glaube da versteifst du dich auf etwas.
Von einem Highend Produkt erwarte ich Highend und keine Notlösung weil man es anders nicht schafft mit der Konkurrenz gleich zu ziehen. Wenn ich weniger Erwarte kann auch auch i7 oder i5 kaufen.
Brrr schrieb:
Was bringen dir 16P Cores? Lieber noch mehr E-Cores. Die Applikationen die mit mehr Kernen skalieren ist es relativ egal ob E oder P Cores.
man könnte auch gleich die Stärkeren Cores nehmen, ich habe nix gegen das big.LITTLE Prinzip. Nur Intel scheint aktuell keinen anderen Ausweg zu sehen als alles mit E-Cores zuzupflastern.
Brrr schrieb:
Fürs Gaming sind 8P Cores auch genug.
Hab nix Gegenteiliges behauptet.
 
sikarr schrieb:
man könnte auch gleich die Stärkeren Cores nehmen, ich habe nix gegen das big.LITTLE Prinzip. Nur Intel scheint aktuell keinen anderen Ausweg zu sehen als alles mit E-Cores zuzupflastern.
Ist halt die Frage ob sich das lohnt? Man muss die Kerne auch alle mit Strom versorgen, und wenn man da durch das Maximum limitiert ist, kann man schauen, was effizienter ist. Und wenn in diesem limitierten Fall die kleineren Cores bei gleichem Verbrauch (oder weniger, aber gleich reicht schon) die gleiche Leistung bringen als die größeren Cores, dann kann man ebenso gut die kleineren verbauen.

Aus dem gleichen Grund verbaut AMD ja Zen 4c/5c sowohl in Chips für mobilen Einsatz als auch in Servern mit besonders hoher Kernanzahl - das sind Szenarien, in denen große Kerne nicht ausgelastet werden könnten und daher nur Platz verschwenden würden.
 
  • Gefällt mir
Reaktionen: Innocience
stefan92x schrieb:
Ist die Frage, ob sie eine Wahl haben. Wenn man sich den Aufbau von Arrow Lake anschaut, ist das halt in der Fertigung schon teuer.
Wenn man sich anschaut wie AMD jetzt die Preise nach oben anzieht, sieht es nicht schlecht aus für Intel.
 
  • Gefällt mir
Reaktionen: scryed
Tja dann kann sich Intel ja über nen Sieg in Geekbench freuen wobei der eh AMD (SMT) nicht liegt, denn schon der 14900k ist knapp vor AMD im Multicore und fällt dann gesamt doch wieder hart zurück. Aussagekraft gleich 0 wie immer beim Geekbench:

1724233681430.png


1724233697983.png
 
  • Gefällt mir
Reaktionen: Scharek, _Cassini_, PegasusHunter und 4 andere
Dai6oro schrieb:
Tja dann kann sich Intel ja über nen Sieg in Geekbench freuen wobei der eh AMD (SMT) nicht liegt, denn schon der 14900k ist knapp vor AMD im Multicore und fällt dann gesamt doch wieder hart zurück. Aussagekraft gleich 0 wie immer beim Geekbench:

Und AMD über die Singlecore-Performance, wo man vor dem 14900k liegt, aber in der Praxis dahinter?
 
sikarr schrieb:
man könnte auch gleich die Stärkeren Cores nehmen, ich habe nix gegen das big.LITTLE Prinzip. Nur Intel scheint aktuell keinen anderen Ausweg zu sehen als alles mit E-Cores zuzupflastern.
Was ist wenn die E-Cores nur die Hälfte der Fläche benötigen, und du somit doppelt so viele E-Cores reinstecken kannst wie P-Cores (ist rein hypothetisch, kenne die wirklichen Zahlen nicht). Würdest du immernoch mehr P-Cores verlangen? Ich sehe den Anwendungszweck von vielen P-Cores einfach nicht. Aber lasse mich da gerne aufklären.
 
  • Gefällt mir
Reaktionen: GR Supra und Innocience
@Brrr Genau so. Viele E-Cores mit kurzer Pipe und ohne HT, das ist das optimale Ziel.
Und natürlich ein OS und Software die das gut Nutzen können.
 
Geekbench sollte man aus Prinzip schon mal nichts glauben.
Brrr schrieb:
Was ist wenn die E-Cores nur die Hälfte der Fläche benötigen, und du somit doppelt so viele E-Cores reinstecken kannst wie P-Cores (ist rein hypothetisch, kenne die wirklichen Zahlen nicht). Würdest du immernoch mehr P-Cores verlangen? Ich sehe den Anwendungszweck von vielen P-Cores einfach nicht. Aber lasse mich da gerne aufklären.
Man könnte immernoch argumentieren, dass AMDs Ansatz mit den Dense Cores die bessere Lösung als 2 komplett unterschiedliche Kernarchitekturen ist - vorallem wenn er für Anwendungen die Möglichkeiten und Funktionen der P-Kerne zwingend braucht.

Wenn am Ende der Ultra 9 mit dem 9950X mithalten oder ihn gar schlagen kann, wär mir das persönlich aber auch egal. Dann ist der Anspruch, keine E-Kerne, schlicht eitel oder irrational.
 
  • Gefällt mir
Reaktionen: sikarr
stefan92x schrieb:
Zumindest AVX512 kann auch für CPU-Encoding etc gut genutzt werden, wer das auf seinem PC machen will, ist mit Zen 5 definitiv viel besser aufgestellt.
Dafür ist die Community hier ja bekannt. Sind alles professionelle Videoencoder.

Was sollen solche Kommentare eigentlich? Muss Intel in wirklich jeder Nische besser sein, damit man mal was positives schreibt?

sikarr schrieb:
ein i9 stellt das Top Produkt dar, da erwarte ich mehr, sollen sie dem i7 die 8P Cores geben.
Das Top-Produkt schlägt das Top-Produkt der Konkurrenz, also was passt dir nicht? Die Art der Cores spielt gar keine Rolle für dich als Anwender. Für dich zählt die Leistung und dort liegt man im Geekbench aktuell vorn.

DarkStarXxX schrieb:
Als Intel CPUs AVX512 hatten, war es der heißeste Scheiß den "jeder" brauchte.
Jetzt haben AMD CPUs das ganze und plötzlich braucht es "niemand" mehr.
Es ging ihm primär aber um die 8 P-Kerne. Er will 16 P-Kerne und behauptet, dass der 9950X besser ist. Ich weiß nicht, auf welcher Grundlage, denn die Leistungswerte geben das aktuell nicht her und welche Art der Cores da werkeln ist völlig irrelevant.

Brrr schrieb:
Fürs Gaming sind 8P Cores auch genug.
Und selbst wenn ein Spiel mehr als 8 Kerne auslastet, hat man immer noch 16 E-Cores. Dadurch läuft das Spiel nicht zwangsweise langsamer als auf 16 P-Cores.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: chaopanda und scryed
thebagger schrieb:
Wenn ich ne Vermutung in den Raum stellen sollte würde ich sagen beim Gaming hat der x3D die Nase vorne. Aber das ist Meinung ohne Ahnung :D
Bei LowRes Gaming sollte man sehr wahrscheinlich davon ausgehen.
sikarr schrieb:
Hab ich auch nicht behaupten wollen, dennoch war es eine Möglichkeit mit vergleichsweise geringen Aufwand an mehr Performance zu kommen. Nicht für jeden Fall aber dennoch.
Aber ist das dann wirklich "mehr"? Ich mein, wenn ich zwar bei absoluter MT Leistung zulege, in Teillast oder mixed Load Szenarien aber einbüße, ist das mMn ein eher ein Kompromiss, den ich nutze, wenn die Vorteile überwiegen und weglasse, wenn es bessere Alternativen gibt.
sikarr schrieb:
Im besten Fall ist SMT Transparent und der Scheduler des OS kümmert sich darum. Hat man sehr gut bei Bulldozer und den ersten Ryzens und auch beim ADL gesehen wenn dann 2 Leistungskritsche Threads auf einem Core oder nur auf den SMT Cores gelandet sind.
Das funktioniert nur, wenn genug freie Ressourcen vorhanden sind und das funktioniert auch nur, wenn die Laufzeit des/der Threads irrelevant ist.
Ich kenne keinen Fall wo ein OS das gut hinbekommt. Im Falle von Windows bspw. greift SMT pauschal erst bei >50% Load. Vorher wird einfach auf die anderen Cores verteilt. Seit den Hybrid CPUs von Intel ist das aber ein dreier Gespann, da nicht von außen klar ist, ob ein Thread auf einem langsam taktenden und IPC Nachteilbehaftetem E-Core schneller läuft als auf einem zweiten Thread des P-Cores, der auf dem anderen Thread ebenso schon was zu tun hat. Das ist von außen einfach OS Threadschedulerseitig nicht erkennbar. Ein Stück weit ging/geht Intel das mit ihrem Hardware Ansatz an. Aber auch der kann nicht in die Anwendung rein gucken und schaut bestenfalls auf Metriken.

MMn ist SMT mit dem Hybrid Ansatz Obsolet, das einzige Szenario wo man weiterhin davon profitiert, ist generische MT Volllast. Denn da zählt jedes bisschen mehr an nutzbarer Ressource, also bringt es da auch was, die Rechenwerke optimal auszulasten. Aber das ist bis auf Benches in aller Regel selten ein reales Szenario. Wäre es das und würde es primär darauf ankommen, würden wir alle mit 64, 96, 128C Threadripper CPUs agieren und MT wäre das Maß der Dinge. Real praktisch ist im Desktop 6-8C das Maß der Dinge. Mit ner vielleicht Durchschnittsauslastung im Alltag von 10, 20, 30%. Poweruser vielleicht was mehr. Im Mobile ist das nochmal ne ganze Ecke niedriger. Vor allem ohne angesteckte Strippe. Ich habe noch Nie jemanden getroffen, der im Bus, Bahn, whatever unterwegs Blender, Cinema4D und Co. hat rennen lassen. Da läuft in der Masse der Fälle eher seichte Kost.
-> unter diesem Gesichtspunkt ist die Frage, wozu SMT? Real praktisch wird man es selten bis nie nutzen können, weil die Last im Schnitt viel zu niedrig ist.

sikarr schrieb:
man könnte auch gleich die Stärkeren Cores nehmen, ich habe nix gegen das big.LITTLE Prinzip. Nur Intel scheint aktuell keinen anderen Ausweg zu sehen als alles mit E-Cores zuzupflastern.
Könnte man, aber was bringt es? Und vor allem, wem bringt es irgendwas!?
Das Powerbudget gibt es doch gar nicht her, die P-Cores auszufahren. Das heißt, der Takt sinkt und die Leistung pro Kern damit auch. Irgendwann kommt der Punkt, wo die 4x E-Cores, die in der selben Fläche sitzen, wie 1x P-Core einfach unter MT Load schneller sind.

Mit dem neuen Konstrukt muss man dann sehen wie das Flächenverhältnis ausschaut, aber es ist davon auszugehen, dass auch dort mehrere E-Cores in die Fläche eines P-Cores passen. Man spart also Fläche ohne Leistungsverlust. Es gibt keinen Nachteil die E-Cores zu haben. Es gibt eigentlich nur Vorteile. Zumindest wenn man das AVX512 Thema ausklammert.
 
  • Gefällt mir
Reaktionen: chaopanda und sikarr
Dai6oro schrieb:
Tja dann kann sich Intel ja über nen Sieg in Geekbench freuen wobei der eh AMD (SMT) nicht liegt, denn schon der 14900k ist knapp vor AMD im Multicore und fällt dann gesamt doch wieder hart zurück. Aussagekraft gleich 0 wie immer beim Geekbench
So sehe ich es auch.
Vielleicht ist die Aussage nicht gleich Null. Aber wirklich gut ist sie leider auch nicht.
 
Brrr schrieb:
Was ist wenn die E-Cores nur die Hälfte der Fläche benötigen, und du somit doppelt so viele E-Cores reinstecken kannst wie P-Cores (ist rein hypothetisch, kenne die wirklichen Zahlen nicht).
Bisher war es 1/4. Also 4x E-Cores = 1x P-Cores von der Fläche.
Bei den kommenden Modellen dürfte das denke ich leicht sinken. Aber da gibt es meines Wissens nach noch keine genauen Werte?
 
  • Gefällt mir
Reaktionen: 7H0M45 und Brrr
@Ayo34
Mit Praxis meinst du Gaming?

Allgemein finde ich die Diskussion um "Praxisszenarien" schwierig. Das sieht halt je nachdem was man vor hat sehr anders aus. Selbst in meiner Abteilung haben andere Leute ganz andere Anforderungenen an ihre CPU. Wieder andere wollen damit Spielen, andere brauchen eigentlich nur Office, ....

Für meinen konkreten Fall decken sich Spec2017 und Geekbench noch am ehesten mit meinen praktischen Anwendungen. Ich finde es allgemein interessant, wie hier auf CB Cinebench als reiner Rendering Test als Maß der Dinge gilt und Benchmarks die ein breites Feld an häufig real genutzen libraries Durchjagen (Geekbench) teils verteufelt werden. Letzteres ist für alle die nicht mit der CPU rendern deutlich aussagekräftiger.

Ich finde Intels neues Lineup genau wie Zen 5 sehr interessant. Das wird bei uns auch noch viel internes Testen bedeuten.
 
  • Gefällt mir
Reaktionen: sikarr
  • Gefällt mir
Reaktionen: Rockstar85, suessi22, Legalev und eine weitere Person
Geekbench war schon immer Müll und hat wenig Aussagekraft auf die Leistung der CPU in verschiedenen Anwendungen. Ohne Tests über mehrere Anwendungen und Spiele unter den gleichen Bedingungen und mit gemessenen Leistungsaufnahmen ist das eben genau so wenig wert, wie Werbefolien von Herstellern mit zweifelhaften Cherrypicking.

Interessant wird, wie das neue Konzept von Intel so wirkt. Ich mag da keine Einschätzungen geben.
Immerhin, wenn der CPU-Teil von TSMC gefertigt wird, ist potenziell mehr Effizienz drin. Und da muss Intel eben noch einiges tun.
 
  • Gefällt mir
Reaktionen: cookie_dent, Innocience und sikarr
Zurück
Oben