Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestIntel Raptor Lake im Test: Core i9-13900K, i7-13700K & i5-13600K jagen Ryzen 7000
tut mir leid, aber einen kanal mit 12k abonennten mit dermaßen BESCHISSENEN thumbnails bei den videos, will ich mir echt nicht antun.
zusammenfassung bitte. was labert der und was soll an den HUB und Jordan Benchmarks falsch sein? - es sind übrigens nicht die einzigen 2 outlets, die den 7600X VOR dem 13600k sehen. und bei CB ist der unterschied MAXIMAL extremst. die spieleauswahl ust super druper Intel-friendly. Außerdem hat HUB und Jordan wesentlich mehr spiele getestet.
So wie es aktuell Ausschaut wird es nächstes Jahr für den Sockel 1700 noch mal einen Raptor Lake Refresh geben weil Meteor Lake wohl erst 2024 in den Regalen stehen dürfte.
ich habe meinen 13900k zunächst mit meinem bestehenden OS (W11 Insider) in Betrieb genommen, neulich aber neu installiert.
Interessanterweise fällt mir nun auf, dass das Big Little nun anders agiert als bisher angenommen. Auf 80W limitiert (Langzeit Last) nutzt das OS 100% der E Kerne, spart sich die P Kerne komplett auf. Woran es das fix macht ka, FFMPEG jedenfalls wird so auf die E Kerne verlagert. (an sich ja gut wenn das ggf sogar effizienter/ schneller ist)
Dabei starte ich ohne Prozessvorgabe, also "start /wait".
"start /wait /low" verhält sich gleich.
Nutze ich "start /wait /high" geht er auf alle Kerne.
Jetzt müsste ich mal noch schauen was schneller ist. Bei zb 100W fixed. Mehr Takt auf E Kernen oder Mixed P + E. Alle mal interessant
Auf 80W limitiert (Langzeit Last) nutzt das OS 100% der E Kerne, spart sich die P Kerne komplett auf. Woran es das fix macht ka, FFMPEG jedenfalls wird so auf die E Kerne verlagert. (an sich ja gut wenn das ggf sogar effizienter/ schneller ist)
Das kann man ja selbst überprüfen, indem manuell auf bestimmte Kerne fixiert wird. Wäre vielleicht mal eine schöne Testreihe.
Die Frage ist halt, wie hoch die P-Kerne mit dem Takt überhaupt kommen, wenn man insgesamt nur 80W zur Verfügung stellt. Die IPC der P-Kerne ist zwar deutlich höher, aber dafür kann auch schon ein einzelner bei maximalem Takt locker 40W aufnehmen.
Die Frage ist halt, wie hoch die P-Kerne mit dem Takt überhaupt kommen, wenn man insgesamt nur 80W zur Verfügung stellt. Die IPC der P-Kerne ist zwar deutlich höher, aber dafür kann auch schon ein einzelner bei maximalem Takt locker 40W aufnehmen.
Ich versuche mal eine kleine Testreihe zu machen. Die P Kerne können auch bei 80W hoch takten, keine Sorge.. richtig ineffizient wird's erst ab 5.5 GHz +
Um mal das mit E und P Cores bei 80W nachzustellen...
-> FFMPEG mit /low baucht ~5:07 Minuten = nutzt nur E Kerne
-> FFMPEG mit /high braucht ~3:10 Minuten = nutzt E + P Kerne
Jeweils Limit auf 80W, aus der Dose zieht der PC dabei gleich viel Saft (gemessen am Energymeter). Tendenz vielleicht 1-3W mehr bei high.
Die Taktraten auf /low:
und hier auf /high
Sieht auf /low wesentlich höher aus, aber bedenken dass hier nur die E Kerne ausgelastet wurden.
In Summe sind hier alle 24 Kerne = 32 Threads im Verbund wesentlich schneller und effizienter als die Sache auf 16 E Cores bei höherem Takt zu limitieren. Ich frage mich etwas die das im Alltag aussieht, da scheint ja an sich dann was nicht richtig zu laufen da es wenig Sinn macht ineffizienter zu agieren.
Der Energiesparplan macht keinen Unterschied.
Das Ergebnis überrascht mich jetzt schon. Vermutlich sind 80W noch viel zu viel um die E Kerne wirklich in ihren effizienten Bereich zu treiben, aber niedriger Takt auf vielen Kernen ist eigentlich fast immer effizienter als eine Teilmenge an Kernen höher zu takten.
Einziger Vorteil wäre ggf die 8 P Kerne für irgendwelche Foreground Sachen frei zu haben, aber auf Kosten der Effizienz?
In Summe sind hier alle 24 Kerne = 32 Threads im Verbund wesentlich schneller und effizienter als die Sache auf 16 E Cores bei höherem Takt zu limitieren.
Dass alle Kerne zusammen am schnellsten sind, ist eigentlich intuitiv sofort klar. Gründe für eine unerwartete Performance-Regression hätten sich nur ergeben, wenn die Takte wirklich komplett absaufen. Den Effekt kann man beim 7950X auf 45W beobachten, der dann kein Stück schneller ist als ein 7700X auf den gleichen 45W. Das liegt beim Ryzen an der höheren Grundlast für das Chiplet-Design bei zwei CCDs. Irgendwo bei sehr, sehr niedrigem Limit wird das vielleicht auch bei einem 13900K passieren.
Mich nicht. Mich hatte eher überrascht, dass der Thread Director die P-Kerne in vollem Umfang ruhen lässt. Das sieht eher nach einer Strategie zum Maximieren der Akkulaufzeit aus, als nach einer effizienten Nutzung einer Desktop-CPU.
Krautmaster schrieb:
Einziger Vorteil wäre ggf die 8 P Kerne für irgendwelche Foreground Sachen frei zu haben, aber auf Kosten der Effizienz?
Das ist so logisch wie einen Sportwagen dauerhaft im ersten Gang zu lassen, dann hat man die anderen Gänge frei für wenn man schnell fahren möchte... ich will JETZT schnell fahren!?
Es ergibt vielleicht Sinn, ein bis zwei Kerne für kurze Burst-Anforderungen frei zu lassen, aber den Rest sollte man bei Dauerlasten immer nutzen. Schließlich kann man die Kerne immer noch freigeben, sobald tatsächlich eine zweite Multi-Core-Last kommt.
Als Fazit bleibt, dass man auch bei Windows 11 mit der Automatik des Thread Directors Performance brach liegen lassen kann.
E cores waren nie für efficency gedacht. sondern für viele kerne pro fläche. mehr nicht. zudem konnte man damit weiter einsparen durch weglassen von HT
Mich nicht. Mich hatte eher überrascht, dass der Thread Director die P-Kerne in vollem Umfang ruhen lässt. Das sieht eher nach einer Strategie zum Maximieren der Akkulaufzeit aus, als nach einer effizienten Nutzung einer Desktop-CPU.
Naja, maximieren der Akkulaufzeit wodurch? Es will ja die gleiche Arbeit verrichtet werden. Klar wenn man von einem Job ausgeht bei dem es egal ist wie lange er läuft, dann kann man das so machen und diese Jobs auf die E Cores legen, effizienter ist es aber dadurch nicht bzw nur wenn diese anders als die PCores auch wirklich effizient getaktet werden ggf.
Es ergibt vielleicht Sinn, ein bis zwei Kerne für kurze Burst-Anforderungen frei zu lassen, aber den Rest sollte man bei Dauerlasten immer nutzen. Schließlich kann man die Kerne immer noch freigeben, sobald tatsächlich eine zweite Multi-Core-Last kommt.
dem scheint so. Wenn ich zb FFMPEG anstarte ist ein sehr kurzer Burst (~1s, eher weniger) auf allen Kernen zu verzeichnen, danach wird aber auf die E only verlagert. Möglich aber auch dass es eine Liste an Apps gibt bei denen so verfahren wird oder dass das die Software Entwickler vorgeben können. Wobei es wie gesagt nur Sinn machen würde wenn es wirklich effizienter wäre. Wohl gehts aber eher darum das System reaktiv zu halten.
Nur P Cores ist ggf interessant um quasi mal bei hartem Limit die P und E Cores getrennt bezüglich Effizienz durchzutesten, aber da hab ich wenig Ambition aktuell da ich die Es nicht abschalten werde ^^
Ergänzung ()
PS828 schrieb:
E cores waren nie für efficency gedacht. sondern für viele kerne pro fläche. mehr nicht. zudem konnte man damit weiter einsparen durch weglassen von HT
ja was ja auch extrem wichtig ist wenn man auf selbe Fläche wesentlich mehr Rohleistung unterbekommt. Wäre interessant das noch weiter zu testen. Vollbild etc der App ändert nichts, man weiß ja nicht was alle in Windows herangezogen wird um einer App beizubringen auf P Cores umzusteigen.
Aber auch da ist immer von efficient Kernen die Rede, müsste Mal Stock Bios vergleichen was bei rum kommt. Bringt ja nichts bei harten Power limit auf E Kerne zu beschränken wenn diese langsamer sind als alle Kerne zu nutzen. Dabei läuft das Gerät gleich lange bei weniger Leistung... Sinn?
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
sorgt dafür dass alle Kerne genutzt werden unabh davon ob ich beim Prozesstart im CMD /HIGH oder sonstwas mitgebe. Was aber interessant wäre wenn damit das Setting "Beste Leitung" effizienter agieren würde als "Ausbalanciert".
Ich denke mit mehr E Kernen auf wenig P Kernen mag das kippen, ggf auch bei niedriger TDP um 20W dass hier dann irgendwann die E Kerne auch wirklich effizienter agieren und linear mit Takt / Spannung gehen, aber schwer zu sagen.
Wie lange die Aufgabe dauert, das weiß der Thread Director ja vorher nicht. Dadurch, dass nicht "Beste Leistung" gewählt wird, suggeriert man zusätzlich noch, dass es auch etwas länger dauern darf. Also werden die E-Kerne bevorzugt. Bei langem Transkodieren geht das dann letztendlich nach hinten los.
das würde aber nur dann Sinn geben wenn es mit den E Kernen entweder
1.) ein andere Power Limit gäbe, also der PC / Notebook whatever dann weniger Strom ziehen würde (bei mir braucht er in beiden Fällen ja konstant 80W) da egal wie lang der Workload dauert oder
2.) bei gleichem Strom die Performance mit E Kernen only besser wäre da die bei gleichem Power Limit höher takten als der P+E Mix.
Beides ist aktuell mit dem 13900K im Desktop und 80W Limit nicht gegeben. Das Profil "Ausgeglichen" liefert also weniger Effizienz & Performance als "Beste Leistung" - das ja genau der Punkt der irrational ist und bei dem sich das der Thread Director sparen könnte.
Interessant wäre wie es sich bei anderen Alderlake / Raptorlake Besitzern verhält. FFMPEG ist mir es eben aufgefallen dass er im Standard nur die E Kerne nutzt. Bei Cinebench etc ist das vermutlich gar nicht so, ergo machts da keinen Unterschied.
Ergänzung ()
@SVΞN testst Computerbase hier eigentlich mit dem Power Scheme "Ausgeglichen" oder "Beste Leistung" ? Merci =)
Bei reinen CPU-Tests im Desktop mit "Beste Leistung". In der Regel machen die beiden Profile aber keinen Unterschied, wenn eine Software so krass nur die eine Anzahl Kerne nimmt, liegt es eher an der.
Bei irgendwas hatten wir so einen Fall auch, weiß aber nicht mehr genau wo.
Meist passiert sowas dann bei Notebooks, wo im BIOS noch rumgefuscht wurde .. da kann jedes Profil schnell was anderes hervorbringen. Deshalb sind Notebook-CPU-Tests immer nervig .. und man kann auch nie nur einem Test glauben, die GErüchte liegen hier deshalb oft vor dem Launch ordentlich daneben.
Also schade finde ich das man den Thread Director sedulder nicht selbst abschalten kann weil deracht merkwürdige sachen. Ich dürfte ja den 13900k bei wem ausführlich testen. Da sind mir auch merkwürdige Sachen aufgefallen. Auch mit Power Verhältnis ebenso unterschiedliche Ergebnisse gefunden. Da ich ja 2 gleich starke Programme nämlich gleiches Programm beim videoumwandeln verwende und der test ja bei über 1 minute dauert. Das Programm selbst hat auch was von priotät niedriger als normal, normal oder höher als normal usw.
Steht es auf niedriger als normal ist alles in ordnung. Kaum wird höher als normal gestellt kommen unterschiedliche Ergebnisse dabei raus.
Total merkwürde Sachen. So wie bei dem energiesparplan halt auch. Auch die auslastung total konvus.
Bei Begrenzung der Watt ergab es auch keine so eindeutige Leistung mehr aber dafür ne super schlechte.
Bei so ein Ergebnis bleibt man besser bei der 10 oder 11 gen weil das ist ja schrecklich.
Schade das sowas keiner unter windows 10 getestet hatte. Es wird ja immer geschrieben das die e Kerne nicht angezeigt werden. Es wird da jedoch auch da Tricks geben um das Problem zu lösen. Notfall mit einem extra Tool.
Ansonsten hat Intel keine gute Qualität abgeliefert. Und den User auch keine wahloption gegeben. Naja Intel entscheidet halt immer gerne für die bezahlten User, ist halt so.
Das ja auch teils Sache von MS. Ich hab das denen als Feedback auch gemeldet, denn es macht keinen Sinn mehr Energie für weniger Performance zu verbraten
indirekt passt es hier rein, daher kurze Frage an diejenigen die eine Alderlake oder Raptor Lake ihr eigenen nennen.
Sofern man auf dem Desktop ist (also kein Spiel läuft, keien Anwendung groß Leistung kostet) und man nur im Internet surft oder meinetwegen ein YT Video/Stream schaut:
Nutzt die CPU/Das Windows dann nur die Effizienzkerne und verbraucht somit möglichst wenig Strom, oder laufen die Performance Kerne dann auch mit?
Hintergrund: Bei mir steht Anfang nächsten Jahres ein neuer PC an und ich spiele zwar am PC aber bin doch recht häufig nur am surfen/Videos/Serien/YT/Twitch usw. und das kostet alles nicht viel Leistung ... daher wäre es interessant den Stromverbrauch zu minimieren ... bisher war geplant wahrscheinlich Ryzen 7000x3D zu kaufen insofern die dann raus sind UND die Tests adäquat sind ... aber die Ryzen haben keine Effizienzkerne ...
Hat da mal jemand bei sich in einem Tool nachgesehen welche CPU Kerne beim Surfen usw. genutzt werden?