Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Intel Arrow Lake: Weitere Infos zu CPU und Chipsatz der neuen Plattform
- Ersteller MichaG
- Erstellt am
- Zur News: Intel Arrow Lake: Weitere Infos zu CPU und Chipsatz der neuen Plattform
So so,die kommende CPU hat also ne NPU.Naja ich verwende nur ne ältere Software.Weis nicht so recht.Denke mal nicht das diese rechenintensive alte Software damit was anfangen kann.Und dann am Ende auch noch weniger Leistung haben.Also Hypertrading also HT darauf spricht meine Software verdammt gut an.Nur ab einer gewissen Anzahl an Kerne dann im Negativen,aber so viele hat Intel ja nicht.Von daher sehe ich da noch keine Probleme des Auslastungs Problems.Die Schranke kommt ja erst noch. Bei den Threadripper sehe ich die Schranke,so weit wird es bei Intel so schnell nicht kommen.Vielleicht aber halt in der Zukunft mal,wer weis.
HT also abzuschalten,halte ich also für ein Fehler.Wäre das so und dem NPU ,dann sehe ich da ein Minus an Leistung,es sei denn Intel schafft dann im gleichen Zug 7 ghz oder mehr an Allcore Takt,dann kann Intel die Nachteile ausgleichen.Wäre aber nen teures Opfer das Intel da dann machen könnte.Es wird sehr teuer erkauft und der hohe Takt erzeugt mehr Abwärme,höheren Stromverbrauch.So viel kann man also durch ein Verzicht von HT nicht mal ansatzweise abfangen,durch mehr Takt.
Das kann ich mir echt nicht vorstellen.Klar Games sind gewiss die Gewinner,aber dann außerhalb davon eher halt nicht.
Ich weis das Handbrake,Xmedia Recode usw nicht von noch mehr Cache Profitieren.Sieht man ja gut an die X3d CPUS das noch mehr Cache kein Wundermittel ist. Wäre das anderst,dann würde ich ja nichts dazu sagen.Mir wäre auch lieber wenn mehr Cache zu mehr Leistung führen würde.Aber bei Programmen kann man eben nicht Zaubern.
HT also abzuschalten,halte ich also für ein Fehler.Wäre das so und dem NPU ,dann sehe ich da ein Minus an Leistung,es sei denn Intel schafft dann im gleichen Zug 7 ghz oder mehr an Allcore Takt,dann kann Intel die Nachteile ausgleichen.Wäre aber nen teures Opfer das Intel da dann machen könnte.Es wird sehr teuer erkauft und der hohe Takt erzeugt mehr Abwärme,höheren Stromverbrauch.So viel kann man also durch ein Verzicht von HT nicht mal ansatzweise abfangen,durch mehr Takt.
Ergänzung ()
Ja aber nur der Tatsache wenn die Anwendung wirklich noch mehr Cache davon Profitiert.Wenn die Software nicht mehr von noch mehr Cache Profitiert,wie auch von NPU nicht profitiert,dann wird es kein gleichstand geben können,dann wird Intels neue kommende CPU der neuen AMD CPU unterlegen sein und dann würde es eher schlecht für intel sein.Nur mehr Cache kann nicht das Allheilmittel für mehr CPU Leistung sein.BAR86 schrieb:Aber solange man nicht kräftig bei der Architektur umrührt (mehr Cache wird kommen, aber das ein ich damit nicht), wird man eben nur quf, nicht überholen
Das kann ich mir echt nicht vorstellen.Klar Games sind gewiss die Gewinner,aber dann außerhalb davon eher halt nicht.
Ich weis das Handbrake,Xmedia Recode usw nicht von noch mehr Cache Profitieren.Sieht man ja gut an die X3d CPUS das noch mehr Cache kein Wundermittel ist. Wäre das anderst,dann würde ich ja nichts dazu sagen.Mir wäre auch lieber wenn mehr Cache zu mehr Leistung führen würde.Aber bei Programmen kann man eben nicht Zaubern.
Zuletzt bearbeitet:
BAR86 schrieb:Aber solange man nicht kräftig bei der Architektur umrührt
Wenn die neuen P-Kerne kein SMT/HT haben, spricht das dafuer, dass sie kraeftig bei der Mikroarchitektur umruehren.
Das ist genau das was Intel bei zukünftigen CPUs mit einer Neuauflage seines Thread Directors und den Rentable Units plant, eine Art Reverse Hyper Threading.sikarr schrieb:So funktioniert das aber nicht, die CPU kann die "Rechenaufgabe" mal nicht eben vierteln und auf andere CPUs verteilen. Es gab mal eine Ankündigung einer CPU die sowas können soll, damit hätte man belibig viele Cores auslasten können (so der feuchte Traum) aber die ist wie so vieles im Sand verlaufen.
Wann diese kommen sollen steht noch nicht ganz fest. Intels Forschungen sind allerdings was das betrifft schon recht weit.
So wie ich die Sache verstanden habe wäre für eine vollständige Behebung von Spectre ein von Grund auf neues OoO Konzept notwendig, sprich eine von Grund auf neu entwickelte x86-64 Architektur.sikarr schrieb:Das wirds wohl sein, sie haben ja schon beim erscheinen von Spectre gesagt das um das zu beheben eine Architekturänderung erfordert, vielleicht haben sie es nicht in den Griff bekommen.
Eine tragische Ironie ist z.B. dass Intel SGX in die CPUs implementiert hat um die Verarbeitung von dieser sicherer zu machen, allerdings hat sich mittlerweile herausgestellt dass SGX sogar ein Sicherheitsrisiko darstellt und so hat Intel SGX bei neuen Rechnern standardmäßig per BIOS/UEFI deaktiviert.
SGX und Hyper Threading sind in Kombi wohl ein noch größeres Risiko.
Zuletzt bearbeitet:
- Registriert
- Nov. 2009
- Beiträge
- 6.515
Kam auch an. 😀BAR86 schrieb:ich drücke mich manchmal ungschickt aus, aber dort wollte ich hin.
Auch richtig. Intel wechselt ja mit Arrow Lake auf dem Desktop auch aufBAR86 schrieb:Wenngleich das beides in seiner Pauschalität nicht stimmt.
Es gibt da ja die Gerüchteküche zu "Rentable Units", zu denen Volker hier das Patent verlinkt hat. Die Idee ist da, dass bei mehreren parallel ankommenden Threads ermittelt wird, welche Abschnitte besonders rechenintensiv sind und welche nicht. Die rechenintensiven können von P-Cores deutlich schneller bearbeitet werden, die anderen laufen auch auf den E-Cores gut. Dann verteilt man die Abschnitte der Threads entsprechend an die geeigneten Cores und die Threads werden insgesamt schneller abgeschlossen. Der Scheduler kann die Abschnitte auch auf mehrere E-Cores pro P-Core aufteilen. Mit diesem Verfahren erhöht man die Auslastung der Kerne und kann pro Thread einen höheren Schub als mit Hyperthreading erzielen. Es ist aber auch klar, dass dieser große Leistungszuwachs mit der Erkennung dafür geeigneter Aufgaben durch den Scheduler steht und fällt, und man ihn längst nicht in allen Situationen sehen wird.BAR86 schrieb:Aber solange man nicht kräftig bei der Architektur umrührt
Ja, die Idee die Arbeit auf "echte" Cores auszulagern ist ja nicht neu und wird immer wieder diskutiert.Nixdorf schrieb:Es gibt da ja die Gerüchteküche zu "Rentable Units", zu denen Volker hier das Patent verlinkt hat.
Man könnte auch argumentieren, dass Bulldozer mit den "halben" Kernen ja auch in die Richtung ging.
Ergänzung ()
Bleibt abzuwarten ob das dann so ist.mae schrieb:Wenn die neuen P-Kerne kein SMT/HT haben, spricht das dafuer, dass sie kraeftig bei der Mikroarchitektur umruehren.
Und ob man nicht einfach HT "abschaltet" und auslagert.
Dann ist immer noch kein großer Umbau am Core notwendig
Also bei 8+32 könnte ich mir auch ht abschalten bzw weg lassen auch durchaus gut vorstellen. Denn so schlecht sind die e kerne nicht, sind ja sogar besser die e Kerne als ht bzw smt so könnte man es ja sehen.
Es sei denn Intel Entwickler ht weiter, dann sieht es anderst aus. Wenn nun das neue ht zu 60 % von einem Kern entsprechen würde, wäre das eine weiter Entwicklung. Die Leistung würde dann ansteigen. Allerdings ab einer gewissen Kern Menge dann wieder verpuffen weil dann die meisten Programm Probleme damit hätten umzugehen.
Es wird sich also zeigen wie es in dieser Hinsicht weiter gehen würde. In meinem Fall egal ob ausreichend e Kerne also mehr oder verbesserte HT, beides führt am Ende zu mehr Leistung.
Und freilich wenn man nun die jeweiligen Aufgaben nun an 32 e kernen legt, die latenz sinkt sehr stark und ein hin und her wechseln wird verhindert.
Wenn das nicht reicht kann man es ja auch fest, also ne feste Anzahl an kernen der jeweiligen Software legen mit process lasso und schon wären 32 e kerne ne super sache. Mit einer Software alleine wäre es ja ohnehin nicht möglich so einfach 32 kernen auszulasten.
Mir ist schon klar das 32 e kernen gegen einen 24 Kerner ohne smt/HT nur höchtens gleich stand herrscht bzw nen kleiner Rückstand. Wie viel würde sich schon zeigen.
Es sei denn Intel Entwickler ht weiter, dann sieht es anderst aus. Wenn nun das neue ht zu 60 % von einem Kern entsprechen würde, wäre das eine weiter Entwicklung. Die Leistung würde dann ansteigen. Allerdings ab einer gewissen Kern Menge dann wieder verpuffen weil dann die meisten Programm Probleme damit hätten umzugehen.
Es wird sich also zeigen wie es in dieser Hinsicht weiter gehen würde. In meinem Fall egal ob ausreichend e Kerne also mehr oder verbesserte HT, beides führt am Ende zu mehr Leistung.
Und freilich wenn man nun die jeweiligen Aufgaben nun an 32 e kernen legt, die latenz sinkt sehr stark und ein hin und her wechseln wird verhindert.
Wenn das nicht reicht kann man es ja auch fest, also ne feste Anzahl an kernen der jeweiligen Software legen mit process lasso und schon wären 32 e kerne ne super sache. Mit einer Software alleine wäre es ja ohnehin nicht möglich so einfach 32 kernen auszulasten.
Mir ist schon klar das 32 e kernen gegen einen 24 Kerner ohne smt/HT nur höchtens gleich stand herrscht bzw nen kleiner Rückstand. Wie viel würde sich schon zeigen.
- Registriert
- Nov. 2009
- Beiträge
- 6.515
Das Hauptproblem von Bulldozer war der Mangel an Decodern. Was die Module gar nicht erst erreicht, das kann man auch nicht aufteilen. Die Architektur war einfach schlecht ausbalanciert. Mit späteren Revisionen wurde das besser, aber richtig toll waren die Module nie. Aber wir schweifen ab.BAR86 schrieb:Man könnte auch argumentieren, dass Bulldozer mit den "halben" Kernen ja auch in die Richtung ging.
eastcoast_pete
Lt. Commander
- Registriert
- Juni 2020
- Beiträge
- 1.693
Was gerade beim Thema "Leistung in Spielen" relevant ist bzw sein könnte: die Ein Kern (Single Core) Leistung, die oft (aus guten Gründen) bei Gaming Tests von CPUs angeführt wird, ist ja genau genommen nicht die Leistung des leistungsstärksten Kernes, sondern die maximale Single Thread Leistung, die eine CPU bereitstellen kann. Und daher weiß man im Moment noch nicht, ob und wie gut oder schlecht sich Arrow Lake hier im Vergleich mit Zen 4 oder Zen 5 schlagen wird. Für maximale Single Thread Leistung ist HT ja entweder Wumpe oder sogar nachteilig.
Ich habe mir schon öfter gewünscht, daß zukünftige x86/x64 CPUs hier einen (1) besonders performanten P Kern hätten, so wie zB die großen Snapdragon SoCs das auch machen. Dem Kern können dann die Threads zugewiesen werden, die viel Leistung wollen und auch Priorität haben Die SD SoCs haben ja einen X3 bzw X4 Kern, der deutlich schneller ist als die anderen großen Kerne (710 usw), und daher auch mehr Fläche im Silizium und mehr Strom brauchen darf. Wäre interessant, wenn Intel und AMD sich auch sowas überlegen. Der eine große Kern kann ja auch extra L1 und L2 bekommen, kostet zwar Fläche, aber für einen Kern (anstatt 4 oder 8) ist das noch eher vertretbar.
Wenn's hier jemand weiß ob das versucht wird, bzw auch warum daraus trotzdem nichts geworden ist, bitte reinstellen!
Ich habe mir schon öfter gewünscht, daß zukünftige x86/x64 CPUs hier einen (1) besonders performanten P Kern hätten, so wie zB die großen Snapdragon SoCs das auch machen. Dem Kern können dann die Threads zugewiesen werden, die viel Leistung wollen und auch Priorität haben Die SD SoCs haben ja einen X3 bzw X4 Kern, der deutlich schneller ist als die anderen großen Kerne (710 usw), und daher auch mehr Fläche im Silizium und mehr Strom brauchen darf. Wäre interessant, wenn Intel und AMD sich auch sowas überlegen. Der eine große Kern kann ja auch extra L1 und L2 bekommen, kostet zwar Fläche, aber für einen Kern (anstatt 4 oder 8) ist das noch eher vertretbar.
Wenn's hier jemand weiß ob das versucht wird, bzw auch warum daraus trotzdem nichts geworden ist, bitte reinstellen!
Das Problem ist halt das Scheduling. Bei Spielen hast du so viele unterschiedliche Dinge die parallel laufen (KI, Physik, Audio, Weltenberechnung...), dass du zwar einen schnellen und einige weniger schnelle Kerne haben kannst, aber allein beim "welche Aufgabe ist nun die aufwändigste/wichtigste..." etc wirds schwierig.eastcoast_pete schrieb:Wenn's hier jemand weiß ob das versucht wird, bzw auch warum daraus trotzdem nichts geworden ist, bitte reinstellen!
Spieleengines in den Frühen 2000ern haben so funktioniert, dass es eigentlich einen großen Mainthread gab und ein paar nette Nebenaufgaben, aber das ist halt veraltet.
Im Prinzip sollte es einer Spieleengine egal sein, wie "stark" ein Kern ist und einfach alles ordentlich threaden, dann kann man das "auf die CPU" werfen und die Kerne die grad frei sind kümmern sich drum. Doom Eternal macht so etwas, weshalb es (bis zu einer gewissen Kernanzahl) gut mit den Kernen skaliert, egal ob P-Kerne, E (bzw. C bei AMD) oder gar nur Hyperthreading.
- Registriert
- Nov. 2009
- Beiträge
- 6.515
Ähnliche Themen
- Antworten
- 106
- Aufrufe
- 9.065
- Antworten
- 117
- Aufrufe
- 10.660
- Antworten
- 93
- Aufrufe
- 7.675
4
- Antworten
- 201
- Aufrufe
- 20.281
- Antworten
- 107
- Aufrufe
- 10.540