Zukunft mit oder ohne HT?

Don_Tralle

Lt. Junior Grade
Registriert
Okt. 2021
Beiträge
395
Wenn Intel Hyperthreading wirklich einstampft (wie ist hier die Gerüchtelage zur neuen Generation?), wo ist dann eurer Meinung nach der crossover Punkt? Ist das Programm / Spielabhängig oder kann man hier etwas pauschalisieren? Sollte jeder seine Anwendungen selbst testen oder haltet ihr einfach die Füße still bei dem Thema? Man könnte HT ja selbst von Hand im Bios abschalten. Ich denke es wird sowieso obsolet, wenn Intel diesen Weg geht, was meint ihr?
 
Wenn HT durch einfach mehr Kerne ersetzt wird, hat man am Ende ja ohnehin einen Gewinn. Vermutlich einfach durch mehr E-Kerne, die selbst schon effektiver sein dürften, als die Ressourcen von P-Kernen zu teilen.
 
  • Gefällt mir
Reaktionen: Pjack und Skudrinka
Don_Tralle schrieb:
Sollte jeder seine Anwendungen selbst testen oder haltet ihr einfach die Füße still bei dem Thema?
Was sollte man testen?
 
Man wird zukünftig einfach mehr Hardware Kerne verbauen auf CPUs.
Könnte mir höchstens vorstellen dass es HT vielleicht noch auf den Low-End CPUs gibt.

Oder ganz wilde Vermutung:
Demnächst gibts Boards die onboard ne 8- oder 16-Kern CPU mit E-Kernen haben, die sich nur um das kümmern was das Betriebssystem so im Hintergrund macht. Im Chipsatz einfach integriert mit drin.

Und dann im CPU Sockel baut man quasi nur nen Co-Prozessor ein, der ausschliesslich für Anwendungen da ist und die berüchtigten Hochleistungskerne hat.
 
Intels "Rentable Units" geistern als Konzept ja schon eine ganze Weile umher und zeigen grob wo die Reise hingehen könnte.

Was sich letztlich durchsetzt wird man sehen. Wie schon erwähnt bleibt es letztlich (auch) anwendungsabhängig. Intel selbst hat ja in der Vergangennheit schon HT gestrichen und dann kurz darauf als Unterscheidungsmerkmal wieder eingefuhrt.
 
Das hätte ein bahnbrechendes Konzept werden können:


Aber wurde wohl gecancelt. Naja, mal gucken, vlt wenn Pat Gelsinger weg ist.
 
  • Gefällt mir
Reaktionen: Sensei21
ok, es ist schon sehr lange her (>=10Jahre) aber damals hat Intel selber auf seinen Compute-Servern in den Rechenzentren HT AUSgeschaltet!
es war "verboten" HT einzuschalten, weil die typischen Anwendungen (Cadence, Synopsys, Mentor & Co. (selbst die heißen heute schon wieder anders, weil die sich wie die Kannibalen auffressen)) mit HT langsamer liefen als mit.

trotzdem wurde HT "nach außen" als der ganz große Hit gefeiert...

am Ende ist es eine Frage, ob man den Marketing Fuzzies oder seinen eigenen Messungen traut, ich weiß was ich tue ;)

@quiller sorry, aber der Typ da im Video hat doch keine Ahnung (außer vielleicht wie man reißerische Videos macht).
Jim Keller hin oder her, die Frage ist eigentlich, was aus Intel geworden wäre, wenn nicht der Fly Fucker/Erbsenzähler Paul Otellini (zum ersten Mal in der Geschichte von Intel, dass ein "dummer Nicht Ingenieur" das Steuer in die Hand bekommen hat) nach dem Untergang von Transmeta Dave Ditzel hätte wirklich machen lassen, was er damals machen wollte. DAS hätte interessant werden können!

Im Moment hat Intel ja am meisten mit der ehemaligen TMG (Technology and Manufacturing Group, unter dem Namen kenne ich die noch) zu kämpfen. Das war vor 10-20 Jahren die CashCow schlechthin, so können sich die Zeiten ändern!
 
SpartanerTom schrieb:
Intels "Rentable Units" geistern als Konzept ja schon eine ganze Weile umher und zeigen grob wo die Reise hingehen könnte.

Was sich letztlich durchsetzt wird man sehen. Wie schon erwähnt bleibt es letztlich (auch) anwendungsabhängig. Intel selbst hat ja in der Vergangennheit schon HT gestrichen und dann kurz darauf als Unterscheidungsmerkmal wieder eingefuhrt.
"Rentable Units" sind wohl Geschichte:
https://www.heise.de/news/Fuehrende-Intel-Ingenieure-gruenden-RISC-V-Firma-9847710.html
 
foofoobar schrieb:
"Rentable Units" sind wohl Geschichte:
Naja, wenn der Chef eines großen CPU-Herstellers selber sagt, dass man leistungsstarke Kerne nicht mehr benötigt, weil CPUs eh nur noch Coprozessoren für GPUs o. AI-Beschleuniger sind, dann fragt man sich als CPU-Architekt, dessen eines der Ziele ja eigentlich der Performancefortschritt sein sollte, natürlich schon, was man dann in der Firma noch soll.

Ich fand dieses Konzept jedenfalls extrem spannend. Könnte mir auch gut vorstellen, dass das mit nem Nachfolger Gelsingers wieder ausgebuddelt wird.
 
Intel hat schon in der Vergangenheit sich von HT abgewendet (Core2) und dann wieder zugewandt (Core i) Nichts ist so stetig wie der Wandel.
 
qiller schrieb:
Ich fand dieses Konzept jedenfalls extrem spannend. Könnte mir auch gut vorstellen, dass das mit nem Nachfolger Gelsingers wieder ausgebuddelt wird.
Cool, du weißt was sich hinter diesem Begriff versteckt.
Erzähl uns was darüber.
 
Und in zwei Generationen kommt es dann, als "das" Feature wieder zurück. Es gibt doch viel zu viele CPUs am Markt mit HT, dass es weder wegfallen wird, noch das der Support eingestellt wird.

Auch bei 64 oder gar 128 Kernen macht es noch noch immer Sinn, jeden Kern bestmöglich zu nutzen. Klar gibt es Anwendungen, die das nicht so mögen, aber eben auch den umgekehrten Fall und war das im Server Segment nicht auch den Sicherheitsproblemen bei VMs geschuldet?
Vielleicht kommt da auch ein "on the fly" Logik. Sieht man ja am aktuellen AMD, dass durch einen optimierten Scheduler einiges rauszuholen ist.

Am Ende sage ich "Who cares?" Wenn die nächste CPU gleiche oder mehr Leistung bei weniger Verbrauch liefert, bin ich zumindest zufrieden.

Und bevor man eine Diskussion um HT führt, sollte man lieber mal den teils überflüssigen x86 oder noch älteren Ballast streichen.

PS Und es stimmt doch, was ist denn noch CPU limitiert? Gaming bei 300 Frames? Fast alles andere lässt sich eben durch noch mehr Kerne lösen und da, wo das nicht geht, sollten sich ein paar schlaue Köpfe bessere Algorithmen ausdenken.
 
Zuletzt bearbeitet:
Spawn182 schrieb:
Und bevor man eine Diskussion um HT führt, sollte man lieber mal den teils überflüssigen x86 oder noch älteren Ballast streichen.
Dann aber nicht mit ARM als Monopolisten, für X64 gibt es wenigstens 2 Anbieter.
 
@foofoobar Es geht ja nicht um das Abschaffen der x86 Architektur als Ganzes, es werden ja nur so Dinge mitgeschleppt, um zwangsweise kompatibel zu bleiben und ich denke der Platz könnte für zeitgemäße Funktionen besser genutzt werden oder eben ganz gespart werden.

Und ein reines x64 aus dem x86-64 mit dem x86 Part auf Emulationsebene wäre auch nicht so falsch.

Es gab ja schon einen Vorschlag Seitens Intel, aber ich glaube daraus ist bis jetzt noch nichts geworden.
 
Zurück
Oben