Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel zum IEDM 2022: Höher, Schneller und Weiter in der Chipindustrie
Zum Forschungskongress IEDM hat Intel dieses Jahr gleich neun Vorträge im Gepäck. Sie zeigen Teile einer möglichen Zukunft der Industrie für die nächsten 10 Jahre. Wie üblich sind exakte Übernahmen selten, Teile der Forschung werden jedoch mit anderen verknüpft um irgendwann wirklich in Produkten zu finden sein.
Man kann Intel bashen wie man will. Zumindest seit Ingenieur Gelsinger das Zepter übernommen hat tu sie sehr viel für de Fortschritt der Computerwelt.
Allein das mit dem FeRAM, eigentlich wäre das doch das Metier von SKHynix und co....
Lesen kannst du oder? Es sind vier Blades mit je einem Epyc. Es sind also vier getrennte Server im kompakten Format. Vom selben Hersteller bekommst auch eine Dual Xeon Variante mit max 2x40C pro Blade.
Ich will die Leistung nicht schmälern, es ist viel Rechenpower auf zwei HE, aber eben kein 4xEpyc Server und nichts was heutzutage irgendjemand vom Hocker reissen würde.
Stimmt mich positiv für die Zukunft. Zu wissen das wir ein ganzes Rudel an „Luftschlössern“ haben, von denen vielleicht 1 oder 2 Realität werden ist mir lieber als in anderen Industriezweigen, wo man seit Jahrzehnten auf der Stelle tritt.
0,15V sind dann doch eine Ansage.
Da die Spannung quadratisch in die Verlustleistung einfließt, wäre das eine mörder Einsparung! Wenn Displays jetzt einen ähnlichen Sprung hinlegen, haben wir bei aktuellen Akkus schon Smartphones mit einer Woche Laufleistung xD
Intels Finfet DUV schlägt TSMC AMD in fast allen relevanten Belangen. Viele Leute glauben, dass EUV, besonders von TSMC für AMD sehr viel besser ist als DUV und Intels Prozesse.
Offenkundig ist das nicht so einfach.
Ist EUV noch nicht so ausgereift, wie Intel seine DUV Prozesse beherrscht? Wenn EUV so viel besser ist, ganz objektiv, was passiert wenn Intel den Prozess entsprechend führt oder bei TSMC fertigen lassen würde?
Ist dazu etwas den Präsentationen zu entnehmen?
ui so wenig Spannung auf den CPUS .wenn das wirklich Einzug gehalten hat,dann wird es auch super sparsame Mini Computer noch kommen.Es sind ja immer mehr Menschen die Energie sparen wollen.Ich bin da auch sehr stark unterwegs.Ich habe es bisher nur geschafft auf 30 Watt Vollast.Das scheint mir noch immer nicht genug zu sein.Nur noch immer weniger Spannung kann da noch weiter drücken.VIelleicht erleben wir dann auch mal CPUS die unter Vollast nur 15 Watt an Strom verbrauchen.Und intel kann wenn sie so weit runter kommen vielleicht auch im Smartphone bereich mal Fuß fassen.Dann hätten sie noch einen weiteren Standbein wenn mal im Desktop ne Flaute ist.So wie AMD eben bei den Konsolen.Darum geht es auch jetzt AMD nicht schlecht.Damit kann man mögliche Verluste Abfedern.
Man muss immer Mehrgleisig fahren um weiter zu kommen.
Und ja je sparsamer desto besser.Also ich begüße das als Low Zocker sehr.Warum low,weil nur maximal in Full HD ,gewisse Effekte wie Ambient Occulsion ich Automatisch abschalte weil es mich tierisch stört.Ich zocke also niemals mit maximale Details,selbst wenn ich es könnte. Dann auch noch FPS selbst limitiere.Ich will also noch extra Stromsparen.Die Onbard GPU wird wohl dann an Leistung ebenso weiter steigen.Bei so GPUS wie gtx 750,gtx 1050 ti oder gtx 1650 wird man mit so ner Masname wie es Intel macht sehr schnell solche GPUS auch bei Onbard GPUS zu sehen bekommen.
Sowas da bin ich wahrlich bereit.
Es ist klar das man es auch ausschalten kann um maximal Strom zu sparen,aber dann kann man gleich auf PC ganz verzichten.Das ich das nicht will,hilft nur eines,immer weiter runter zu drosseln.
Nur mit meinen Systemen bin ich leider am Ende angekommen.
Da heißt es also abwarten bis sowas kommt wo man die SPannung noch weiter runter senken kann.
Hypertrading ist schon aus,Takt fest Eingestellt ohne Turbo oder sowas.Ich wollte eigentlich noch weiter runter aber das lässt der Pc nicht zu.Wollte sogar die Anzahl der Kerne Limiterieren.Aber das wollte das OS leider nicht.
Nun heißt es also nur noch abwarten was so kommt.Ich bin also was Strom angeht feuer und Flamme.
Die Onbard GPU wird wohl dann an Leistung ebenso weiter steigen.Bei so GPUS wie gtx 750,gtx 1050 ti oder gtx 1650 wird man mit so ner Masname wie es Intel macht sehr schnell solche GPUS auch bei Onbard GPUS zu sehen bekommen.
Sowas da bin ich wahrlich bereit.
na meinte im Desktop Bereich.Und lange wird es nicht mehr dauern,bis dann auch bei den Onbard GPUS geschlagen wird.Ich weis das die gtx 750 ti fast geschlagen wird,siehe die Onbard GPU von den Zen 4 CPUS.
Aber das reicht nicht,da wird Intel mit weniger Spannung mehr Leistung herausholen können.Und das ist nur ne Frage der Zeit bis es das erreicht wird.Ich werde auf das Level bleiben.Ich bin schon lange nicht mehr auf mehrleistung angewiesen. Scheine wohl die richtigen Games zu zocken.Die gtx 1650 langweilt sich schon sehr,verbraucht aber dennoch sehr viel Strom.Und genau da wird Intel durchaus was dran herumreizen zu können.
Bin mal gespannt, wie die Lösung dafür aussehen wird. Ein Problem mit den niedrigen Betriebs-Spannungen ist, dass der Transistor bei 0 V dann schon ganz nah an seiner Schwellspannung sein muss und die Leckströme dann entsprechend hoch sind. Bei vielen Chipdesigns werden Recheneinheiten deshalb von der Versorgungsspannung abgetrennt, wenn sie gerade nicht benötigt werden. Aber irgendwann erreicht man eben einen Punkt, wo dann selbst im Betrieb die Leckströme einen zu hohen Anteil an den Verlusten ausmachen.
Was dahingehend auf jeden Fall schon mal helfen dürfte, sind die Gate-All-Around-Ansätze, die ja schon so langsam im Kommen sind.
was meinst du mit Leckströme ,heißt es wird dann heißer.Es mag zwar dann weniger Strom verbrauchen aber kühler wird es also nicht.Das wolltest du damit zum ausdruck bringen?
Ich dachte immer je weniger Spannung desto besser wären die Temperaturen.Scheint wohl nicht immer so zu treffen.
Hört sich alles immer gut an, aber wie Intel selbst erkannt haben, mangelt es an der Ausführung und Umsetzung.
Ich wäre schon sehr positiv überrascht, wenn im Jahr 2023 überhaupt ein einziges Produkt in Intel 4 (LOL) in nennenswerten Stückzahlen vom Band laufen wird.
= mehr Stromverbrauch als mit weniger Leckströmen, das nur zur Einordnung. Primär hat das erstmal ncihts mit der Temperatur zu tun. die Temperatur ist dann nur ein Nebeneffekt und hängt von der Leistung ab. Wobei die Wärme nochmals die Leckströme erhöhen wird, wie es schon bei jedem einzelnen jetzigen Silizium Chip so ist.