News Intel Meteor Lake: Hybrid-CPU taucht erstmals im Linux-Kernel auf

xXcanwriterXx schrieb:
Rocket Lake soll doch PCIe 4.0 bringen. Wenn Intel das nicht zeitnah bringt, werden sich viele fragen: Was soll Intel dann noch bringen??

Die haben doch erst vor 6 Monaten was gebracht. Hätten die sich das eben sparen sollen, oder gleich auf PCIe 4 setzen können.
 
  • Gefällt mir
Reaktionen: Mcr-King
engineer123 schrieb:
Ja, kann sein, das Problem von Intel ist dennoch:
"Bald kommt 10nm für Desktop CPUs"...

das sagen sie seit wann, seit 2-3 Jahren wird das nun von Intel gepostet in Interviews, roadmaps etc.pp.

Genau deswegen gibt es ja auch im notebook 10nm umd 14nm parallel und auch die Chipsätze werden wieder im 22nm hergestellt klasse Leistung.

Auch wenn viele sagen TSMC sein Prozeß ist nicht sogut wie der von Intel, mag ja sein aber er Funktioniert und hat eine gute Ausbeute. 😉

Auch Samsungs Prozeß ist nicht der Hit siehe RTX30er.
 
  • Gefällt mir
Reaktionen: andi_sco
andi_sco schrieb:
SuperFin ist die zweite Iteration - ok, doch die erste. Da seh noch einer durch

Es kommt drauf an mit wen man drüber redet. Canon Lake war die erste. Die nächste Generation dann Comet Lake. Laut Marketing wurde Canon Lake tot geschwiegen und Comet Lake als erste Gen bezeichnet. Und nun stehen SuperFin und Enhanced SuperFin auf dem Plan. Wenn man so will 10 nm +++ und ++++.

Hier steht mehr dazu:
https://www.anandtech.com/show/16107/what-products-use-intel-10nm-superfin-demystified
 
  • Gefällt mir
Reaktionen: Mcr-King
engineer123 schrieb:
Ja, kann sein, das Problem von Intel ist dennoch:
"Bald kommt 10nm für Desktop CPUs"...

das sagen sie seit wann, seit 2-3 Jahren wird das nun von Intel gepostet in Interviews, roadmaps etc.pp.

nur: sie kriegen es einfach nicht hin, mMn schaffen sie es nicht mal 2021, die 10nm kommen vlt. in 2-3 Jahren.

Da müsste schon sehr viel schief gehen... Die letzten Lebenszeichen der 10nm-Fertigung lesen sich jedenfalls durchaus positiv, vor allem, dass 14nm Cooper Lake zu Gunsten von Ice Lake-SP teilweise gestrichten wurde. Insofern bin ich gespannt, wie sich ICL-SP Ende des Jahres schlägt, das wird die wahre Bewährungsprobe für die 10nm-Fertigung, dagegen ist Tiger Lake mit 4 Kernen Kindergeburtstag. Vielleicht ergeht es ja auch Rocket Lake wie Cooper Lake und Intel bringt die Willow Cove Kerne ohne Backport mit etwas Verzögerung in den Desktop. Tiger Lake H steht ja auch schon in den Startlöchern. Das wäre mMn jedenfalls sinnvoller als diese Cypress Cove Verzweiflungstat und die Umrüstung der Fabs stünde mit Alder Lake ohnehin an...
 
  • Gefällt mir
Reaktionen: Mcr-King
andi_sco schrieb:
SuperFin ist die zweite Iteration - ok, doch die erste. Da seh noch einer durch

SuperFin ist zunächst einmal eine bestimmte Herstellungsmethode die man nun für den 10nm Prozess verwendet und natürlich auch beim 7nm Prozess verwenden wird. "Enhanced" wird dann wohl einen verbesserten Prozess bedeuten und soll wohl zunächst einmal das bisherige "+" ersetzen.

1601801690585.png

https://www.anandtech.com/show/16107/what-products-use-intel-10nm-superfin-demystified
 
  • Gefällt mir
Reaktionen: Smartbomb, konkretor, Hatch und 2 andere
Miuwa schrieb:
Kannst du dieses "viel" evtl. etwas konkretisieren? Reden wir von 2-3,5,10,20,40W?
Der Grund warum ich frage: Ich bin mir nicht sicher, wie genau ich das interpretieren soll, aber CoreTemp sagt mir, dass die "IA- Cores" meienr Haswell Desktop CPU <2W brauchen während ich ein full-hd Video auf Youtube ansehe (mit ein paar anderen Tabs offen und outlook im Hintergrund). Während ich auf CB navigiere und diesen Post schreibe wechelst der Verbrauch zwischen <10 und 0,5W. Und das alles, während der Verbrauch meines Gesamtsystems (ohne Bildschirms) im 40 >100W Bereich liegt.

Wenn diese Angaben also tatsächlich der Leistungsaufnahme meiner Haswell Cores entsprechen sollte, dann sehe ich da nicht wirklich nennenswert Einsparpotential (bei diesen Szenarios).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
xexex schrieb:
Es wird mit Sicherheit auch Spiele geben, bei den eine 12C CPU schneller sein wird, trotzdem kann man die Entscheidung von Intel an dieser Stelle durchaus nachvollziehen. Wenn man sich bei Rocket Lake auf das "wesentliche" konzentriert und hier mit 8C, einer höheren IPC und hohen Takt punkten kann, bringt es mehr als der Versuch AMD hinterherzurennen, was man aktuell schlichtweg nicht kann.

Es sieht aber nun nach den Informationen und Gerüchten nicht danach aus, dass man an der IPC Front in Führung gehen kann, wie das von vielen erhofft wurde, inklusive PCGH Redakteuren
Wenn die Benchmarkleaks zu ZEN 3 und Cinebench 20 SC stimmen, hat ZEN 3 ähnliche/gleiche Leistung mit 4,8 GHZ wie ein Tiger Lake mit Willow Cove Kernen und 4,8GHZ. Insoweit scheint sich AMD bei der Kernleistung nicht unbedingt abhängen lassen zu wollen. Dazu wissen wir noch gar nicht, ob Rocket Lake überhaupt Willow Cove Kerne bekommt, oder nicht doch Sunny Cove oder Sunny Cove evolutioniert.
Und ganz ehrlich xexex, deine Analyse wieviele Kerne verkauft werden ist schon richtig, aber der 3900X geht schon sehr gut, für eine "HEDT CPU" auf einer Mainstream Plattform. 23500 verkaufte Exemplare in 14 Monaten bei Mindfactory ist schon eine Ansage, das ist sehr nahe an den VErkaufszahlen von ZEN 1 1700, 1700X und 1800X zusammen. und selbst AMD hat am Anfang anscheinend nicht damit gerechnet, dass das Ding sich so gut verkauft.
Der 3950X fällt dazu sehr sehr steil ab mit gerade 1/8 der Verkäufe des 3900X.
 
  • Gefällt mir
Reaktionen: Mcr-King
Miuwa schrieb:
Ist letztlich nur ne Frage wie groß oder klein der Kühler ist

Je weniger Abwärme passiv abgeführt werden muss, um so kleiner u. preiswerter wird es.
Zudem bringt man ja vier kleine Kerne auf der Fläche eines Großen unter.
Und, bei gleichem Verbrauch kann ein kleiner Cluster effizienter sein, als ein Großer.

Bei letzterem kann ich leider nur mit einem Vergleich von Core in 22nm + Undervolting zu Atom in 14nm dienen.
 
DonL_ schrieb:
Und ganz ehrlich xexex, deine Analyse wieviele Kerne verkauft werden ist schon richtig, aber der 3900X geht schon sehr gut,

Das bestreitet auch niemand, aber mit der aktuellen Technik kann Intel da auf der Mainstream Plattform nichts entgegen setzen und ein aufgeblähter Core mit 12C würde letztlich nur die Produktionsmengen der CPUs weiter reduzieren. Schon den 10900K sehe ich nicht als einen großen Erfolg, da ist die Entscheidung das Feld zunächst mal AMD zu überlassen durchaus berechtigt.

Intel hat vor allem mit einer Sache zu kämpfen, ausgelasteter 14nm Fertigung. Wenn sie durch den Verzicht auf 10C und 12C Varianten mehr CPUs für den Massenmarkt herstellen können und entsprechende Preise dafür abrufen können, kann AMD gerne den 12C+ Markt alleine bedienen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King und DonL_
Miuwa schrieb:
CoreTemp sagt mir, dass die "IA- Cores" meienr Haswell Desktop CPU <2W brauchen

Schonmal mit dem intel XTU ausgelesen?
 
andi_sco schrieb:
Schonmal mit dem intel XTU ausgelesen?

Am besten Stromverbrauchs Messgerät ein gutes und du hast den wirklichen Verbrauch alles andere ist Käse. 😉
 
Mcr-King schrieb:
Am besten Stromverbrauchs Messgerät ein gutes und du hast den wirklichen Verbrauch alles andere ist Käse.
Und wie willst du mit einem Messgerät den reinen Verbrauch eines CPU-Kerns auslesen?
Ergänzung ()

andi_sco schrieb:
Schonmal mit dem intel XTU ausgelesen?
Kannte ich noch nicht. Wo sehe ich da den Stromverbrauch der Kerne? Alles was ich gefunden hab ist ne Anzeige für "Package TDP", die ziemlich gut mit der Package power bei CoreTemp correliert und bei ~10W rum dümpelt.

Nur noch mal zur Erinnerung: Wir reden hier von ner ~6 Jahre alten Haswel CPU. Die Absoluten Zahlen sind sicher nicht 1:1 auf moderne System übertragbar.
 
Zuletzt bearbeitet:
SV3N schrieb:
AMDs Zen-4-Architektur konkurrieren, die voraussichtlich ab Ende 2021 oder Anfang 2022 mit Ryzen 6000 und Epyc Genoa im 5-nm-Verfahren bei TSMC vom Band laufen wird.

Das genannte Timing passt doch gar nicht zur Roadmap.

https://www.computerbase.de/2020-09/amd-rembrandt-geruechte-zen-3-6-ddr5-usb-4/

Entweder ist die Roadmap falsch, oder das genannte Timing in dieser News. Angenommen die Roadmap stimmt, dann würde dies bei mindestens ein Jahr pro Generation auf folgendes herauslaufen.

Vermeer - Ryzen 5000 - Oktober 2020
Warhol - Ryzen 6000 - Oktober 2021
Raphael - Zen 4 - Oktober 2022.

Oder wie passt für dich Warhol in das Timing rein, wenn du schon bei Ryzen 6000 den Zen 4 siehst?

Das gleiche auch für Intel. Wenn Rocket Lake 2021 kommt, kann Alder Lake im Desktop erst 2022 kommen und nicht schon 2021, sonnst ist man wieder unter einem Jahr pro Generation und das passiert nicht. Eher überspringt man dann eine Generation, aber wenn man es nicht überspringt, dann mindestens ein Jahr pro Gen...
 
andi_sco schrieb:
Und dein restliches System? Hast da nen Heizstrahler montiert?
Das is ne gute Frage - ich hatte eigentlich ~50W im idle verbrauch im Kopf, was auch grob hinkommen würde: ~10W CPU, 10-20W Graka (Rx460) und der Rest für RAM, Mainboard, Lüfter, SSD etc.. nachdem mein Powermessgerät jetzt aber über 100W anzeigt frage ich mich, ob das NT vielleicht die Grätsche macht (ich glaube das dürfte 8 Jahre alt sein) oder das Messgerät kaputt ist.
 
engineer123 schrieb:
immer wieder herrlich, wie Intel im technologischen Nirvana hängt, also
10nm "soll" irgendwann 2021 - 2022 in der Produktion anlaufen,
das alleine ist schon ein Witz gegen die 7nm bei AMD aktuell.

du kannst allerdings nicht TSMC 7nm mit Intel 10nm vergleichen und sagen aber Intel ist "nur" 10nm. Intels 10nm ist in etwa so wie TSMCs 7nm. Die Strukturbreite alleine sagt nicht so viel aus. Im Notebook läuft 10nm ja seit diesem Jahr schon und mit Tiger Lake haben wir jetzt auch die Taktraten. Hebel bei ner Notebook Tigerlake CPU die TDP aus, pack den auf nen Desktop mit 4000 mhz RAM und AMD steht gar nicht mehr so gut da. Wieso Intel die CPUs nicht für den Desktop frei gibt...keine Ahnung, Allcore dürften die bei höherer TDP doch die 4.8 GHZ oder was weiss ich halten können.
 
  • Gefällt mir
Reaktionen: GroMag
Miuwa schrieb:
Kannst du dieses "viel" evtl. etwas konkretisieren? Reden wir von 2-3,5,10,20,40W?

Geht auch jetzt schon. Ist letztlich nur ne Frage wie groß oder klein der Kühler ist.

ich kann dir zum vergleich eine andere CPU anbieten und das wäre dann ein biglittle prinzip. die kam unter volllast kaum auf 50watt. das war aber eine normale desktop CPU. in diesem fall würde man dann nur auf effizienz gehen und dann könnte ich mir schon vorstellen, dass das ein CPU mit max 20watt sein wird.... und jetzt kannst du dir selber die differenz ausrechen, wie viel deine so braucht beim surfen, usw.....

also ich weiß nicht, ob ich meinen 3700x passiv kühlen könnte, ohne dass er dann permanent zwischen 60-80° läuft bzw noch mehr, wenn sich die hitze dann im gehäuse staut, weil sich nichts mehr dreht... also im alltagsbetrieb ohne viel auslastung

Radde schrieb:
Leider doch! In den Büros dieser Welt laufen ständig PCs und Laptops, die rein gar nichts machen.
Für Besprechungen oder Mittagspausen wird der Rechner einfach gesperrt und stehen gelassen. Da kommen sehr, sehr viele Stunden zusammen!
Immerhin konnte ich meine Kollegen mittlerweile erziehen, dass der Rechner doch bitte über Nacht heruntergefahren werden soll... :schaf:

in büros wird man den leuten aber kaum high end CPUs einbauen, damit sie in word ein paar briefe schreiben können. gerade dort wird man schon auf effiziente CPUs gehen... vermutlich auch mit IGP,weil man sich dann die grafrikkarte spart

aber selbst wenn du den rechner sperrst, dann läuft ja vielleicht trotzdem noch der browser mit 20 tabs und das officepaket und ein chatsoftware, virenscanner, etc....

wie gesagt. ich finde die idee interessant.... ich werde es mir auch ansehen, wenn es das gibt und dann entscheiden... also ich habe jetzt keine lust mich zu rechfertigen, oder etwas zu verteidigen, das es noch gar nicht gibt
vielleicht wirds auch ein totaler flopp. trotzdem finde ich es gut, dass es mal probiert wird
 
longusnickus schrieb:
ich kann dir zum vergleich eine andere CPU anbieten und das wäre dann ein biglittle prinzip. die kam unter volllast kaum auf 50watt. das war aber eine normale desktop CPU. in diesem fall würde man dann nur auf effizienz gehen und dann könnte ich mir schon vorstellen, dass das ein CPU mit max 20watt sein wird.... und jetzt kannst du dir selber die differenz ausrechen, wie viel deine so braucht beim surfen, usw.....
Und wie soll ich mir bitte anhand von (z.T. erfundenen) Vollastwerten "ausrechnen" was Big.LITTLE beim Surfen einsparen kann?

Wie schon ein paar Post später geschreiben braucht meine 6 Jarhe alte Destkop CPU beim Surfen und Youtube schauen weniger als 10 Watt und die eigentlichen Kerne (nur die werden beim Big.LITTLE ja ausgetauscht) scheinbar sogar unter 3 Watt. Wenn die Werte die die Tools da ausgeben korrekt sind wäre das das maximale Einsparpotential. Wenn man jetzt noch davon ausgeht, dass moderne x86 CPUs noch etwas effizienter geworden sind und ein kleiner LITTLE core den Energieverbrauch beim Surfen auch nicht plötzlich auf 0 setzen kann (erst recht nicht ohne einbußen bei der gefühlten Performance), dann sehe ich einfach nicht, wie das mehr als ne sehr niedrige einstellige Wattzahl bringen soll. Bei nem Laptop kann das durchaus relevant sein - beim Deskrop würde ich das im Gegensatz zu dir sicher nicht als "viel" bezeichnen.

Wie schon gesagt, meine Meinung basiert im wesentlichen darauf, was ich jetzt bei einer CPU mit einem Tool bei einem Youtube Video und etwas Surfen auslesen konnte. Mir ist klar, dass die Datenlage extrem dünn ist und ich lasse mich gerne eines Besseren belehren, aber dann halt bitte auch anhand von konkreten (Mess-) Werten oder guten Quellen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben