Bericht Intel Meteor Lake: „Game Changer“-CPUs setzen auf gleich vier Chips

Wenn die das vernünftig in die Praxis kriegen, wird es ziemlich gut.
Und ich darf mir überlegen, ob der jetzt für den Jahreswechsel angedachte neue Rechner mit 14xxx wirklich nötig ist, oder ich noch eine Generation warte.
Wird halt nur deshalb schwierig, weil der aktuelle PC im Freundeskreis bereits 'versprochen' ist
 
Man nehme eine monolithische CPU/GPU, säge diese in vier Teile, und klebe diese dann auf eine Platine. Fertig ist der neue Prozessor.
 
Viel bla bla von Intel, wie man es gewohnt ist. Am Ende zählt nur das P/L-Verhältnis und da sehe ich nicht, dass es gut wird. Ich lasse mich natürlich gerne eines besseren belehren, ein wenig Konkurrenz ist immer gut.
 
Also eine monolithische CPU mit Außenbordern für den ein oder anderen Boost. Nett. Den Aktienkurs hat das jedenfalls nicht beeindruckt. Wir sehen uns in der Praxis, INTEL.
 
RogueSix schrieb:
Ja, klar. Und zwar jeden Mini-Chip einzeln. Auf so einem MSC-Containerschiff, das exklusiv nur für diesen einzelnen Mini-Chip gebucht wird. Ist doch klar! Die Firma heißt schließlich Intel, wo nur Behinderte arbeiten.
Behinderte können halt gar nix, stimmts?
 
  • Gefällt mir
Reaktionen: coral81 und Aduasen
Bin gespannt was da kommt. Freue mich jedenfalls, das wieder mal was Neues passiert, nachdem AMD ihr Ryzen Konzept jetzt in der 5ten Generation nur noch aufwärmt.
Wann kommen denn da Produkte für den Desktop Markt? Dieses Jahr höchstens Notebooks und Desktop erst nächstes Jahr, oder wie ist die News zu verstehen?
 
TechFunk schrieb:
Offtopic: nochmal für ALLE zum mitschreiben: AMD hat angefangen, mit zusammen kleben und so.
Man kann das in jeder forum posting schreiben, das Intel angefangen hat und trotzdem bleibt es nicht die Wahrheit. Argh man

Mag sein. Meine Aussage betrifft vor kurzem, nicht im technologischen Mittelalter.
Da wird irgendetwas interpretiert, dass gar nicht in meiner Aussage drin gestanden ist.
Und wenn Intel es selbst wieder machen oder vorhaben sollte man nicht über zusammengesetzte Kerne den Mitbewerber kritisieren.

--

Es freut mich, dass einige Denken Intel sei führend oder technologieführend.
Die Liste an defekter Intel Hardware is sehr lang. Das älteste dass mir einfällt ist der P1, das neueste sind die teildefekten Netzwerkchips egal welchen Typs. Ich bin mir sicher, nicht alle teildefekte Siliziumbausteine zu kennen. Nur fällt Intel sehr negativ auf bei diesen simplen - erfüllt nicht die Spezifikation beim Silizium.

War da nicht irgendeine AVX Instruktion die bei Intel fehlt? Nein - die brauchten wir ja nicht oder?
 
Netter Text aber Can it Run Crysis?
Wieviel FPS mehr habe ich damit?
Lädt mein Outlook nun fixer oder verbrauche ich nur weniger Strom dabei?
Wie hilft mir der SoC im Alltag?

Etwas mehr nähe des Artikels zu den Anwendern hier im Forum wäre mal eine Idee oder habe ich das im Werbeartikel überlesen?
 
Banned schrieb:
Nicht mal in Tetris.

Falls noch das Interesse besteht bei mir im Winter.

Es gibt um die 10-20€ so WLAN Schucko Stecker die vermutlich den Strom messen können. Nur es hängt sehr von der Auflösung ab und ob die auch wirklich genau sind und von der Auswertbarkeit.

Interessieren tut es mich schon - wie der Verbrauch bei mir ist.
 
elefant schrieb:
Etwas mehr nähe des Artikels zu den Anwendern hier im Forum wäre mal eine Idee
Hast Du einen konkreteren Vorschlag, wie man diese Nähe auf Basis eines noch nicht zugänglichen Produkts und Testsystems praktisch umsetzt?
 
  • Gefällt mir
Reaktionen: maxrl, Hal14 und stefan92x
Ja sowas sollte man beantworten können, wenn man reißerisch darum bittet :D
Spontan würde mir hier (auch auf die Gefahr das gleich Steine fliegen) die gute Apple Präsentation einfallen.
Ich mein ist ja schön das Intel hier 4 Chips zusammen kleben lässt aber warum?
Klar ist das hier ein eher technischer Artikel aber ich wurde heute genau das gefragt: Warum?
Meine Antwort: Ist bestimmt besser.
Ich wüsste es auch nicht und würde mich freuen solche Infos fix aus nem Artikel erfahren zu können. Die Pressemittelung von Intel kann ich mir auch direkt bei denen durchlesen.
Mir fehlt hier im Artikel einfach platte gesagt der Mehrwert.
 
_roman_ schrieb:
Es gibt um die 10-20€ so WLAN Schucko Stecker die vermutlich den Strom messen können.
Die bei sehr geringen Lasten auch gerne mal 5-10W daneben liegen.
Den Verbrauch von der CPU kann man damit auch nicht messen, sondern die Energieaufnahme vom Gesamtsystem, also inklusive Verluste vom Netzteil, Verbrauch vom Mainboard, SSD, RAM, Lüfter, Grafikkarte etc...

Ist das bei einem Desktopsystem so wichtig, dass man sich um die letzten 5W streiten muß?
Gerade bei einem Gamingsystem werden die letzten 5W Idle Verbrauch einer einzelnen Komponente nichts mehr retten. Das mag bei einem Homeserver vielleicht interessant sein, aber doch nicht hier.

Für mich ist eher interessant, ob wir einen Leistungssprung erleben und ob Intel auch ohne Takt-/Stromboost die AMD Cache Monster bei Spielen hinter sich lassen kann.
 
  • Gefällt mir
Reaktionen: daknoll
ben12345 schrieb:
Bist jetzt schon der fünfte der die Nummer nicht verstanden hat. AMD hat mit diesem Schwachsinn angefangen und nicht Intel.. da würd ich nochmal nachlesen.
Mir ist vollkommen egal und interessant nicht wer damit angefangen hat. Im Marketing sind beide Unternehmen sehr kreativ.
Wichtig ist was für den Kunden am Ende der rumkommt und ob er dadurch bessere Produkte erhält.
 
Mich freut, dass sie ARC in den Prozessor gequetscht haben.
Die iGPUs von Intel waren bisher, sagen wir, bestenfalls durchwachsen.
Jetzt sägt Intel am Ast des Alleinstellungsmerkmals von AMD :D
 
@elefant

Also ich kann dem Artikel diese Infos entnehmen.

Für Intel: Deutlich höhere Flexibilität bei Fertigung und Skalierung von SKUs.
Für Nutzer: Besseres Thermal Design und Hoffnung auf bessere Laufzeiten bei mobilen Geräten.

Ist natürlich alles bisher graue Theorie, insbesondere Intels "Game Changer"-Behauptung.
 
  • Gefällt mir
Reaktionen: maxrl
helionaut schrieb:
Ich brauche 2400 kWh pro Jahr.

Der Rechner läuft 24/7 für Signalverarbeitung/Datenananlyse. Bei 100W sind das 36.5% von meinem Stromverbrauch oder rund 300€ im Jahr.
Das fällt es schon ins Gewicht ob's nun 50W oder 100W oder noch mehr sind.
ok, dann versteh ich es...

da hier auch einige aus der "Gamer"-Perspektive geschrieben haben, war mein Mindset dahin ausgerichtet..
und da denk ich mir:
wenn der 2h am Tag rennt und dann 50Watt mehr oder weniger benötigt... ists ned die Welt
in Relation eben zu den normalen Verbräuchen die Menschen so scheinbar beim Strom haben
 
  • Gefällt mir
Reaktionen: helionaut
Abwarten , Marketing sah immer bei Intel gut aus " 10nm Fertigung ist im Zeitplan " .
Konkurrenz belebt das Geschäft und ich hoffe das wir von den (Dank Intel) exorbitanten Verbräuchen wieder runterkommen .
Besonders aber die Idle Leistungsaufnahme ist bei beiden Herstellern stark verbesserungswürdig .
Wie wäre es mal mit 20 Watt Verbrauch beim Surfen ,mit potenter Hardware ?
 
Nur noch AMD ❤️ bei CPU's! Alleine schon aus wirtschaftspolitischen Sicht!
 
Ich stehe der ganzen Thematik sozusagen Technologieoffen gegenüber, hab jeweils einen blauen und roten Rechner zuhause stehen.
Mich würde es freuen, einen richtig effizienten Rechenkern zu haben in Zukunft.
Da käme eine Verbesserung Performance/Watt gerade gut, denn das hatte mich in den vergangenen Tests bei intel schon abgeschreckt.
 
Zurück
Oben