News Intel Meteor Lake: Grafikeinheit bekommt L4-Cache, CPU-Teil exklusiv den L3

Cache ist eine Wissenschaft für sich, jede Möglichkeit hat ihre Vor- und mitunter auch Nachteile. So wurde zuletzt öfter mal probiert, Dinge zu kombinieren, wie exclusive und non exclusive, aber auch Standard und Victim vereint: https://www.computerbase.de/2017-10/qualcomm-centriq-2400-cpu-server/
Traditionell war ab L3 Cache eher Victim, zuletzt aber eben nicht mehr unbedingt. Ist also eine spannende Frage was man hier macht.
 
  • Gefällt mir
Reaktionen: Piktogramm
Smartbomb schrieb:
Richtig. Die iGPU in der CPU ist nur dafür da, ein Bild zu machen und evtl noch Video codecs zu beschleunigen.
Zum Zocken, eine 250W Grafikkarte, wirst du in eine CPU nicht reinquetschen können.

Kurz: für die OEMs zu teuer und für die privaten meist nicht nötig. Und wenn dann gleich a "gscheite" Grafikkarte.

Also wenn dann evtl noch für kleine, platz- und stromsparende Geräte imteressant. Ergo: Mobilgeräte und Thinclients. Und da dürfen Fläche, damit Kosten und Leistungsaufnahem auch nicht explodieren.

Naja, ich sehe durchaus Platz am Markt für entsprechende APUs.

Zwischen den 0815 Intel iGPUs, dem Steamdeck und der RTX 4050 (kleinste gscheite Grafikkarte) klafft doch eine eklatante Lücke, die man durchaus schließen könnte.
AMDs Phoenix dürfte schon ganz interessant werden, könnte mMn aber auch die doppelte TDP vertragen. Bis 75 Watt kann man damit vermutlich durchaus interessante Geräte im ~13 Zoll Bereich anbieten, denn gerade da ist man auf kompakte DIEs angewiesen.
 
  • Gefällt mir
Reaktionen: Smartbomb
Smartbomb schrieb:
Genau wie bei den SoCs für iPhone und Co:
Apple kann sich die super teuren Chips (weil große Fläche) leisten, weil sie sie 1.) nicht verkaufen müssen wie alle anderen und die Kosten durch ihre enormen Gerätepreise subventionieren.
Ich stimme Dir zu dass man Apple nicht mit dem Gespann "AMD/Intel und PC OEMs" vergleichen kann.

Aber IMO betrachten das Du und viele andere aus dem falschen Blickwinkel.

Apple ist Systemanbieter und leistet sich maßgeschneiderte SoC, um die Systeme zu optimieren. Natürlich kosten viel Die-Fläche und Advanced Packaging für die SOC einiges. Aber dafür wurde das System stark vereinfacht. Die Kostensenkungen bei der Elektronik wurde dadurch erreicht, dass man in die einzelnen Chips mehr Funktionen gepackt hat und gleichzeitig die Anzahl der Chips reduziert hat. Apple macht nichts anderes. Und ganz neben bei kann Apple die Kostentreiber DDR5 und PCIe 5.0 ignorieren.

Meteor Lake verwendet übrigens ein sehr teures Packaging Verfahren. In meinen Augen ist das nur sinnvoll, wenn man auch auf das Base Die ebenfalls Schaltungen packt.

Smartbomb schrieb:
Qualcomm, Mediatek etc würden nie so riesige Chips herstellen - denn die wären zu teuer und niemand würde sie ihnen abkaufen.
Eine kurze Suche nach Die Sizes:
A14: 88 mm².
M2: 155 mm²
M2 pro: ca 288 mm²
M2 max: ca 510 mm²

Also richtig groß sind nur die max- und Ultra-Varianten (Ultra bisher nur M1).

Smartbomb schrieb:
Aber in >1k€ Handys die Apple massenweise verkauft - da hat man genug Kohle dafür.
Aber Apple streicht auch traumhafte Gewinne ein.
AFAIK sind die Margen doppelt so hoch wie bei den PC OEMs.

Über die finanzielle Lage der anderen Mobil Phone Anbieter reden wir Mal gar nicht.

Smartbomb schrieb:
Richtig. Die iGPU in der CPU ist nur dafür da, ein Bild zu machen und evtl noch Video codecs zu beschleunigen.
Das die iGPU bei Intel und vor allem AMD praktisch brach liegt, ist ein Softwareproblem.

AMD hat hardwartechnisch HSA implementiert, konnte aber bisher nicht die notwendige Softwareunterstützung bereitstellen. Ohne Bibliotheken die die GPU automatisch einbinden läuft da rein gar
nichts.

Smartbomb schrieb:
Zum Zocken, eine 250W Grafikkarte, wirst du in eine CPU nicht reinquetschen können.
Das Problem ist eben dass die Games von einen schnellen Kopplung von CPU und GPU nur sehr gering profitieren (Das sieht man auch an den Game-Benchmarks mit verschiedenen PCIe-Busgenerationen). Das sieht bei Anwendungssoftware die auf den Servern und Data Centers läuft ganz anders aus.

250 W für die Grafikkarte ist schon sehr viel. Darunter ist sehr viel Raum. Vor allem dann, wenn die diskreten Grafikkarten zu einem High-End-Spielzeug werden.

Smartbomb schrieb:
Kurz: für die OEMs zu teuer und für die privaten meist nicht nötig. Und wenn dann gleich a "gscheite" Grafikkarte.
Das eigentliche Problem siehst Du bei Apple die M1- und M2-Familien bestehen jeweils aus 3 Dies. Und das war nur möglich weil Apple die Systeme und Chips Hand in Hand geplant hat. Einen großen Chip zu entwicklen und ihn dann nicht los zu werden können sich Intel und vor allem AMD nicht leisten.

Aber der Knackpunkt ist der Hauptspeicher im Package. Ich denke nicht dass die PC-OEMs das so bald schlucken. Aber früher oder später werden sie es müssen. CAMM hat zwar bessere elektrische Eigenschaften als SoDIMM, kann aber mit On-Package Memory nicht mithalten.
Smartbomb schrieb:
Also wenn dann evtl noch für kleine, platz- und stromsparende Geräte imteressant. Ergo: Mobilgeräte und Thinclients. Und da dürfen Fläche, damit Kosten und Leistungsaufnahem auch nicht explodieren.
Und genau hierfür ist das Design von Apple ideal. Die Thinclients von Apple haben für die meisten Anwender ausreichend Leistung. Ich bin echt gespannt wie es mit dem Mac pro weiter geht. Wird ein Nachfolger gebraucht? Und falls ja, lohnt es sich für Apple überhaupt einen eigenen Chip zu entwerfen. Das Problem hier sind die externen Steckplätze. Wie viele Apple-Anwender benötigen noch PCIe-Steckplätze?
Smartbomb schrieb:
Cache ist schnell, groß, braucht viel Strom.
Wie immer bei Speicher: Je schneller dieser ist, umso mehr (physischen) Platz pro Byte braucht er und umso mehr Strom. Also teuer und "heiß".
Ein großer Cache ist teuer. Ein großer Cache hat schlechtere Latenzen als ein kleiner Cache. Ohne 3D-Stacking würde ein 96 MByte Cache auf dem Ryzen CCD nicht funktionieren. Die schlechteren Latenzen würden den Vorteil des größeren Caches auffressen.

Ein großer Cache benötigt für sich betrachtet mehr elektrische Leistung als ein kleinerer Cache. Aber hier muss man den gesamten SoC betrachten. Das Verschieben von Daten kostet viel Energie. Wenn die Daten aus dem L3-Cache geholt werden, ist das nicht nur erheblich schneller, sondern benötigt auch erheblich weniger Energie als wenn sie aus dem Hauptspeicher geholt werden müssen.

Die höhere Effizienz durch den größeren Cache sieht man an den X3D-Ryzen eindrucksvoll. Das wäre auch für Gaming-Notebooks schön.

Um wieder auf Meteor Lake zu kommen: Ein großer L4 als System Level Cache würde einen deutlichen Beitrag zu mehr Effizienz leisten.

Smartbomb schrieb:
Darum haben MobilCPUs neben weniger Takt auch meist weit weniger Cache, weil man so die Leistungsaufnahme drückt.
Bei Intel habe ich mir es nicht angesehen.
Bei AMD hat es IMO zwei Gründe:
  1. Die APU sind monolithisch und deswegen ist der Vorteil eines großen Caches nicht so groß wie bei den CPUs die aus Chiplets bestehen. Bei den CPUs aus Chiples kompensiert der größere L3-Cache die schlechteren Latenzen zum Memory-Controller.
  2. Die APUs bilden das Einstiegssegment von AMD. Hier sind große Caches und 3D-Stacking momentan noch zu teuer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign, Smartbomb und v_ossi
Gute Analyse, aber die Die Sizes sind bei Apple mMn schon beachtlich

ETI1120 schrieb:
Eine kurze Suche nach Die Sizes:
A14: 88 mm².
M2: 155 mm²
M2 pro: ca 288 mm²
M2 max: ca 510 mm²

Also richtig groß sind nur die max- und Ultra-Varianten (Ultra bisher nur M1)

Dem Gegenüber stehen bei Intel ~220mm² beim mobilen Alder Lake Die (Intel 7, nicht 100%ig zu vergleichen) und ~180mm² bei AMDs Phoenix (TSMC 4, aber noch erhältlich), während Rembrand bei ~210mm² liegt, dafür aber noch in TSMC 6 produziert wird.

Intel und AMD haben den Pro und Max Dies 'Nichts' entgegenzusetzen; die haben nicht einmal die halbe Größe in teils 'deutlich unterlegenen'/älteren Fertigungsverfahren.

Dem 2020er A14 (88mm²/ TSMC 5N) stand auch maximal ein Snapdragon 865 mit ~84mm² gegenüber, der dafür aber 'nur' in N7P produziert wurde.

Insgesamt lässt Apple sich die Fertigung schon Einiges kosten und hat damit durchaus einen Vorteil, entweder durch die Größe oder weil sie die neuesten Fertigungsverfahren früher nutzen.
 
  • Gefällt mir
Reaktionen: Smartbomb
v_ossi schrieb:
Intel und AMD haben den Pro und Max Dies 'Nichts' entgegenzusetzen; die haben nicht einmal die halbe Größe in teils 'deutlich unterlegenen'/älteren Fertigungsverfahren.

Natürlich ist der pro größer als das was AMD und Intel in ihre Mobil-Chips packen. Aber das ist eben kein Problem weil es den M2 gibt.

Außerdem haben die Apple Chips erheblich mehr Funktionen an Board. Und wenn man Die-Flächen vergleicht muss man eben auch die dGPU mit berücksichtigen, die bei keinem Apple-Notebook und Apple-Kompakt-Desktop verbaut wird.
 
  • Gefällt mir
Reaktionen: Smartbomb
Ich frage mich wie lange Apple noch so weit vorne ist. Weil es gibt bestimmt nicht mehr so lange so ein kippunkt wo auch Apple mit egal wie viel geld auch nix mehr machen kann. Da wird Intel und AMD irgendwann Apple. Gleich gezogen haben. Weil ein unendlich gibt es ja eh nicht beim verkleinern und so. Der Vorteil ist also irgendwann zu Ende.
 
ETI1120 schrieb:
Das die iGPU bei Intel und vor allem AMD praktisch brach liegt, ist ein Softwareproblem.
Wie so oft. Leider.

ETI1120 schrieb:
Das sieht bei Anwendungssoftware die auf den Servern und Data Centers läuft ganz anders aus.
Jop.

ETI1120 schrieb:
250 W für die Grafikkarte ist schon sehr viel. Darunter ist sehr viel Raum. Vor allem dann, wenn die diskreten Grafikkarten zu einem High-End-Spielzeug werden.
Jop. Bitte auch nicht falsch verstehen: Ich bin selbst für bessere APUs mit brauchbarer Grafik.
Nicht jetzt für die Zocker, da wirds wohl sehr lange eine dedizierte Grafikkarte bleiben, aber für alle anderen...
Wo wir wieder bei der Softwareunterstützung wären.
Programme (die 0815 consumer Massenprogramme wie zB Browser etc) werden halt für den kleinsten gemeinsamen Nenner programmiert. Also für irgendeine 10J alte Intel iGPU, die in einer experimentellen Funktion irgendwo mitrendern darf falls aktiviert.

Das erste was mir einfällt wären Videobeschleunigungen (also decode von codes) und hier der kommende AV1.
Aber ist auch wurst, die CPU ist auch stark genug, kostet dann in Mobilgeräten ein bisschen Laufzeit und das wars dann so befürchte ich.

ETI1120 schrieb:
Die APU sind monolithisch und deswegen ist der Vorteil eines großen Caches nicht so groß wie bei den CPUs die aus Chiplets bestehen. Bei den CPUs aus Chiples kompensiert der größere L3-Cache die schlechteren Latenzen zum Memory-Controller.
Jups.
Ich meinte generell alle Mobilchips. Immer schon. Die hatten, wenn überhaupt, nur halb so viel L3 Cache und takteten deutlich niedriger. Das waren immer die ersten Dinge, die im Vergleich mit den Desktop Chips sofort ins Auge sprangen.

Der Absatz mit dem Cache darüber: Genau was ich eh sagte. Nur mit dem Zusatz, dass Daten verschieben Strom braucht und Geschwindigkeit (Leistung) kostet. Also besser L3 Cache als aus dem RAM laden. Was aber ohnehin klar sein sollte. Und ja, Caches immer größer machen heut nicht hin da die Latenzen steigen. Sollte eigentlich auch klar sein. Aber da in Kommentaren immer wieder die Frage auftaucht warum man nicht einfach überall an Haufen Cache drauf- oder reinpackt.. solche Leute lesen dann evtl in deinem Kommentar die Antwort dafür. Jedenfalls schön erklärt :)
Ergänzung ()

latiose88 schrieb:
Ich frage mich wie lange Apple noch so weit vorne ist. Weil es gibt bestimmt nicht mehr so lange so ein kippunkt wo auch Apple mit egal wie viel geld auch nix mehr machen kann. Da wird Intel und AMD irgendwann Apple. Gleich gezogen haben. Weil ein unendlich gibt es ja eh nicht beim verkleinern und so. Der Vorteil ist also irgendwann zu Ende.
So lange Apple immer als erstes die neueste, beste, kleinste Fertigung nutzen kann (u.a. auch weil sie sie fleissig mitfinanzieren!) werden sie auch immer etwas vorne sein bzw früher die neueste, beste, teuerste Fertigung nutzen können.
Nur: Apple baut keine x86 CPUs sondern ihre eigene ARM Variation. Das sind 2 völlig verschiedene Dinge.
Keine Ahnung was das mit AMD und Intel zu tun hätte.
Eventuell gibts mal einen Hybrid bei AMD und Intel mit fetten Kernen für x86, power saving cores für x86 und ARM cores für weiteres stromsparen, Sensorverwaltung, IoT quatsch etc.

Aber im Moment wird im Gegenzug die ARM Architektur von den Herstellern aufgeblasen um immer mehr Leistung zu bekommen. Wodurch auch die Leistungsaufnahme mit steigt.
Irgendwann gibts 20W handys. Peak natürlich, sonst schmilzt dir das Klump aus der Hand lol. spaß
Oder 25W 3s peak, 20W 7sec peak, 10W 60s peak bevor dann mindestens 60s max 7W anliegen dürfen *Fantasie
 
Zuletzt bearbeitet:
mannduro schrieb:
Das mit dem eDRAM funktioniert heute noch ganz gut. Siehe Signatur 😉

https://youtube.com/@mannduro

Was mit Broadwell ging wird auch mit Meteorlake gehen

War ein Träumchen, testweise mit einem Broadwell i5 zu gamen. Obwohl nur 4 Kerne, lief z.B. Star Citizen richtig schön konstant. Dank dieser Erfahrung kann ich nachvollziehen, wie sich AMDs X3D Cache in Spielen anfühlen muss.

Leider reichten 4 Kerne nicht und so wurde es dann ein 6800K. Der kam aber in Games nie an diese „saubere“ Performance des i5 5765c heran. Und es fühlte sich lange nicht so „smooth“ an.

Habe lange nicht verstanden, warum Intel den eDRAM nicht beibehalten hat, aber die rohen Leistungsdaten erklären das natürlich, Danke @ruthi91
 
  • Gefällt mir
Reaktionen: GT200b
Das gute an dem eDRAM ist halt die extra bandbreite die gegeben ist.
Es ist zwar nicht so das ein 2400MHz RAM nicht mithalten könnte, aber 16GB bei 56 GB/s plus hin und wieder 56 GB/s extra durch eDRAM helfen schon die Frames aufrecht zu halten oder die Frametimes, was wichtiger ist.

Letztlich muss eine Application die Bandbreite auch benötigen um was davon zu haben.
 
  • Gefällt mir
Reaktionen: GT200b und latiose88
Ja sehe ich auch so. Und ab einen bestimmen Punkt ist der Vorteil dann gleich Null und dann ist der Gewinn nicht mehr vorhanden.
 
latiose88 schrieb:
Weil je stärker die gpu ist desto weniger bleibt im Bereich cpu der Strom und dann fällt die CPU Leistung zum wohle der gpu Leistung. Was ebenso nicht so cool ist wie ich finde.
Die Aussage ist Blödsinn.
1. Heißt Leistungsfähiger nicht zwingend höheren Verbrauch
2. Ist das eine Frage der Priorisierung durch den Hersteller
3. Muss sich das Budget natürlich zwangsläufig aufteilen - du kannst nicht alles haben

v_ossi schrieb:
Also ruhig irgendwas Richtung 65-75 Watt mit reichlich Cache und dann mit 32GB RAM dahinter.
Cache ist allerdings sehr Platzintensiv und benötigt auch viel Leistung.
Außerdem haben inzwischen viele Tests gezeigt, dass viel Cache bei vielen Anwendungen keine großen Vorteile bietet.
Ergänzung ()

mannduro schrieb:
Das gute an dem eDRAM ist halt die extra bandbreite die gegeben ist.
Es ist zwar nicht so das ein 2400MHz RAM nicht mithalten könnte, aber 16GB bei 56 GB/s plus hin und wieder 56 GB/s extra durch eDRAM helfen schon die Frames aufrecht zu halten oder die Frametimes, was wichtiger ist.
eDRAM sollte inzwischen deutlich mehr als 56 GB/s liefern, sonst wäre das Konzept nicht sinnvoll (Aufwand -> Gewinn). Ein Cache liegt im übrigen in der Reihenfolge zwischen RAM und Rechenwerken, die Aussage "plus hin und wieder 56 GB/s extra" ist schwierig und lässt vermuten, dass du das Konzept nicht verstanden hast.
(Je nachdem ob er inklusiv oder exklusiv ist, kann man seine Kapazität auch zum regulären RAM addieren)

Letztlich muss eine Application die Bandbreite auch benötigen um was davon zu haben.
Das ist wie den Leuten zu erklären dass mehr RAM nicht automatisch mehr Leistung bedeutet...
 
Zuletzt bearbeitet:
Artikel-Update: In den letzten Tagen hat sich das Bild vervollständigt, viele kleine Puzzle-Teile wurden zusammengefügt. Dabei zeigte sich, dass die ersten Leaks zu ADM schon ein Jahr zurückreichen, damals wurde „Adamantine“ nur falsch eingeordnet. Nun ist klar, dass dieser L4-Cache ein Teil des Base Tiles werden kann, ein Schaubild aus einem Intel-PDF verdeutlicht dies.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]

Das Intel-Patent – es wurde vor einigen Tagen auch an ComputerBase herangetragen – reicht dabei bis ins Jahr 2020/2021 zurück und beschreibt einen großen On-Package-Cache. Andere Angaben, beispielsweise zur Anzahl der EUs oder Kernen, sind jedoch oft nur beispielhafter Natur und stehen nicht direkt für ein echtes Produkt. Daran lassen sich deshalb keine Rückschlüsse auf Meteor Lake oder den Nachfolger hinsichtlich seiner finalen Ausstattung ableiten.

[0058] Next generation client SoC architectures may introduce large on-package caches, which will allow novel usages. Access time for the L4 (e.g., "Adamantine" or "ADM") cache may be much less than the DRAM access time, which is used to improve host CPU and security controller communications. Embodiments help to protect innovations in boot optimization. Value is added for high end silicon with higher pre-initialized memory at reset, potentially leading to increased revenue. Having memory available at reset also helps to nullify legacy BIOS assumptions and make a faster and efficient BIOS solution with a reduced firmware stage (e.g., pre-CPU reset stage, IBBL stage and IBB stage) for modern device use cases like Automotive IVI (in-vehicle infotainment, e.g., turn on rear view camera within 2 sec), household and industrial robots, etc. Accordingly, new market segments may be available.
 
  • Gefällt mir
Reaktionen: v_ossi, bad_sign, BrollyLSSJ und 6 andere
bad_sign schrieb:
Die Frage ist, hat auch die CPU Zugriff auf den eDRAM? Und ist der schneller als tuned DRAM? Der läuft bestimmt mit JEDEC Timings, ist aber näher dran
eDRAM ist ist viel näher an der CPU. Also noch mal dtl. schneller als "tuned" DRAM.
 
Volker schrieb:
Nun ist klar, dass dieser L4-Cache ein Teil des Base Tiles werden kann, ein Schaubild aus einem Intel-PDF verdeutlicht dies.
Nee, das ist Quark. Das Schaubild zeigt den L4 Zwischenspeicher auch eindeutig im SOC-Plättchen verortet. (Das Base-Plättchen ist nur für Leitungen - teilweise mit angebundenen Kondensatoren - zuständig, beinhaltet aber keine logischen Schaltkreise.)
 
Zuletzt bearbeitet: (nein, zeigt es nicht.)
  • Gefällt mir
Reaktionen: Nagilum99
incurable schrieb:
Nee, das ist Quark. Das Schaubild zeigt den L4 Zwischenspeicher auch eindeutig im SOC-Plättchen verortet.
Screenshot_20230423_141626_Chrome.jpg


Nö, das ist schon richtig so. Dachte mir schon bei der letzten Hot Chips Präsentation, dass das doch nicht Intels Ernst sein kann, bei jeder CPU noch 180mm^2 Silizium mitzuschicken, die keinen richtigen Zweck haben.

Ich muss sagen, nach allem was man aktuell weiß hat Intel zurecht um Meteor Lake soviel Aufsehen gemacht. Nur die neuerliche Verspätung hätte mal wieder nicht sein müssen. Wobei die CPUs auch im Herbst wohl noch toll sind. AMD scheint ja sowieso kein Interesse an Mobile CPUs mehr zu haben.
 
Zuletzt bearbeitet:
WinnieW2 schrieb:
Also nach der Abbildung auf folgender Website befindet sich der DRAM-Chip mit dem L4-Cache noch unterhalb des Base-Tiles.
Da hat nur wieder jemand eine Grafik von Intel hergenommen und für so einen Artikel verschandelt.
 
  • Gefällt mir
Reaktionen: WinnieW2 und Nagilum99
incurable schrieb:
Wenn Du in Fig 8 logische Schaltkreise ausserhalb der 4 beschriebenen Schaltkreisplättchen findest, darfst Du sie behalten.
Es sind nicht 4, sondern 5 Dies, der 5te liegt unter den anderen 4 und verbindet diese, wie auch schon von Intel ausführlichst beschrieben. Und auf diesem 5ten steht in Fig. 8 nunmal "ADM base or passive Interposer". Passive Interposer ist das, was man auf der Hot Chips gezeigt hat. ADM Base, sprich Adamantine/L4 Base ist das, was man auf der Hot Chips noch verschwiegen hat. Es ist damit nun offensichtlich, dass der Interposer eben NICHT immer passiv ist, sondern auch durch eine Base Tile mit eben jenem ADM/L4 ersetzt werden kann.
 
Philste schrieb:
Nö, das ist schon richtig so. Dachte mir schon bei der letzten Hot Chips Präsentation, dass das doch nicht Intels Ernst sein kann, bei jeder CPU noch 180mm^2 Silizium mitzuschicken, die keinen richtigen Zweck haben.
Stimmt und stimmt nicht zugleich: Auch Lakefield hatte bereits einen 90mm² großen aktiven Interposer, gefertigt in 22FFL und der gleiche Prozess wurde auch für den aktiven Interposer von Meteor Lake genannt. Allerdings war Lakefield gleichzeitig ja auch kein Massenprodukt, sondern ein Testballon.
Philste schrieb:
Ich muss sagen, nach allem was man aktuell weiß hat Intel zurecht um Meteor Lake soviel Aufsehen gemacht. Nur die neuerliche Verspätung hätte mal wieder nicht sein müssen. Wobei die CPUs auch im Herbst wohl noch toll sind.
Ja, klingt wirklich gut.
Philste schrieb:
AMD scheint ja sowieso kein Interesse an Mobile CPUs mehr zu haben.
Was? Phönix vergessen?
 
Zuletzt bearbeitet:
Zurück
Oben