News Arm-PC: MediaTek soll Qualcomm mit Nvidia-GPU Paroli bieten

9t3ndo schrieb:
Ich denke mit x86 (x64) wäre die selbe Effizienz zu erreichen, wenn man den Cut vollziehen würde und alle Altlasten aus den Chips schmeißt.
So ja auch durch den Wechsel x86 zu ARM bei Apple geschehen. Das Problem ist halt einfach Windows mit seinem riesen Marktanteil. Die IT-Consumer Welt würde brennen, wenn M$ verkündet, alles was nicht für Windows 12 und ab Prozessor X gecoded ist, läuft nicht weil die Unterstützung fehlt und nicht mehr kommen wird.
Das Irrsinnige an der ganzen geschichte ist ja das ARM CPU's alle x86 programme zum laufen bekommen indem sie sie einfach emulieren.
Ist zwar rund 30% ineffizienter als Nativ, aber who cares.
Wäre ja für Intel auch möglich sämtliche alten Zöpfe abzuschneiden und diese dann einfach inneffizienz zu emulieren falls sie mal benötigt werden.
Dann gäbs gar kein geschrei :)

andi_sco schrieb:
Und im Low-Power Bereich wildert Intel mit den N Prozessoren.
Nur werden letztere zu oft mit vollwertigen Core CPUs verglichen, was absolut nicht ihr Einsatzgebiet ist!
Die N- Chips sind keine "Low Power" sondern "Low Cost" chips... die U Serie mit 15W in Ultrabooks ist Low Power und die Y serie mit 5? 10? W sind die echten Low Power chips.
Das sind die Nachfolger der Atom Chips die in allen möglichen günstigen geräten gelandet sind. Wie zbsp der Z3735F

latexdoll schrieb:
Was keiner beachtet, Risc-V ist offen und die Zukunft.
Okay... wir besprechen das in 15-20 Jahren nochmal okay?
Ansonsten müsste ich erstmal meine Glaskugel aus dem Schrank holen und reinigen.

senf.dazu schrieb:
Die andere Frage ist welche Zukunft getrennte GPU Karten (mit dem ewigen Nadelöhr PCIe(x8 eher als x16?) an die GPU angebunden) im Consumermarkt haben .. ich denke die Zeiten sind bald vorbei.
Wie lange spricht AMD jetzt schon von HSA? 5? 10 Jahre? die PS5/Xbox war ja ein erster ansatz in diese Richtung.... aber sonsten gibts ja immer noch nicht wirklich viel was das tiefer aufgreift :( Leider.
BTW, Nadelöhr PCI-E ist irrelevant... von 5.0 zu 4.0 hat man selbst mit einer RTX4090 weniger als 3% verlust. Und wir haben bereits PCI-E 6.0 in den Servern und 7.0 wurde bereits angekündigt. Da sind eher die Latenzen das Problem, aber das ist ja eh irrelevant sofern die entwickler spezifisch dafür genau solch eine situation programmieren.

andi_sco schrieb:
Sonst gab es ja noch diesen Plan:
Mäh.
Und wie soll die Software die Threads zwischen den beiden CPU's hin und her schaufeln?
Wobei ich ja eigentlich voll und ganz für die Idee wäre.
Ich wünsche mir schon längstens ein anständigen Big/Little Homeserver der beeindruckende Standby werte erreicht und trotzdem PowerCores hat die Fett Leistung erbringen sofern es denn mal kurz nötig ist.
Aber Stromsparende Server im Idle... haha Server im Idle... sowas gibts in der Industrie nicht.
Wäre der Server im Idle hätte man ihn gar nicht angeschafft!
 
Da haben sich die 2 richtigen gefunden, heck ich finde Mediatek sogar noch schlimmer als Nvidia, Nvidia hat wenigstens ein fast vollständiges Monopol und unendlich Geld, da macht es Sinn zu versuchen mit bösartigen Mitteln den Markt so dicht zu machen das man ein perfekten Monopol hat und man lästigen Kapitalismus (Wettbewerb) abschaffen kann und lieber den Markt komplett dicht macht. Allerdings ist Mediathek oft langsamer und bestenfalls gleich gut wie die Konkurenz und als billig Anbieter sollte man eigentlich um Kundschaft buhlen von der Marktlage wären sie eigentlich das Equivalent zu AMD in der Arm Welt, trotzdem verhalten sie sich wie Nvidia und teils noch schlimmer, Nvidia Karten kriegen wenigstens nach ein paar Jahren noch neue proprietäre Treiber, Mediatek ist dafür bekannt 0 Support zu geben. Bestes Beispiel war das 1. Fairphone das zum Briefbeschwerer wurde weil Mediatek einfach 0 Treiberupdates brachte....

Der Linux support wird auch grauenhaft sein, dann lieber noch den Qualcomm-mist, wenn sie wenigstens auf den billigmarkt zielen würden aber irgendwie zweifel ich dran das Nvidia Geräte billig sein werden.
 
Haldi schrieb:
Die N- Chips sind keine "Low Power" sondern "Low Cost" chips...
???
Die sind und waren schon immer auf einen geringen Verbrauch ausgelegt. Auch wenn die ersten Atoms mit ihren Chipsätzen kräftig zugelangt haben.

Haldi schrieb:
Und wie soll die Software die Threads zwischen den beiden CPU's hin und her schaufeln?
Das musst du AMD fragen
 
Naja... bei 15W TDP und 25W Aktuellem verbrauch würde ich das nun nicht unbedingt auf "Geringen verbrauch ausgelegt" bezeichnen.
1723575125991.png

Quelle: https://www.notebookcheck.com/Intel-Core-i3-N305-Prozessor-Benchmarks-und-Specs.678896.0.html


aber die Y Serie wird ja seit der 10 Generation gar nicht mehr hergestellt fällt mir auf...
Die passiven Tables haben wohl nun alle U chips oder die neuen P verbaut mit TDP down.
 
andi_sco schrieb:
???
Die sind und waren schon immer auf einen geringen Verbrauch ausgelegt. Auch wenn die ersten Atoms mit ihren Chipsätzen kräftig zugelangt haben.
Ich würde es noch etwas anders formulieren:
Haldi schrieb:
Die N- Chips sind keine "Low Power" sondern "Low Cost" chips... die U Serie mit 15W in Ultrabooks ist Low Power und die Y serie mit 5? 10? W sind die echten Low Power chips.
Die Atoms waren Low-Cost, Low-Power, Low-Performance und Low-Efficiency-Chips. (so etwas lässt sich natürlich auch leicht entwickeln) Typische Y-Serien-Chips / Core M waren hingegen High-Cost, Mid-Power, High-Performance und Mid-Efficiency.
Ein Kracher-Chip hingegen ist: Low-Cost, Low-Power, High-Performance und High-Efficiency (lässt sich entsprechend schwer entwickeln)
 
Zuletzt bearbeitet:
CDLABSRadonP... schrieb:
Atoms waren Low-Cost, Low-Power, Low-Performance und Low-Efficiency-Chips
So gesehen eine Weiterentwicklung der Media GX und des intel Timna Chips SoC
 
Macerkopf schrieb:
@Haldi welche Zukunft hat denn x86? Heutzutage ist in jedem Smartphone ein ARM Prozessor verbaut, Apple hat komplett auf ARM umgestellt und das extrem erfolgreich, ich gehe noch weiter, abseits von einem klassischen Desktop/Gaming Rechner ist ARM in allen Belangen überlegen. Apple zeigt wo die Reise hingeht...
Äpfel (hahaha) und Birnen Vergleich. iMacs, MacBooks usw. sind halt keine klassischen Desktops, auch keine klassischen Notebooks. Dort gibt es keine Hardwarevielfalt, Hard- und Software kommen aus einer Hand und es sind kaum erweiterbare Systeme. Das macht einen gewaltigen Unterschied.
 
  • Gefällt mir
Reaktionen: Ganjaware
CDLABSRadonP... schrieb:
Typische Y-Serien-Chips / Core M waren hingegen High-Cost, Mid-Power, High-Performance und High-Efficiency
Sind die wirklich so gut? Oder musste man nur einen vollwertigen Core in ein enges TDP-Korsett zwängen?

Das Problem ist halt, das man unnötige Transistoren soweit wie möglich abschalten können muss, um Strom im Betrieb sparen zu können.

Mein Ryzen 9 mit Chiplet wirkt im Laptop dann auch wesentlich stromhungriger, als das Single-"Core" Design meines Ryzen 7.
 
  • Gefällt mir
Reaktionen: Haldi
andi_sco schrieb:
Sind die wirklich so gut? Oder musste man nur einen vollwertigen Core in ein enges TDP-Korsett zwängen?

Das Problem ist halt, das man unnötige Transistoren soweit wie möglich abschalten können muss, um Strom im Betrieb sparen zu können.
Sorry, ich habe mich vertippt. Statt...
CDLABSRadonP... schrieb:
Typische Y-Serien-Chips / Core M waren hingegen High-Cost, Mid-Power, High-Performance und High-Efficiency.
...sollte da...
CDLABSRadonP... schrieb:
Typische Y-Serien-Chips / Core M waren hingegen High-Cost, Mid-Power, High-Performance und Mid-Efficiency.
...stehen. Ansonsten ist das auch selbstwidersprüchlich! Passe das Posting entsprechend an!

Bzgl. der tatsächlichen Güte: Es waren halt angepasste Packages und insgesamt recht große DIEs dann niedrig getaktet. Das tut natürlich immer gut. Einen Dragon Range könnte man nie sinnvoll als Y-Variante auflegen.
 
  • Gefällt mir
Reaktionen: andi_sco
CDLABSRadonP... schrieb:
Es waren halt angepasste Packages und insgesamt recht große DIEs
Und da kommen wieder die N-CPUs ins Spiel, die auch bei den Transistoren und der iGPU sparen.

Naja, um zum eigentlichen Thema zurück zu kommen: abwarten und Tee trinken.
Werden wir ja sehen, wie effizient eine nVidia GPU wirklich sein kann.
Ergänzung ()

Haldi schrieb:
bei 15W TDP und 25W Aktuellem verbrauch
Der ganze Laptop?
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Haldi schrieb:
Wie lange spricht AMD jetzt schon von HSA? 5? 10 Jahre? die PS5/Xbox war ja ein erster ansatz in diese Richtung.... aber sonsten gibts ja immer noch nicht wirklich viel was das tiefer aufgreift :( Leider.
BTW, Nadelöhr PCI-E ist irrelevant... von 5.0 zu 4.0 hat man selbst mit einer RTX4090 weniger als 3% verlust. Und wir haben bereits PCI-E 6.0 in den Servern und 7.0 wurde bereits angekündigt. Da sind eher die Latenzen das Problem, aber das ist ja eh irrelevant sofern die entwickler spezifisch dafür genau solch eine situation programmieren.
Der Unterschied ist das die Speicherchips inzwischen größer geworden sind. So groß das z.B. Apple bei allen seinen Mx Chips auf Integration ins Prozessorpackage und unified Memory für GPU und CPU setzt. Selbst beim MacPro (bislang) ohne jede externe Erweiterungsmöglichkeit. Und da das auch Vorteile beim Energieverbrauch und der Speicherbandbreite bietet wird sich das jetzt wohl jetzt durchsetzten. Bei externen GPUs nutzt man ja deswegen schon lang aufgelöteten Speicher.

Speicherbandbreite Mx(CPU+GPU) - RAM: 100G - 200G - 400G - 800GByte/s (für aktuelle Apple Mx Varianten von nix bis Ultra)
PCIe x16 Bandbreiten 16 - 32 - 64 GByte/s (für aktuelle PCIe 3.0, 4.0 bis 5.0)

Das man auch Apps schreiben kann die so sparsam mit dem Nadelöhr PCIe umgehen das man's kaum merkt ist keine Frage. Aber es sind ohne Zweifel auch andere vorstellbar. Bei unified Memory muß man sich einfach nicht mehr drum kümmern. Obwohl man sicher manchmal (noch) umkopieren muß weil wenn sich CPU und GPU bei Datenformaten nicht grün sind. Aber das Umkopieren/Umformatieren läuft ja dann mit z.B. 800 GByte/s.

Nicht nur PCIe entwickelt sich weiter - Prozessor und RAM auch ..
 
Zuletzt bearbeitet:
latexdoll schrieb:
Die Zukunft ist weder Arm noch X86-64.

Was keiner beachtet, Risc-V ist offen und die Zukunft.

Schön wär's... Das ist in etwa so wie die Aussage "die Zukunft gehört dem Kernfusionsreaktor, weil..." - und dann folgen sehr viele logische und technisch richtige Argumente. Leider setzt sich nicht immer die theoretisch beste Technik am Markt durch. Da spielen noch viel mehr Faktoren mit rein.
 
  • Gefällt mir
Reaktionen: Haldi und andi_sco
Schwieriges Thema 🤷🏻. Nv, baut selbst ARM Chips, Von Mediatek, kommt ja auch nur mehr, oder weniger Standartkost. X86 und ARM, ist genauso schwierig. Bisher, ging es immer zu Lasten, von irgendwas. Kompatibilität, Stromverbrauch, Produktionskosten, uvm...
Intel hatte z.B. selber ARM CPU's gebaut, wie einige anderen auch. Diese Liste ist sehr lang. Jede Architektur, hat seine Vor und Nachteile. Egal, ob X86(64), ARM, MIPS, RiscV, ....
Dazu, kommt die Software. Da ist halt Apple, klar im Vorteil. Hard und Software, in einer Hand. Dafür, kann man nicht mol geschwind ne 4090 einbauen, den RAM erweitern, ne CPU tauschen, oder von I/Mac OS, auf Windows/ Linux. Wenn das so einfach währe, könnte man auf m Handy, ja auch sein Betriebssystem einfach wechseln. Scheitert, ja schon an den Treibern. Da fällt Mediatek schon ganz raus und NV, bekleckert sich da auch nicht sooo mit Ruhm. Dann lieber Qualcomm/ AMD/ Intel.
Moore Threats, ist soweit ich es weiß, ein bissle Mischmasch. Irgendwo bissle PoverVR IP, aber der Gründer, ehemaliger NV Mitarbeiter. 😝😜
Für das ganze, bräuchte man wieder Back to the Roots. Flexible Software, einheitliche Sockel, usw...
Naja, wie teilweise zu den Anfangszeiten. Ein Sockel, ob die CPU von Intel/ AMD/ Via/ Ciryx, k.A. wie die alle hießen.
Das dann noch ausgeweitet, auf die verschiedenen Architekturen. Am Ende, würde z.Z. nur noch Linux übrig bleiben. Software technisch. Soweit, werde nie alle unter einen Tisch kommen 😉 😝🤷🏻
 
latexdoll schrieb:
Die Zukunft ist weder Arm noch X86-64.

Was keiner beachtet, Risc-V ist offen und die Zukunft.
Alles andere ist nur ein totes Pferd weiter zu reiten. Auch Arm hat "alte" Zöpfe wie X86.

https://en.wikipedia.org/wiki/RISC-V

mfg
fehlt ein OS dafür das dann zusammen mit RISC-V auch einen bereitwilligen 90% Markt irgendwann erreicht ..

manche Pferde werden auch mal zu früh totgesagt. Aber Pferde mit Zöpfen - die scheinen mir wirklich schon ausgestorben zu sein.
 
Zuletzt bearbeitet:
Zurück
Oben