News Schneller Arbeitsspeicher: Micron liefert ersten LPDDR5 für Smartphones aus

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.346
Der Speicherhersteller Micron gibt die Auslieferung des nach Unternehmensangaben „weltweit ersten in Großserie hergestellten Low-Power DDR5-DRAMs“ bekannt. Der neue LPDDR5-Arbeitsspeicher liefert höhere Datenraten und eine bessere Effizienz und soll vorerst in High-End-Smartphones wie dem Xiaomi Mi 10 eingesetzt werden.

Zur News: Schneller Arbeitsspeicher: Micron liefert ersten LPDDR5 für Smartphones aus
 
  • Gefällt mir
Reaktionen: Grimey, aid0nex und SVΞN
Spürt man diese Leistungssteigerung bei den neuen Smartphones überhaupt noch?

Die sind doch jetzt schon extremst schnell..
 
  • Gefällt mir
Reaktionen: flo.murr, aid0nex, bensel32 und eine weitere Person
wenn nicht was dazwichen kommt wird mein mi9t pro erst in 4-5 jahren ersetzt, soviel zeit muss sein^^
 
  • Gefällt mir
Reaktionen: flo.murr, aid0nex, droogF und 3 andere
ZeXes schrieb:
Spürt man diese Leistungssteigerung bei den neuen Smartphones überhaupt noch?

Die sind doch jetzt schon extremst schnell..

Naja für AI Anwendungen sind Top Smartphones gerade so genügend, was die Leistung betrifft.
Und der Abstand zu einem Desktop-System ist immer noch riesig.
 
  • Gefällt mir
Reaktionen: Rangerkiller1
ZeXes schrieb:
Spürt man diese Leistungssteigerung bei den neuen Smartphones überhaupt noch?

Die sind doch jetzt schon extremst schnell..

Wahrscheinlich nicht. Trotzdem werde ich solche Verbesserungen gerne mitnehmen, wenn ich von meinem Smartphone von 2016 auf ein aktuelles Modell wechsel.
 
Schöne Nachrichten, dass sich im Speicherumfeld wieder was tut. Besonders die Kombinationschips aus Flash und Ram sind interessant, da daduch vielleicht wieder mehr Platz für den Akku entsteht im Gerät.
Allerdings muss ich sagen, dass es seit Jahren nicht an der Hardware scheitert sondern an der Software.
Mangels Updates und explodierenden Softwareanforderungen braucht plötzlich einfache Apps gigantische ressourcen weil diese schlecht programmiert werden.
Bei 6 oder 8GB Ram der verbaut ist, verbrauchen irgendwelche möchtegern UIs einfach Mal das doppelte des darunter laufenden Systems.
Dann blickt man auf Apple die zwar auch erstklassige Hardware verbauen, sich das ganze aber doch um ein Hauseck geschmeidiger anfühlt und damit sieht, dass mit vergleichbarer Hardware doch noch wesentlich mehr geht.

Wenn ich mit mein Note8 oder Pocophone F1 mit 6GB Ram und Snapdragon 845 bzw. irgendnem High End Exynos ansehe, frag ich mich wie auf dem alten Nokia N95 oder meinem ersten HTC Desire eigentlich irgendwas gelaufen ist.
 
  • Gefällt mir
Reaktionen: Shoryuken94
ZeXes schrieb:
Spürt man diese Leistungssteigerung bei den neuen Smartphones überhaupt noch?
Bei großen Anwendungen und Spielen vielleicht schon, aber interessanter ist da der geringere Stromverbrauch,
 
Bin bei weitem nicht mehr so auf dem Laufenden, aber wäre das auch was für AMDs APUs? Wenn ich das richtig in Erinnerung habe, sollen die neuen Ryzen ja die Vorgänger-Generation unterstützen. Das ersetzt zwar nach wie vor keine dedizierte Karte, würde aber vielleicht doch so manches Spiel vom "gelben" Bereich in den "grünen" drücken (respektive von rot in gelb...).
Aber selbst wenn, dürfte die Hauptfrage wohl wieder die Kostenfrage sein.
 
Ich finde es immer wieder interessant, wie rasant die Smartphones auf PC-Systeme aufholen.

Dieser LPDDR5 liefert in einem Smartphone mit 16-Bit quad-channel IMC eine Bandbreite von 51,2GB/s. Das ist genauso viel wie ein Desktop-PC mit dual-channel DDR4-3200 zur Verfügung hat.

In spätestens zehn Jahren wird man nicht zuletzt dank 5G keinen Unterschied mehr zwischen high-end Desktop und Smartphone mehr sehen. Vermutlich sogar schon um einiges früher.
 
  • Gefällt mir
Reaktionen: Grimey
nanoworks schrieb:
In spätestens zehn Jahren wird man nicht zuletzt dank 5G keinen Unterschied mehr zwischen high-end Desktop und Smartphone mehr sehen. Vermutlich sogar schon um einiges früher.

Ich wage mal die These, dass ein 300 W Desktop PC ein 10 W Mobilgerät immer abhängen wird. Selbst wenn es nur dadurch sein sollte, dass man 30 Mobilgeräte in ein Gehäuse gepackt hat. :)
 
  • Gefällt mir
Reaktionen: Pry_T800, C4pTuReD, Holindarn und eine weitere Person
Für welche Produkte sind die am Ende genannten Intel CPUs gedacht, die dann LPDDR5 supporten? Laptops?
Wie schon mal gefragt: Wie kommt es, dass man hier schon bald DDR5 vorfindet und im Desktop & Server erst nächstes Jahr? Und an die informierten User: Kann man mit der Produktion auch Rückschlüsse auf nonLP-DDR5 ziehen? zB dass die jetztige Produktion von LPDDR5 gut ist, damit die Produktion für Desktop & Server besser läuft?

Wahrscheinlich wird es "vorgezogen" aufgrund der Energiesparmöglichkeit und der Marketingwirksamen "Features" durch eine neue Speichertechnologie? ("DAS ERSTE SMARTPHONE MIT 12GB DDR5 SPEICHER!!1")
 
Wattwanderer schrieb:
Ich wage mal die These, dass ein 300 W Desktop PC ein 10 W Mobilgerät immer abhängen wird. Selbst wenn es nur dadurch sein sollte, dass man 30 Mobilgeräte in ein Gehäuse gepackt hat. :)

Es ist vollkommen gleich, ob das 300W-System auf dem Papier mehr Leistung hat als das 10W-System. In der Praxis wirst du keinen Unterschied merken, weil du die Arbeit sowieso in die Cloud auslagerst. Oder anders formuliert: Das 10W-System mit Cloud wird das das 300W-System ohne Cloud deklassieren.

Beispiel Batch Rendering:

Warum sollte man sich für rechenintensive Anwendungen wie Maya und Co noch eine sauteure Hochleistungsworkstation kaufen, wenn man sich einfach bei den großen Cloud Anbietern (Google, MS, Amazon) einen Slot für die Aufgabe mieten kann? Du sparst Strom, Wartungskosten, du musst nicht immer aufrüsten, hast keine Treiberprobleme, dein lokales System ist nicht stundenlang okkupiert und das Rechenzentrum erledigt die Aufgabe ohnehin schneller.

fox40phil schrieb:
Wie kommt es, dass man hier schon bald DDR5 vorfindet und im Desktop & Server erst nächstes Jahr?

Smart Devices und Rechenzentren sind für die Halbleiterbranche die Märkte der Zukunft. Der PC-Markt ist ein Auslaufmodell. Deswegen kriegt der PC neue Technlogogie auch als letztes. Ist eine ganz nüchterne wirtschaftliche Entscheidung.
 
Nein es wird im Moment nur der LPDDR5 produziert, da für "richtigen" DDR5 noch keine Abnehmer vorhanden sind.
Intel und AMD verbauen beide durchgehend DDR4 Controller in deren CPUs und somit kein Bedarf an DDR5.
Die Produktion der Ramchips für DDR5 im PC wird im verlauf des Jahres starten und steigen während DDR4 langsam gedrosselt wird und die Preise langsam steigen.
Vorerst gibts aber nur Vorserienmodelle um die Fertigung, Mainboards, Speichercontroller usw. zu optimieren.
Bei AMD wirds anscheinend 2021 soweit, dass DDR5 in die Desktops kommt. Bei den EPYCs eventuell schon 2020.

Bei allem sollte man sich aber nicht zu früh freuen, da DDR5 vorerst mal wesentlich teurer als DDR4 sein wird und vor allem nicht unbedingt viel schneller.
Wenn man bedenkt, dass DDR4-2133 sich am anfang gegen DDR3-1600 oder gar 2133 MHz behaupten musste und aufgrund der Timings usw. nicht wirklich schneller war, reichts auch wenn man 2022 oder 2023 dann sehr gute, schnelle und vergleichsweise günstige DDR5 Module bekommt.

nanoworks schrieb:
Beispiel Batch Rendering:

Warum sollte man sich für rechenintensive Anwendungen wie Maya und Co noch eine sauteure Hochleistungsworkstation kaufen, wenn man sich einfach bei den großen Cloud Anbietern (Google, MS, Amazon) einen Slot für die Aufgabe mieten kann? Du sparst Strom, Wartungskosten, du musst nicht immer aufrüsten, hast keine Treiberprobleme und das Rechenzentrum erledigt die Aufgabe ohnehin schneller.
Falsch: du sparst keinen Strom, er wird wo anders verbraucht und dort eventuell effizienter genutzt. Der Unterschied ist, dass du keinen PC, Strom usw. zahlst sondern einfach eine Dienstleistung.
Brauchst du diese Workstation aber dauerhaft fürs rendern, kanns auch sein, dass auf dauer eine eigene Renderfarm billiger als die Cloud ist.
Eins kann ich dir aus eigener Erfahrung sagen: Wenn du Leistung brauchst, ist auch die Cloud sauteuer denn es hat keiner was zu verschenken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bonanca
flo36 schrieb:
Falsch: du sparst keinen Strom, er wird wo anders verbraucht und dort eventuell effizienter genutzt. Der Unterschied ist, dass du keinen PC, Strom usw. zahlst sondern einfach eine Dienstleistung.
Brauchst du diese Workstation aber dauerhaft fürs rendern, kanns auch sein, dass auf dauer eine eigene Renderfarm billiger als die Cloud ist.
Eins kann ich dir aus eigener Erfahrung sagen: Wenn du Leistung brauchst, ist auch die Cloud sauteuer denn es hat keiner was zu verschenken.

Wenn du den Strom nicht selber verbrauchst, dann hast du ihn dir gespart. Ganz einfach. Und eine Zentralisierung von Ressourcen ist grundsätzlich immer effizienter als eine Dezentralisierung.

Das Problem beim Rendern ist: Wenn du eine Workstation nutzt, kannst du nicht mehr weiterarbeiten, bis der Renderingvorgang abgeschlossen ist. Nutzt du hingegen eine eigene Renderfarm, steht diese still, solange du die Szene konzipierst. Beim Batch Rendering fallen beide Probleme weg.

Cloud Computing ist ein regelrechtes Wettrüsten. Die Kapazitäten steigen kontinuierlich und die Rechenleistung wird immer günstiger. Es ist nur eine Frage der Zeit, bis sich jeder größerer App-Anbieter Cloud-Leistung für die eigenen Services mieten wird.


Edit:

Hier sind die offiziellen Preise von Microsoft Azure: https://azure.microsoft.com/de-de/pricing/details/batch/

Die Kosten gehen los bei weniger als 1 Cent pro Stunde. Ein high-end Slot mit 96 vCPUs, 384GB RAM und 2,5TB Speicherplatz kostet 3,80€ pro Stunde.
 
Zuletzt bearbeitet:
nanoworks schrieb:
Ich finde es immer wieder interessant, wie rasant die Smartphones auf PC-Systeme aufholen.
In spätestens zehn Jahren wird man nicht zuletzt dank 5G keinen Unterschied mehr zwischen high-end Desktop und Smartphone mehr sehen. Vermutlich sogar schon um einiges früher.

Ich wette 10 Kisten Bier, dass es selbst in 30 Jahren nicht so kommen wird.
Es sei denn Smartphones schaffen es den Energieerhaltungssatz als elementäres Gesetz der Physik auszuhebeln.
 
  • Gefällt mir
Reaktionen: Holindarn
Rock Lee schrieb:
Ich wette 10 Kisten Bier, dass es selbst in 30 Jahren nicht so kommen wird.
Es sei denn Smartphones schaffen es den Energieerhaltungssatz als elementäres Gesetz der Physik auszuhebeln.

Was ist das denn für eine dämliche Aussage?

Der Strom, den du in einen Prozessor reinpumpst, wird in Wärme umgewandelt und nicht in Rechenleistung. Wieviel der Prozessor leistet, hat damit erst einmal gar nichts zu tun.

Um mal beim Thema DRAM zu bleiben: GDDR6 verbraucht drei bis viermal so viel Strom wie HBM2. HBM2 ist trotzdem schneller.
 
  • Gefällt mir
Reaktionen: Grimey
Die Speicherkapazitäten der LPDDR5-Bausteine von Micron sollen bei 6 GB, 8 GB oder 12 GB liegen. Neben den 6,4-Gbit/s-Chips sollen auch Varianten mit 5,5 Gbit/s (5.500 Mbit/s) an Kunden ausgeliefert werden.

Damit dürfte dann ein Schnitt gemacht werden bzw. 4GB in (zuerst High-End-)Smartphones endgültig ausgedient haben, wie es scheint.

Die Transferraten von LPDDR5 sind schon sehr beeindruckend.
 
"data access speed has increased by 50%"
Bedeutet wohl, der Takt in den RAM-Bänken wird deutlich angehoben, von bisher maximal 266MHz auf 400MHz bei LPDDR5-6400. Damit wäre erstmals LPDDR bei der Latenz im Desktop-Bereich angekommen. Es wird spannend sein, wieviel davon in nächster Zeit bei den ARM-SoCs ankommt. Snapdragon 855 war bei der Latenz ja nicht so der Brüller, schauen wir also, wie sich der 865 mit LPDDR5 schlägt.

@Chismon
Ach ja, 12Gb Die und 1x16 SI, das wird Apple zu 6GB im iPhone und 12GB im iPad Pro zwingen :D
 
Zurück
Oben