News Samsung SmartSSD: Schlauer Datenträger soll CPU fast überflüssig machen

  • Gefällt mir
Reaktionen: TheOneofAll, cbmik, Bonanca und 7 andere
viellei gehts ja eher um das Schreiben in 3D Nand layern, das ist ziemlich komplex, weil ja benachbarte Zellen mitgeflasht werden und neu geschrieben werden müssen.
 
Das gibt es doch schon länger in Premiumstorages die nur aus SSDs bestehen, kostet natürlich dementsprechend was. Aber die Idee eines Zusatzprozessors der die Aufgabe wesentlich effektiver erledigt bei SSDs als die normale CPU gibt es ja schon länger - kommt jetzt halt in den Consumermarkt irgendwann.
 
So wie ich verstanden habe sollen io Zugriffe deutlich reduziert werden. Mal schauen welche Art von workload besonders beschleunigt werden kann
 
hmm theoretisch spart man sich damit PCIe Lanes ein oder?
Dann könnte man mehr SSDs für CPU verwenden, das sich extrem im Storage Bereich bemerkbar machen würde.
Wenn in der nächsten dritten Generation dann noch RAM für Dedub und eine Erweiterung der "Intelligenz" für Compression eingebaut wird, dann gibt das nochmal einen richtig dicken Boost.
 
Da kommen Erinnerungen hoch.

Damals, als die ersten Pentium, die DX4-100 abgelöst haben und die SCSI CD-ROM nötig waren, um das brandneue .mp3 Format zum rippen von Audio Dateien zu ermöglichen, um keine Störgeräusche zu bekommen, weil so eine Steinzeit CPU dieses damals nicht in einfacher Geschwindigkeit konnte (4 fach Laufwerke wären schön gewesen) musste man so etwas machen.

Heute kann man das machen. Wenn die Software aber durch solch ein technologisches Feature, erst schnell wird, ist sie einfach nur Schrott.

Damit gewinnt man natürlich eine Entlastung an der CPU. Eine CPU, die heutzutage aber mit der Verarbeitung des Datenverkehrs einer SSD überfordert ist, sollte man aber auch nicht bitten, eine 3D Anwendung brauchbar schnell mit Daten füttern zu sollen.

mfg
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Mal abgesehen davon, dass es im Datacenterbereich großen Nutzen haben kann, sehe ich jetzt schon die ganzen "Gaming" Ableger....
 
Onkel Föhn schrieb:
Dann wäre INTEL gut beraten, das Patent aufzukaufen und in "Ihrer" Schublade gaaaanz unten zu parken ...
Seit Ryzen wissen wir doch, wie leer Intels Schublade doch sein kann ;)

Ich denke auch, dass sowas nur bis zu einem gewissen Punkt hilfreich ist. Zuviel Auslagerung von Rechenleistung könnte für Latenzen etc sorgen. Je nach Anwendungsgebiet aber sicherlich eine sehr gute Entwicklung.
 
  • Gefällt mir
Reaktionen: .Ake, Onkel Föhn und lubi7
Wirklich, "In-memory Computing" ? Was ein beknackter Begriff. Computing ist schon immer "In-Memory". eigentlich geht es um In-Memory-Databases.
 
Spannend. Aber FPGA sind nur in recht spezifischen Fällen "besser/ökonomischer".
FPGAs sind recht teuer für die Leistung die man später bekommt. Der Vorteil liegt in der möglichen Rekonfiguration. Nun verstehe ich nicht so ganz, wieso man das bei I/O braucht.

Entweder tut man so ziemlich oft dasselbe, dann wäre eine ASICs besser.
Oder man hat wechselnde Aufgaben und nutzt CPUs. Hash-check, Encoding, Encryption. All das sind Dinge die wir heute schon als ASICs auf CPUs haben.

Ich bin sicher das sich Samsung was dabei gedacht hat, aber mir fällt kein usecase ein in welchem ein "dynamischer ASICs" auf der SSD sinnvoll wäre.


Chuuei schrieb:
Interessanterweise ist das genau umgekehrt zur Richtung manch andere die den Controller aus der SSD entfernt sehen wollen und diese Aufgaben der CPU überlassen möchten um SSDs möglichst einfach und stupide zu machen.

Das kann ich schon eher verstehen. Jedoch, nur wenn die Standards recht offen bleiben und man damit nicht so ein Käse macht wie Apple :/
Laufwerke haben in der Regel einen kürzen Lebenszyklus als CPUs.
 
  • Gefällt mir
Reaktionen: ildottore
Hmm, ein neuer Weg um ein System zu komprimitieren, aber bitte wem es gefällt !
 
Irgendwie seh ich den Sinn des Ganzen nicht so ganz. Das größte Problem der SSD sind immer noch die Latenzen der Speicherzellen. Diese begrenzen die Geschwindigkeit der Datenverarbeitung und nicht der Ort an dem die Verarbeitung stattfindet..
Und warum man ein FPGA nutzen soll wird auch nicht ganz klar, man könnte auch einfach eine SSD-interne lokale ARM-CPU o.ä nutzen für die lokale Datenverarbeitung.
Andererseits haben CPU's mittlerweile so viele Kerne, dass eine Vorverarbeitung in der SSD in den meisten Fällen keinen großen Sinn mehr macht. CPU-Ressoucen sind ausreichend vorhanden.
Universeller und flexibler wäre der Ansatz, zur CPU noch ein FPGA zu packen...
 
Zuletzt bearbeitet:
[wege]mini schrieb:
Damit gewinnt man natürlich eine Entlastung an der CPU. Eine CPU, die heutzutage aber mit der Verarbeitung des Datenverkehrs einer SSD überfordert ist, sollte man aber auch nicht bitten, eine 3D Anwendung brauchbar schnell mit Daten füttern zu sollen.

Bitte nicht immer aus der Privatuser / Gamerecke denken. Es geht hierbei eher um Systeme mit 20+ NVMe SSDs pro Kiste in einem dual socket system für IO-lastige Anwendungen. Da kann man massiv traffic intern sparen, wenn man den overhead für Kommunikation zwischen storage und CPU reduziert.

Dummsday schrieb:
Irgendwie seh ich den Sinn des Ganzen nicht so ganz.

Public Broadcasting (Infrastruktur von Netflix, ARD Mediathek, Youtube etc) dürfte das massiv einsetzen in der Zukunft.

Bei CCTV (Speicherung und live-analytics der Daten von z.B. Überwachungskameras) dürfte das auch gut nutzbar sein.

Könnte mir auch vorstellen, dass es im HPC Bereich Anwendungen dafür gibt, dadurch könnten die NAS in HPC Clustern mit weniger Latenz angebunden werden und dadurch performanter sein. Aber das ist nur eine Vermutung.
 
  • Gefällt mir
Reaktionen: Asghan, Volvo480, Dummsday und eine weitere Person
Mit dem ganzen Neuronalnetwork- und AI-Getue schafft man allerdings nicht unbedingt Vertrauen, da es eine Technik ist, die man praktisch aus der Hand gibt und damit außerhalb seiner Kontrolle.
 
N.t.H. schrieb:
Erklärung:
Wir Spieler haben ja Probleme den Unterschied zwischen einer SATA-SSD und einer pfeilschnellen x4 Gen3 SSD zu spüren - Die Spiele laden nicht schneller, und auch die Programme nicht.
Keine Ahnung was Linus da im Video erzählt, aber zwischen meiner mittelprächtigen PCIE-SSD und der ebenso mittelprächtigen
SATA-SSD gibt es einen ganz klaren Geschwindigkeitsunterschied schon auf dem Desktop, wenn es nicht gerade nur eine Textdatei zu öffnen ist. Spiele laden (so es etwas "von Platte" zu laden gibt, zB am Anfang) auch spürbar schneller.
 
N.t.H. schrieb:
SSDs sind ja seit SATA nicht schneller geworden :D Ist das vielleicht der finale Schritt zu wirklich sofortigen Ladezeiten in Games und Anwendungen? Ich würde auch 60% weniger Speicherplatzverbrauch ohne Leistungsverbrauch nehmen, wenn ich die Wahl hätte :)

Erklärung:
Wir Spieler haben ja Probleme den Unterschied zwischen einer SATA-SSD und einer pfeilschnellen x4 Gen3 SSD zu spüren - Die Spiele laden nicht schneller, und auch die Programme nicht. Z.B.:

Deine Einschätzung ist 100% falsch.

Die SSDs sind deutlich schneller geworden, nur die Game Engines können nicht damit umgehen.

So lange Games theoretisch auch auf HDDs oder SATA SSDs laufen müssen, ist das Object Streaming der Game Engines nicht in der Lage, die Geschwindigkeit von NVMe SSDs zu nutzen.

Erst, wenn Games auf SATA SSDs oder HDDs gar nicht mehr lauffähig sind und NUR noch für NVMe SSDs programmiert werden, wird auch die Geschwindigkeit von NVMe SSDs genutzt werden.

Das Streaming muss völlig anders programmiert werden, wenn man statt einer HDD eine NVMe ausnutzen möchte. Entweder, das Streaming wird so programmiert dass es auf allen Varianten (HDD, SATA SSD, SATA NVMe) läuft und nur geringe Geschwindigkeitsvorteile durch die schnellste Variante hat, oder man muss die Abwärtskompatibilität streichen und Game Engines so umschreiben, dass die NVMe SSDs voraussetzen und auf anderen Datenträgern gar nicht mehr starten, aber dafür auch volle Performance bieten.

Daher, liegt nicht an der Hardware, sondern der Programmierung der Engine.
Ergänzung ()

daivdon schrieb:
Spiele laden (so es etwas "von Platte" zu laden gibt, zB am Anfang) auch spürbar schneller.

Die Ladezeit halbiert sich aber meist (Ca. Wert, können 40% weniger sein, können auch mal 60% sein, je nach Game) nur beim Wechsel von SATA auf NVMe, obwohl die NVMe SSD um den Faktor ~15 schneller ist.

Würde die Engine nur für NVMe SSDs geschrieben, würde sich die Ladezeit nicht nur halbieren, sondern um 90-95% reduzieren ;)
 
JohnVescoya schrieb:
Public Broadcasting (Infrastruktur von Netflix, ARD Mediathek, Youtube etc) dürfte das massiv einsetzen in der Zukunft.

Bei CCTV (Speicherung und live-analytics der Daten von z.B. Überwachungskameras) dürfte das auch gut nutzbar sein.

Könnte mir auch vorstellen, dass es im HPC Bereich Anwendungen dafür gibt, dadurch könnten die NAS in HPC Clustern mit weniger Latenz angebunden werden und dadurch performanter sein. Aber das ist nur eine Vermutung.
Ok, das mag sein, dass sind dann aber auch sehr spezialisierte Anwendungen, die eher nicht so zu der Zielgruppe von Computerbase gehören ;). Im Laptop oder der Workstation wird man solche SSDs auch in der Zukunft dann wohl eher nicht finden..
 
Interessante Technik. Das ganze dann noch mit 3dx-point Speicher und schneller ist dann nur noch RAM/Cache etc.
 
Die Artikel zum Thema scheinen nicht verständlich formuliert zu sein…
Axxid schrieb:
ch kann mich nicht daran erinnern jemals gedacht zu haben "Jetzt lastet diese bloede SSD wieder meine CPU aus!".

N.t.H. schrieb:
SSDs sind ja seit SATA nicht schneller geworden :D Ist das vielleicht der finale Schritt zu wirklich sofortigen
Soweit ich das verstehe, geht es hier primär darum das die Daten auf der SSD verarbeitet werden. Also wenn zB eine Eintrag in der Datenbank gesucht wird, dann läuft der Code/App auf der SSD direkt. Das spaart den transfer der Daten in den Arbeitsspeicher bzw die Verarbeitung auf der CPU.

Jedoch funktioniert das nicht für alle Anwendungsbereiche und aktuell sehe ich darin keinen Nutzen für Gaming.

Es geht also nicht darum die Ladezeiten zu verbessern, sondern die CPU läuft quasi direkt auf der SSD.
 
Zurück
Oben