News Über 26 GB/s: Micron entwickelt erste PCIe-6.0-SSD

mae schrieb:
Vielleicht brauchen die Kondensatoren fuer die Spannungsstabilisieren fuer die paar Sekunden, bis beim Stromausfall alles im Flash ist, den Platz. Das Zeug auf den SSDs hat mir zwar nicht nach Kondensatoren ausgeschaut,
Du hast wohl nach "klassischen" Kondensatoren gesucht. Die sind inzwischen oftmals aus Keramik und müssen ja nur relativ kurz durchhalten, bis der RAM-Baustein auf der SSD in den Flasch übertragen wurde. Mehr passiert da nicht.
22110 slots sind tatsächlich eher selten. Aus RAS-Gründen kämen mir aber auch keine m.2 in den Server. Zuviel gefummel, wenn man was sein sollte - zugleich wird die Leistung nicht benötigt.
 
Nagilum99 schrieb:
und für die allermeisten Anwendungen reichen auch 500 MB/s völlig aus.
Solange Steam der Meinung ist, für einen 50MB Patch die ganzen 100GB Spielinstallation patchen zu müssen, sind die 500MB/s nicht ausreichend. Ich hab mich jetzt so an die 6GB/s gewöhnt, dass ich die nicht mehr missen möchte.
 
Wäre es nicht sinnvoller PCIe 5.0 mit 8-24 TB und weniger Strom/Hitze hinzubekommen? Oder wird das dann auch mit dem 6er-Standard abgedeckt? Ich hoffe dann auch, dass man dann mit kommenden CPU Generationen keinen Drahtseilakt mehr machen muss wegen Lanes hier hin und da weg. Nervt aktuell einen SSD Slot brach liegen zu lassen oder eben weniger auf GPU zu haben.
 
  • Gefällt mir
Reaktionen: C4rp3di3m
Piktogramm schrieb:
Ganz abgesehen davon, dass etwas die Anwendungsfälle fehlen. Denn I/O vom Festspeicher ist so schnell geworden, dass für die meisten Anwendungen die Datenverarbeitung, Netzwerk I/O etc. die Bandbreite nicht schaffen.
Das Endziel ist, dass flüchtiger und Festspeicher zu einem Speicher werden. Wenn Festspeicher schnell genug ist, warum dann noch RAM verbauen?
Eigentlich sind NANDs schon schnell genug, nur die Haltbarkeit der Zellen reicht bei weitem nicht aus. Aber in der Richtung forscht man ja auch.
 
hippiemanuide schrieb:
Ich hoffe dann auch, dass man dann mit kommenden CPU Generationen keinen Drahtseilakt mehr machen muss wegen Lanes hier hin und da weg. Nervt aktuell einen SSD Slot brach liegen zu lassen oder eben weniger auf GPU zu haben.
Hatte bisher keine Probleme bei AMD Boards gehabt. Die waren immer üppig ausgestattet, sodass 4 onboard m2 SSDs meistens mit voller Geschwindigkeit nutzbar waren (4 mal pcie 5.0 x4).
 
Meine A2000 war noch nie zu langsam gewesen.

Immer schneller werden bringt keinem was von uns Otto normal Verbraucher...
Vielleicht mal anfangen großer zu bauen, statt schneller..
 
Nagilum99 schrieb:
22110 slots sind tatsächlich eher selten. Aus RAS-Gründen kämen mir aber auch keine m.2 in den Server. Zuviel gefummel, wenn man was sein sollte - zugleich wird die Leistung nicht benötigt.

Ist nicht viel um vom Gefummel her, und mit den SSDs war bisher eigentlich nichts; ab und zu fummeln wir damit aber doch, um die Maschine zu clonen, aber da ist kein nennenswerter Unterschied zwischen M.2 und SATA (bei der Geschwindigkeit auch nicht; am Anfang sind die M.2 schneller, am Ende langsamer, das gleicht sich aus).
 
Nagilum99 schrieb:
Es sind aber völlig unterschiedliche Entwicklungsrichtungen, die auch nicht vergleichbar sind.
Mehr Platz bedeutet einfach mehr Lagen und steigende Kosten.
Blödsinn ist eher so ein unwissender Kommentar. Das konkrete Produkt mag es sein, in großen Rechenzentren gibt es aber durchaus Bedarf für sowas.

8 - 10 TB SSDs sind im übrigen im "Consumer" Bereich eine Nische. Die wenigsten brauchen das oder können sich nicht einfach mit 2 SSDs behelfen. Der Preisverfall ist darüberhinaus enorm, auch 1 oder 2 TB Modelle sind inzwischen recht günstig zu haben.
Selbstverständlich sind es unterschiedliche Entwicklungsrichtungen. Das habe ich ja auch geschrieben.

In wie fern mein Kommentar Blödsinn und unwissend ist, ist mir zwar nicht bewusst, da dieser gar kein Wissen vermitteln sollte/konnte, weil es lediglich meine Meinung war, aber du wirst dir schon was gedacht haben bei der Aussage.

Und selbstverständlich sind 8-10TB SSDs eine Nische... sie sind unfassbar teuer und kaum vorhanden. Wie sollte das dann ein großer Markt werden/sein?
Der Bedarf ist auf jeden Fall da. Wenn man sich mal den Forbes-Bericht von Toshiba, WD und Seagate vom April bezüglich HDD-Verkauf in Q1 2024 anschaut (ich verlink' den hier nochmal für dich ;) ), sieht man, dass die Durchschnittskapazität bei HDDs zw. 8 und 12 TB liegt, was ich durchaus für valide halte, betrachtet man, dass die Spreizung bei HDDs mittlerweile von 1TB bis 24TB geht

Ich würde mir übrigens lieber eine 8TB HDD für 125,- kaufen, wenn ich Speicherplatz brauche, als 2 x 4TB SSD für ca. 420,-..... aber ich will hier niemanden mit meinem blödsinnigen Kommentar nerven.
 
  • Gefällt mir
Reaktionen: DeltaPee
Bonuspunkt:
(gute) PCIe 4.0 SSDs gibt's für 65€/TB.
PCIe 5.0 Exemplare kosten mindestens 119€/TB.
M.a.W. zahl fast das Doppelte für ein Performancedelta, von dem Du nur in Benchmarks überhaupt irgendwas mitbekommst.
5.0 verbietet sich praktisch von selbst zu den Preisen.
 
  • Gefällt mir
Reaktionen: Viper816
Da bin ich aber mehr als gespannt! Vor allem, wie man die Abwärme in den Griff bekommen kann.
 
DeltaPee schrieb:
...um die Temps im Zaum zu halten?

Sollte bei einer 2.5" U.3 oder dergleichen kein Problem darstellen, das Teil zu kühlen.
 
Verstehe die Firmen nicht, PCiE v5 gibts am Ende nur einen einzigen Controllerchip und dieser glüht wie die Schmelze in einem Hochofen. Es gibt keine v5 GPU bis Dato (außer diesen Fake China MTT80 oder so Schmutz).

Was wir wollen ist 8TB+ zu bezahlbaren Preisen. Wieso sind z.B. zwei 2TB NVME günstiger als eine 4TB?
Was noch wichtiger ist mehr Controller Anbieter, von Marvell der kam ja leider nie.

Hat Micron wenigstens auch einen eigenen+neuen Controller, darüber steht dort nichts oder müssen wir wieder mit dem monopol Phison E26 crap rumärgern?

@hippiemanuide

Ja bei TRX50 habe ich 92 Lanes, aber vorher bei X570 egal was manche hier behaupten konnte ich in Verbindung mit einer GPU PCiEv4 x16 nur noch eine NVME PCiEv4 x4 nutzen, die zweite wurde nie erkannt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen und hippiemanuide
Piktogramm schrieb:
Wieso nicht verstanden? Die Kunden für die I/O-Performance heiligt ist haben ganz gut verstanden, dass aktuelle Laufwerke mit vier Lanes schon mächtig Last auf der CPU bedeuten. Einzelne Laufwerke mit 16Lanes bedeuten schlicht Probleme.

Ganz abgesehen davon, dass etwas die Anwendungsfälle fehlen. Denn I/O vom Festspeicher ist so schnell geworden, dass für die meisten Anwendungen die Datenverarbeitung, Netzwerk I/O etc. die Bandbreite nicht schaffen.
Du wirfst da unterschiedliche Aspekte durcheinander. Hier geht es ausschließlich um sequentielles Lesen und sequentielles schreiben. Nichts sonst wird aktuell durch die PCIe-Bandbreite limitiert. Keine RandomReads & RandomWrites, natürlich keine Latenzen, auch keine IOPS. Nur beim Ausreizen dieser Parameter kann die CPU eine Rolle spielen. Schnelleres sequentielles Lesen und Schreiben hingegen entlastet die CPU, denn sie hat einfach nur geringere Wartezeiten.
 
wo bleiben SSD‘s ab 10TB und aufwärts, gerne darf es auch nur Sata haben und QLC Speicher, ich interessiere mich für eine 12TB SSD mit Sata und QLC Nand, darf natürlich nicht unter 100mb/s beim Schreiben einknicken, ich hätte davon dann gerne gleich 2 Stück a 220€ für ein Raid 1
 
C4rp3di3m schrieb:
Wieso sind z.B. zwei 2TB NVME günstiger als eine 4TB?
Jedes Mal wenn Hersteller darüber klagen, dass ihnen der Speichermarkt wegbricht kann ich nur sagen: Dann stellt doch diesen Blödsinn ein! Ob 4TB oder 2TB, Interface, Controller und PCB bleiben identisch. Wenn, dann sollte die mit höherer Kapazität weniger kosten...
 
  • Gefällt mir
Reaktionen: Coeckchen und C4rp3di3m
@C4rp3di3m
Wenn das so weiter geht, dann lasse ich die Consumer Hardware wieder sein und nehme eine ältere Workstation von HP oder so mit Xeon/Threadripper je nachdem welches Angebot besser ist. Da hat man meistens andere weniger schlimme Limitierungen, wenn man nicht top Notch mit der Hardware sein will/muss. Erstmal abwarten was Ryzen 9k und Intel Core können, vor 2025 sehe ich mich aber noch nicht aufrüsten.
 
  • Gefällt mir
Reaktionen: C4rp3di3m
@hippiemanuide Mit entsprechenden am5 x670e Boards kann man schon 4x nvme gleichzeitig nutzen (2x pcie5 + 2x pcie4). Die pcie4 gehen da zwar über den Chipsatz und limitieren aber hab da zb jeweils Windows und Linux drauf also nie gleichzeitig.

Für mehr dann halt threadripper, aber bei Mainstream Intel sieht's noch viel erbärmlicher aus..

Schade daß es nicht mehr sowas wie die alten Intel hedts (x99) gibt, da hat man mit recht wenig Aufpreis quadchannel + mehr pcie Landes bekommen.
 
  • Gefällt mir
Reaktionen: hippiemanuide
Simanova schrieb:
Die waren immer üppig ausgestattet, sodass 4 onboard m2 SSDs meistens mit voller Geschwindigkeit nutzbar waren (4 mal pcie 5.0 x4).

Im Graka-Slot, oder wo nimmst du 16 PCIe 5.0 - Lanes her?
Es sei denn, auf deiner CPU steht 'Threadripper' oder 'Epyc'...
 
C4rp3di3m schrieb:
Ja bei TRX50 habe ich 92 Lanes, aber vorher bei X570 egal was manche hier behaupten konnte ich in Verbindung mit einer GPU PCiEv4 x16 nur noch eine NVME PCiEv4 x4 nutzen, die zweite wurde nie erkannt.
Hmm.
Gigabyte X570S UD hier.
  • RX6800 (16x PCIe 4.0)
  • 2x Kingston KC3000 (2x 4x PCIe 4.0)
  • 1x WD Black SN750 (4x PCIe 3.0)
funktioniert einwandfrei.
 
  • Gefällt mir
Reaktionen: hippiemanuide
Wenn sie keine Kühlung brauchen, toll, wenn nicht, was ne Verschwendung für die meisten Nutzer.
 
Zurück
Oben