[wege]mini schrieb:
Heute muss man den Aktionären verbieten, jeden Tag zu saufen, sonst ist das Produkt immer "krumm"...kompliziert....
Was haben die Aktionäre damit zu tun? Die sind zwar die Eigentümer des Unternehmens, aber die Entscheidung trifft die Geschäftsführung.
[wege]mini schrieb:
In der Theorie spricht absolut nichts gegen QLC. Niemand braucht das Zeug noch in 10 Jahren und daher sollte man eine Mischung aus Haltbarkeit, Geschwindigkeit, Menge und Kosten bauen.
Eben, da die benötigten Kapazitäten immer weiter steigen, brauchen SSDs (und auch HDDs) nicht länger halten als nötig, bis sie schon wegen der Kapazität ersetzt werden, auch wenn manche ihre Museumsstücke weiterbetreiben wollen, die Masse ersetzt sie nach einigen Jahre durch neue, größere.
Bob.Dig schrieb:
Welche Optane hat denn bitte Flash? Nur die H10 und die ist sowieso ein Sonderling unter den Optane, weil da eigentlich zwei SSDs auf einer Platine verbaut sind, eine Optane Memory und eine 660p, die sogar jeweils über zwei Lanes getrennt angesprochen werden, wo die jeweiligen Controller also nicht einmal direkt miteinander kommunizieren.
Topflappen schrieb:
Da werden ja munter Gen 2 und Gen 4 durch einen Raum geworfen.
Wo? Gen 2 bezieht sich auf die zweite Generation der 3D XPoint ("3DXP Gen 2"), Gen 4 sehe ich gar nicht, nur PCIe 4.0 und eben 144Layer NAND, welches die 4. Generation der 3D NANDs von IMFT ist, auch wenn sich Intel und Micron zwischenzeitlich getrennt haben und jeder künftig bei der Weiterentwicklung eigene Wege geht.
drunk_chipmunk schrieb:
mit einer teuren Samsung 830 Pro passiert
Es gab keine 830 Pro, der Zusatz Pro für Modelle mit MLC NAND wurde erst mit dem Nachfolger 840 Pro eingeführt, denn erst mit der 840 wurde überhaupt erstmal TLC NAND eingeführt und davor hieß die SSD eben nur 830 und deren Vorgänger war die 470, beide bei MLC und ohne Pro in der Bezeichung.
deo schrieb:
Das heißt dann wohl, dass auf der gleichen Fläche, höhere Wärme entwickelt wird und die SSD zwingend einen Kühler haben sollte, der bisher optional war.
Was bei einer SSD warm wird und gekühlt werden muss, ist i.d.R. der Controller und weniger das NAND, wobei die NANDs aber auch immer effizienter werden, so dass mehr Layer nicht zwangsweise auch mehr Leistungsaufnahme bedeuten.
[wege]mini schrieb:
Die Speicherung von Informationen erzeugt keine Wärme, sonst würden die SSDs dauerhaft warm sein.
Die Datenhaltung kostet keine Energie, die Speicherung schon, bei Schreiben und Löschen werden NANDs daher sehr wohl warm, beim Auslesen ebenso.
Fleischmann schrieb:
Und wieso sollte aktuelle Software und Hardware in 40 bis 50 Jahren nicht mehr genutzt werden?
Weil auch die übrige Hardware nicht ewig hält und da die Leistungsanforderungen ständig steigen, wären es auch unsinnig teuer bis technisch unmöglich so langlebige Hardware zu bauen. Ein Beispiel sind die Packages der Chips, früher waren das DIP, da gingen die Beinchen an beiden Seite raus, waren nach unten abgeknickt und wurden in löchern in der Platine verlötet. Die konnten die Wärmeausdehnung des Chips sehr gut kompensieren, aber man bekommt damit nur wenige Pins hin und die Löcher gehen durch alle Layer der Platine, aber damals waren die nur entweder ein- oder doppelseitig. Die Logik solcher Chips war aber extrem einfach, die hatten nur wenige Transistoren, absolut und auch pro mm², halten dafür aber ewig.
Eine aktuelle CPU mit über 1000 Pins wäre so nicht machbar, schon weil die Leitungslängen zu den Pins für die meisten Anschlüsse wie die zum RAM oder den PCIe Lanes viel zu lang wären, die sind also heute gesockelt oder als BGA Packages direkt verlötet, ebenso wie fast alles Chips, auch NAND heute BGA sind. Da sind die Anschlüsse auf der Unterseite und jedesmal wenn der Chip warm wird und sich daher ausdehnt, wirken Scherkräfte auf die Lötstellen und warm werden sie, vor allem CPUs und GPUs wenn sie die Leistung bringen sollen die die Kunden heute wünschen und damit sie Energie sparen wenn die Leistung nicht gebraucht wird, takten sie runter und schalten gerade nicht genutzte Funktionen ab, kühlen also schnell wieder aus. Die Grakas sterben gerne genau wegen der Belastung der Lötstellen, wenn dann irgendwann eine nachgibt (kalte Lötstelle) und immer wenn sie dann durch "Aufbacken" wieder zum Leben erweckt werden konnte, was genau dies die Ursache des Ausfalls. Manche haben auch schon SSDs durch Aufbacken wiederbelebt, auch da gibt es diese Problem und Blei darf man im Lot wegen der Umwelt ja auch nicht mehr verwenden.
Fleischmann schrieb:
Gab vor kruzem eine nette Meldung zur Boing 747 bei der noch heute Softwareupdates mit einer Floppy eingespielt werden.
Die werden aber auch ausrangiert und bei denen Ändert sich die Anforderung an die Rechenleistung nicht mehr. Aber hast Du auch gelesen wie groß und schwer die Rechner dort an Board sind? Jedes Kilo welches an Board ist kostet zusätzlichen Treibstoff. Das man die alte Technik trotzdem nie modernisiert hat, dürfte auch daran liegen, dass auch die Trimmung stimmen muss, man kann also nicht einfach vorne Gewicht wegnehmen, ohne es auch hinten zu machen und die Rechner des Flugzeugs sind halt vorne, daher lohnt es sich nicht diese leichter zu machen.
Fleischmann schrieb:
1. Es geht nicht unedingt um kaputtschreiben. Je öfter die Speicherzellen beschrieben werden, desto schneller verlieren sie die Ladung, was bedeutet, dass Datenverlust viel schneller und häufiger eintreten kann, bevor die SSD ganz kaputt ist.
Das ist richtig, wobei das Verhalten nicht linear ist und die Controller dies durch häufigere Refresh Zyklen und die Fehlerkorrektur auch kompensieren. Datenverlust tritt wegen Ladungsverlust allenfalls ein, wenn die SSDs zu lange ohne Stromversorgung gelagert wird.
Fleischmann schrieb:
2. Wieso sollte eine NVME mit der gigantischen Datendurchsatzrate der aktuellen Modelle oboslet werden? Was erwarten Sie noch mehr von einem Speicher?
Mehr Kapazität! Vor 10 Jahren waren 64GB schon eine große SSD und richtig teuer, heute sind 500GB die wohl häufigste Größe und der Trend geht klar zu 1TB. Auf 64GB ein Win 10 zu installieren ist zwar möglich, aber man muss dann ständig hinter Windows herräumen und dazu haben die meisten User keine Lust. Selbst als 128GB noch die übliche Größe war die fürs Systemlaufwerk gekauft wurde, gab es hier im Forum laufend Thread wo sich jemand wunderte wieso die SSD voll ist.
Draco Nobilis schrieb:
Nach dem letzten Desaster kann mir Intel bei SSD für ein Jahrzehnt gestohlen bleiben.
Jeder der es wissen muss weiß was ich meine xD
Also ich kenne mich mit SSDs aus und weiß nicht was du meinst, erkläre das doch bitte mal. Bzgl. der Controller muss man bei Intel zwischen den billigen Consumer SSDs mit zugekauften Controllern und den Enterprise (und den davon abgeleisteten Consumer-) Modellen unterscheiden, erste sind allenfalls wegen des Preises attraktiv, so war die 660p 2TB eine ganze Zeit lang die billigste 2TB SSD überhaupt. Die von den Enterprise Modellen, wo Intel eigene Controller verwendet, abgeleiteten Consumer Modelle wie die Intel 750 und aktuell die Optane 900P/905P sind nur für Enthusiasten die auch bereit sind für deren besondere Eigenschaften richtig Geld zu bezahlen.
Botcruscher schrieb:
Dazu ist im Gegensatz zu TLC bis heute kein Preisvorteil vorhanden.
Wenn man nicht Äpfel mit Birnen vergleicht dann schon! So ist z.B. eine Samsung QVO eben billiger als die vergleichbare EVO, oder etwa nicht? Das man von anderen Anbietern SSDs mit gleicher Kapazität mit TLC zum Preis der QVO bekommt, besagt nicht das QLC keinen Preisvorteil hat.
Beitrag schrieb:
Performanceverbesserungen und vor allem höhere Speicherdichte für Optane, das hört sich gut an.
Ich sehe ja wenig Sinn in aktuellen PCIe 4.0-SSDs, weil die in den meisten Fällen entscheidnderen Zugriffszeiten da einfach nicht besser werden. Wenn Optane preislich attraktiver wird, wäre das schon mal deutlich interessanter.
Die Preise der Optane sind wirklich hoch, aber Samsung Z-SSDs sind auch nicht billiger als die Consumer Optane SSDs. Aber mit der nächsten 3XD XPoint Generation mit dann doppelt so vielen Layern wird hoffentlich helfen die Preise zu senken. Wobei 4 Layer im Vergleich zu NAND immer noch wenig sind,
aber NAND hat Jahrzehnte an Entwicklungsvorsprung und einen bestechend einfachen Aufbau, der es einfach unschlagbar billig sein lässt, dafür hängt es von den technischen Eigenschaften her weit zurück.
Weyoun schrieb:
Und wie rohe Eier behandele ich meine alten Festplatten bestimmt nicht.
Zumindest vom Handling her sollte man dies, wie
dieses Video über die Empfindlichkeit und korrekt Handhabung von HDDs auch deutlich ermahnt.
LamaMitHut schrieb:
Minderwerig sind eher Produkte wie Optane. Ich muss 4 SSDs anstelle von einer kaufen, um auf 8TB zu kommen. Nachhaltig geht anders.
Ein Produkt als minderwertig zu bezeichnen weil es nicht in einer bestimmten Kapazität angeboten wird, ist aber schon eine sehr komische Einstellung. Dann ist ein Ferrari auch minderwertig weil es keine 7 Sitzer gibt? Oder Rolls Royce weil sie keine Camper bauen?
PS828 schrieb:
Da es sich um optane handelt könnte das Schreibproblem bei QLC verschwinden.
Was hat Optane mit QLC zu tun? Hier im Artikel geht es um zwei unabhängige Nachrichten, einmal um die neuen Optane mit dem neuen 3D XPoint der 2. Generation mit 4 Layern und einmal um die neuen 3D NANDs mit 144 Layern, aber das eine hat mit dem anderen nichts zu tun und Probleme mit der Schreibperformance hat 3D XPoint gar nicht, dies kennt nicht einmal einen Steady State Zustand, da man jeder Zelle einzeln beliebig überschreiben kann, während man bei NANDs immer ganz Blöcke (von z.B. 512 oder 1024 Pages) löschen muss.
PS828 schrieb:
Aber der letzte Sprung in den consumerhereich gelingt eben leider noch nicht aufgrund des Preises. Dieser ist viel höher als klassischer NAND. Gemessen an meinem Beispiel mit der P950 980 GB ist optane gar 10-15 Fach teurer.
Hier vergleich ich zwar ziemlichen Abfall NAND, aber selbst wenn man zu teureren NAND von namenhaften Herstellern wie Micron oder Samsung
Wieso Abfall NAND? Und wieso namhafte NAND Hersteller? Es gibt nur wenige NAND Hersteller, die kennt man alle beim Namen, da gibt es keine Hinterhofklitschen, die gibt es nur bei denen die SSDs aus dem NAND der NAND Hersteller bauen, denn bei jedem Hersteller passiert es, dass einzelnen Dies auf dem Wafer und ganze Wafer besser oder schlechter gelingen und die schlecht gelungenen sind eben bei NAND nicht so haltbar und die kann man dann als minderwertige NANDs bezeichnen, aber nicht gut gelungenen die aber konstruktionsbedingt nicht so viele P/E Zyklen aushalten, z.B. weil sie mehr Bits pro Zelle speichern.
Solche NANDs minderer Qualitäten sind aber noch längst kein Abfall wenn sie funktionieren, die werden für einfache Anwendungen wie Spielzeug, billige Smartphones, USB Sticks (die Werbedinger brauchen ja im Grunde nur einmal beschrieben werden zu können) etc. nur eben nicht für den Einsatz in SSDs, entsprechend werden solche minderen Qualitäten auch verkauft und sind natürlich billiger als gut gelungene Dies, also hochwertige Qualitäten. Nicht jeder SSD Hersteller hält sich an diese Verwendungsempfehlung und so kommen solche minderen Qualitäten dann doch in SSD, damit der Anbieter dies billiger verkaufen kann und trotzdem noch Geld damit verdient.
PS828 schrieb:
Daher wird Optane wohl erstmal in seiner niesche bleiben. Ob Intel ein Interesse daran hat Xpoint auch anderen Feldern zugänglich zu machen weiß ich nicht
Haben sie doch schon längst:
Intel® Optane™ DC Persistent Memory
JBG schrieb:
Bin gespannt ob die neuen SSD-Produkte mit PCIe 4.0 so lange zurückgehalten werden bis Ice Lake-SP-Systeme breit verfügbar sind oder "zeitnäher" erhältlich sein werden.
Die Frage ist vielleicht eher ob sie nicht Ice Lake-SP zurückhalten bis die neuen Optane Produkte fertig sind, denn die große Jungs haben ihre Ice Lake-SP schon lange:
Die großen Kunden haben Ice Lake also schon lange, in aller Regel so 12 bis 18 Monate bevor sie auf den Markt kommen und die bekommen demnächst die ersten Sapphire Rapids.