- Registriert
- Juli 2010
- Beiträge
- 13.333
Rickmer schrieb:War das nicht sogar MLC?
Stimmt, sie hatten damals MLC angegeben, jetzt schreiben sie TLC. Entweder ein Speicherwechsel oder eine andere Auslegung für den Begriff Multi Level Cell. ^^
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Rickmer schrieb:War das nicht sogar MLC?
Billiger ist ja immer schön, aber die Zeit der schnellen Kostensenkungen bei NAND ist vorbei, stärkere Preissenkungen werden vor allem zu Lasten der Margen der Hersteller gehen, Schweinezyklus halt.drago-museweni schrieb:Etwas mehr an Speicher wär schon fein, zu günstigeren Konditionen wie aktuell..
Wozu? Die Kosten sind pro TB nicht geringer weil man viele TB in ein Gehäuse packt, im Gegenteil steigen sie, wenn man mehrere Controller und einen RAID Controller oder SATA Port Multiplier verwenden muss, um die ganzen NAND Dies ansprechen zu können. Dies kann/will kein Heimanwender bezahlen und so viel NAND wie ein Heimanwender zu bezahlen bereit ist, passt auch locker in ein 2.5" Gehäuse. 1TB pro NAND Package sind kein Problem und es ist kein Problem 8 davon auf einer Seite einer Platine für ein 2.5" Gehäuse unterzubringen. Mit den QLC NANDs die teils 1Tbit pro Die haben und bis zu 16 Dies passen in ein Package, sind sogar 2TB pro NAND Chip machbar, also 32TB mit einer doppelseitig bestückten Platine in einem 2.5" Gehäuse und da könnte man noch eine Tochterplatine unterbringen und dann sogar 64TB realisieren. Der Platz ist nicht das Problem., sondern der Preis!aklaa schrieb:Die einzige SSD im 3,5" Format? Für den normalen PC ist doch kein Problem, das könnten mehr Hersteller machen/anbieten.
Ja, denn je mehr Daten man unterbringen kann, umso mehr Zugriffe passieren ja auch auf ein Laufwerk. Wenn man vorher die Daten auf 8 SSDs mit je 8TB stehen hatte und sie auf eine mit 64TB packt, so vereinen sich auch alle Zugriffe die vorher auf diese 8 8TB SSDs erfolgt sind, nun auf die eine 64TB SSD, die muss sie natürlich stemmen können.Bigeagle schrieb:Ist IOPS/TB eine so relevante Metrik?
Vergiss nicht das hier gerade mal über einen Adressraum von lächerlichen 2GB gebencht wurde, dabei braucht die HDD kaum ihre Köpfe zu bewegen. Deshalb scheinen die IOPS bei HDDs in solchen Benchnmarks ja auch immer besser zu werden, je größer die Kapazität ist, aber in Wahrheit passieren die Zugriffe natürlich über den ganzen (belegte) Adressraum und erfordern daher viel längere und damit länger dauernde Kopfbewegungen und ein Full Stroke ist immer noch nicht viel schneller als vor x Jahren. Die IOPS pro TB werden bei HDDs also schlechter je größer die Kapazität ist, weshalb es ja eben auch Entwicklungen wie die Multi Actuator Technology gibt.Bigeagle schrieb:Eine alte Platte hier ist nach IOPS/TB auch knapp 10-30 mal schneller als so eine popelige 18 TB Platte
Eben, so stand es damals auch in der News:Rickmer schrieb:War das nicht sogar MLC?
Das hatte mich damals schon gewundert:
Holt schrieb:Zwar ist von MLC die Rede, aber MLC kann auch 3bpc (also TLC) bedeuten. Die 3D NANDs von Hynix gibt es aber auch mit 512 Gbit Diesize, keine Ahnung ob dies auch für 2bpc gilt:
Das ist ja auch Enterprise SSDs und wie man im Video welches in Post #8 verlinkt ist auch sieht, eine sehr aufwendig mit mehreren Controllern gebaute.Crass Spektakel schrieb:Ich halte diese Modelle für absoluten Quatsch.
1. viel zu teuer pro TB
Vertrauen schafft sowas ja nicht gerade.MichaG schrieb:Stimmt, sie hatten damals MLC angegeben, jetzt schreiben sie TLC. Entweder ein Speicherwechsel oder eine andere Auslegung für den Begriff Multi Level Cell.
Crass Spektakel schrieb:Ich halte diese Modelle für absoluten Quatsch.
1. viel zu teuer pro TB
2. viel zu langsam
Bestenfalls fällt mir da ein NUClike-PC ein der unbedingt über 30TB Kapazität braucht. Hm, ne, das ist eher unvorstellbar.
das stimmt schon, doch ist das auch relevant bei einer platte dieser art? Die braucht schließlich über 36 stunden (!) um einmal ihre ganzen daten zu lesen. da ist durchsatz offensichtlich zweitrangig. daher meine frage.Holt schrieb:Ja, denn je mehr Daten man unterbringen kann, umso mehr Zugriffe passieren ja auch auf ein Laufwerk. Wenn man vorher die Daten auf 8 SSDs mit je 8TB stehen hatte und sie auf eine mit 64TB packt, so vereinen sich auch alle Zugriffe die vorher auf diese 8 8TB SSDs erfolgt sind, nun auf die eine 64TB SSD, die muss sie natürlich stemmen können.
Da hast du natürlich recht, die ergebnisse sind besser als sie sein solltenHolt schrieb:Vergiss nicht das hier gerade mal über einen Adressraum von lächerlichen 2GB gebencht wurde, dabei braucht die HDD kaum ihre Köpfe zu bewegen.
Ja, aber das ist die falsche Frage! Vielmehr müsste man sich, je nachdem wie relevant es ist, fragen ob dies die richtige SSD für den Zweck ist.Bigeagle schrieb:das stimmt schon, doch ist das auch relevant bei einer platte dieser art?
Erstens 1563IOPS pro TB, also 100.000 insgesamt und dann werden die IOPS in aller Regel auf 4k Zugriffe bezogen, man kann also diese Rechnung so nicht anstellen, da bei anderen Zugriffslängen andere IOPS erreicht werden, in aller Regel weniger als bei 4k, weshalb man ja auch mit dem Wert wirbt.Bigeagle schrieb:die ssd hat 500 mb/s lesen und ca. 1500 IOPS -> etwa 333 kb groß müssen die datenblöcke sein um nicht auszubremsen.
Damit gewinnt man aber nur etwas, wenn die übrigen Daten die vorsorglich in den Cache gelesen werden, dann auch wirklich hinter (zumindest zu einem ausreichend hohen Prozentsatz) genutzt werden. Sonst erreicht man das Gegenteil.Bigeagle schrieb:ich stelle mir da als anwendungsfall eher größere dateien vor und einen RAM cache damit nicht in kleinstblöcken gelesen werden muss.
Es sind ja IOPS pro TB, also 198 insgesamt und die schmeicheln der HDD vermutlich schon, eben weil sie nur über einen geringeren Adressraum ermittelt sein dürften.Bigeagle schrieb:Aber 11 IOPS ist trotzdem arg bullshitverdächtig.
Das ist dann aber der Effekt des DRAM Caches der HDD. Die Latenz, also die Zeit für eine halbe Umdrehung die es eben statisch braucht bis der angeforderte Sektor unter den Köpfen vorbeikommt, beträgt ja bei 7200rpm schon 5,6ms und damit sind maximal 180 IOPS möglich, ohne überhaupt die Zeit für die Positionierung der Köpfe zu berücksichtigen, die ja keineswegs so gering ist! Alles über 180IOPS muss daher von einem Cache kommen und daher sind die 198 IOPS mit denen hier für die 18TB gerechnet wurde, eben auch schon geschmeichelt.Bigeagle schrieb:bei 16 mib gibts satte 2849 IOPS lesend
Nein, die Marketingabteilung hat hier gar nichts gemacht. CB hat den Wert falsch interpretiert.Bigeagle schrieb:Ist IOPS/TB eine so relevante Metrik? Sieht für mich spontan aus wie cherry picking. Auch die DWPD als Maß für Zuverlässigkeit zu bezeichnen ist unsinnig. Da hat sich die Marketingabteilung offenbar nur mühsam zurückhalten können gleich nur mit 'best world leading super performance for business winners' oder ähnlichem zu werben
Aber rechts daneben, mit dem blauen Hintergrund, steht 4x times more reliable und die Angaben dort beziehen sich immer auf die beiden Werte daneben. Außerdem sind 0,08DWPD für eine 18TB HDD, derzeit gibt es sowas nur als Enterprise Nearline Platte mit Zulassung für Dauerlast, einfach zu wenig. Außer vielleicht wenn man 4k Random Writes unterstellt, aber dann man bei der SSD wohl auch nicht mehr mit 460MB/s rechnen.lejared schrieb:In der Tabelle steht "Workload Rating". Hier geht es nicht um Zuverlässigkeit, sondern um Performance.
Das habe ich schon bei meiner ersten 2 GB Platte gesagt. Die bekomme ich nie voll.Alpha.Male schrieb:100 TB ? Einmal..und dann nie wieder ein Laufwerk kaufen müssen.
Das tun sie doch laut der News auch:Eggcake schrieb:müssten sie auch SAS Versionen anbieten.
Wie beim ExaDrive DC setzt NimbusData auf den von Festplatten bekannten 3,5-Zoll-Formfaktor sowie SATA oder SAS als Schnittstelle.
Und was ist mit dem Backup? Dafür braucht es nochmals 100 TB.^^Alpha.Male schrieb:100 TB ? Einmal..und dann nie wieder ein Laufwerk kaufen müssen.
Gut, die einmalige Investition ist ein bissel hoch.
Jau.... endlich die P***Sammlung nur auf einem Laufwerk haben können.😁Relict schrieb:Das habe ich schon bei meiner ersten 2 GB Platte gesagt. Die bekomme ich nie voll.
Wer weiß wo wir in 10 Jahren stehen? Programme, Videoauflösungen und Spiele werden künftig nicht kleiner.
Schon jetzt habe ich Daten um die 35 TB im Umlauf.
Zudem dürfte ein heutiges 100TB Laufwerk dann nichtmal wegen seiner Größe, sondern vor allem dann hinkenden Geschwindigkeit wiederum ausgemustert werden. Einen Ryzen 10000X will man ja nicht mit einer ollen Gurke bremsen.