AlphaKaninchen
Commander
- Registriert
- Mai 2018
- Beiträge
- 2.926
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Ja, dank SLC Cache 😀 Danach siehts dann eher so aus:AlphaKaninchen schrieb:Also in der Praxis merke ich den Unterscheid kaum
Der Vorteil einer SSD ist ja grade das sie das nicht tut, mal abgesehen davon, dass das von der Quelle abhängt, da diese die Daten liefern muss und insbesondere HDDs bei vielen kleinen Daten konstant suchen müssen. Auf dem Ziel wird einfach hintereinander geschrieben.Mumbira schrieb:Bei mehreren kleinen Dateien ists dann noch schlimmer
Laut Cumputerbase Test (4TB Version, 390GB) und meinen eigenen Erfahrungen ehe das 20 fache... Also 200MB/sMumbira schrieb:Danach siehts dann eher so aus:
[IMG]https://www.computerbase.de/forum/attachments/1675155941027-png.1318878/[/IMG]
Quelle ist natürlich ne SSD. Crucial P5 um genau zu sein.AlphaKaninchen schrieb:mal abgesehen davon, dass das von der Quelle abhängt
Selbst eine SSD hat es mit einer großen Datei einfacher, als mit vielen kleinen. Bei nvme ist der Unterschied etwas kleiner, aber das gilt auch für HDDs (zugegeben, nvme HDDs sind eine Seltenheit für den Desktop-Markt). Letztendlich kann man genau so gut viele kleine Dateien nach einander auf die Platte reihen, wie eine große. Physikalisch gesehen gibt's da keinen Unterschied beim schreiben. Beim Lesen spielt es halt eine Rolle wie die Daten fragmentiert sind.AlphaKaninchen schrieb:Der Vorteil einer SSD ist ja grade das sie das nicht tut
Es geht natürlich eher um den schwankenden Graph. Die 7mbs sind nur eine zufällige Momentaufnahme. Kurz 7mbs, dann kurz 200mbs, dann wieder 7mbs. Irgendwo dazwischen liegt dann halt der Durchschnitt. Aber Konstant ist die Geschwindigkeit bei weitem nicht. Für manche Anwendungen also schlicht nicht brauchbar.AlphaKaninchen schrieb:ehe das 20 fache
Die Japaner haben in den 80ern einen 20 Jahres Plan verfolgt um den Westen technologisch zu überholen, wenn ich mich nicht irre. Die haben einfach in die Zukunft geplant.😂Mumbira schrieb:7 Jahre in der Hardwareindustrie sind kaum vorhersehbar
Qualitativ weiter? Da gab es noch MLC und SLC SSDs..😢Mumbira schrieb:. Schau mal wo wir vor 7 Jahren waren.
Gott sei dank! Zellen die Lebensdauer von 5000 Schreibvorgängen haben und 16 Zustände in einer Zelle speichern? Nein, danke. Ich verzichte. Da ist geschenkt noch zu teuer. Wer spart, kauft doppelt.😁Mumbira schrieb:Aber solange nicht eine Bahnbrechende Erfindung für NAND Speicher kommt, werden SSDs weder billiger, noch schneller.
Da stimme ich zu.🙂👍Mumbira schrieb:QLC ist ja schon kaum nutzbar und wenn dann bald wirklich PLC kommt, aua. So langsam muss was komplett neues her, aber da ist momentan nichts in Aussicht.
In den USA, z.B. bei Microsoft, wird in den Rechenzentren gleichzeitig geheizt und gekühlt, damit die vertraglich vereinbarte Mindest-Strommenge vom Stromanbieter abgenommen ("verbraucht") wird. Rein technisch irgendwie pervers und ökologisch fragwürdig.Mumbira schrieb:Und solange es Rechenzentren gibt, wird die Nachfrage für Speichermedien mit konstanter Geschwindigkeit und hoher Kapazität auch nicht so schnell sinken
Das ist jeden Tag einmal voll schreiben und Secure Erase für über 12 Jahre...joshy337 schrieb:Lebensdauer von 5000 Schreibvorgängen habe
"Glaube keiner Statistik, die du nicht selbst gefälsch hast."AlphaKaninchen schrieb:Das ist jeden Tag einmal voll schreiben und Secure Erase für über 12 Jahre...
Deshalb gibt es für Datenbanken Optane, Z-NAND und XL-Flash, TLC oder gar QLC sterben da in Wochen...joshy337 schrieb:Man muss ggf. auch berücksichtigen, dass Flash blockweise gelöscht wird, wenn sich Daten ändern. Da sitzen dann zwangsweise ein Batzen Zellen im selben Boot..
AlphaKaninchen schrieb:@Markus2 die Frage ist, kann man die pro Arm separat ansteuern oder machen die immer alle das gleiche?
weil das einfach klingt, aber nicht ist: Es müßte ja ein Controller (micro-PC mit linux o.ä.) da rein. das wäre unterm strich viel zu teuer. Das Risiko zu inkompatibilitäten oder zusätzlich quelle für Fehler obedrein. Die Idee ist nicht verkehrt.steve-sts schrieb:Warum nicht intern schon das Raid0 und nach außen hin als eine Platte kommuniziert?
Das ist stark übertrieben. Wir haben 2 noSQL Datenbanken auf TLC SSD Clustern und die leben jetzt nach 4 Jahren immernoch, obwohl die mittlerweile sogar beim Dreifachen der TBW sind. Sind allerdings auch keine Consumer SSDs.AlphaKaninchen schrieb:Deshalb gibt es für Datenbanken Optane, Z-NAND und XL-Flash, TLC oder gar QLC sterben da in Wochen...
Ich sag ja, unvorhersehbar 😂 Hätte damals auch keiner gedacht, dass wir mal den alten Dingern nachtrauern werden.joshy337 schrieb:Qualitativ weiter? Da gab es noch MLC und SLC SSDs..😢
+1joshy337 schrieb:Gott sei dank! Zellen die Lebensdauer von 5000 Schreibvorgängen haben und 16 Zustände in einer Zelle speichern? Nein, danke. Ich verzichte. Da ist geschenkt noch zu teuer. Wer spart, kauft doppelt.😁
Naja ich möchte eigentlich wenn PCIe 4.0 oder 5.0 mit MLC oder SLC haben, nachtrauern tue ich Optane...Mumbira schrieb:alten Dingern nachtrauern werden.
So aufwändig wäre das gar nicht mal. Auf den HDDs gibts eh schon einen Mikrocontroller - schon immer seit Einführung der IDE-Schnittstelle. Die LBAs müssen z.B. auf die physikalischen Sektoren aufgeteilt werden, defekte Sektoren werden umgemappt, Caches, seit AHCI gibts Warteschlangen etc. pp. Da wäre das Aufteilen auf verschiedene Bereiche ein Klacks. Im Prinzip muss bissle was verdoppelt werden (aber genau das, was auch hier schon verdoppelt wurde), und eine (triviale) Verteilungslogik. Ein guter Anfang wäre die Auswertung des. 12. Bits - dann würde alle 4 KB abgewechselt^^ Das ist genau das, was RAID0 mit 2 HDDs macht. Raid0 und 1 sind allgemein trivial - komplexer wirds erst bei RAID5/6.PCSpezialist schrieb:weil das einfach klingt, aber nicht ist: Es müßte ja ein Controller (micro-PC mit linux o.ä.) da rein. das wäre unterm strich viel zu teuer. Das Risiko zu inkompatibilitäten oder zusätzlich quelle für Fehler obedrein. Die Idee ist nicht verkehrt.
In der Praxis sind Raidcontroller, beispielsweise fest im Board, ja ohnehin schon ein kleines Risiko, wenn da ein Ausfall ist.
Danke, guter Punkt. Mit einem triple actuator sollte der Spurversatz über Platter nicht so groß sein, dass die das nicht könnten. Aber wie du sagst, das braucht auf jeden Fall die Elektronik und eventuell auch zusätzliche Mechanik. Weil ob die Arme tatsächlich unabhängig voneinander bewegt werden können auf Actuatorebene wo die das ja aktuell gar nicht müssen, ist offen.Markus2 schrieb:Ich wüsste nicht was verhindern würde mehrere unterschiedlich zu steuern, von der zusätzlichen Elektronik mal abgesehen.
Wobei neben dem blockweisen Schreiben auch bitte nicht vergessen dass ja der SLC Modus selbst schon prinzipbedingt die Zyklen verdoppelt um die Schwächen von QLC zu kompensieren. Außerdem sind 5000 Zyklen für QLC recht hoch gegriffen, garantiert werden da kaum 1000 (bspw. geizhals mal kurz ein Blick garantieren von grob 100 QLCs ~80 weniger als 0,5 DWPD bei eher unter 5 Jahren Garantie und dabei würden selbst 8TB SSDs mit 100MB/s durchgehend einen DWPD schaffen). Und nicht zuletzt sind auch bei QLCs durchaus einzelne Blöcke öfters beschrieben weil sich gerade dort was ändert. Das wird mit wear-leveling natürlich kompensiert, die Platte an sich ist natürlich nicht schnell hin aber einzelne Blöcke können da schon recht schnell aufgeben.AlphaKaninchen schrieb:Das ist jeden Tag einmal voll schreiben und Secure Erase für über 12 Jahre...
Ich habe mit dem gerechnet was er geschrieben hat mein Kenntnisstand ist circa 500 bei den Consumer ModellenSOWJETBÄR schrieb:Außerdem sind 5000 Zyklen für QLC recht hoch gegriffen
Als ich meine QVO gekauft habe hat die 700€ gekostet, eine Sabrent (NVMe, bin mir aber nicht sicher ob QLC oder TLC) 1500€, war aber trotzdem ein fehlkauf da sie im USB Gehäuse zu viel Strom zieht beim schreiben und wenn sie denn nicht bekommt verliert sie die Verbindung und Linux mounted sie nur noch als read-only. Da ich eine externe 8TB ohne Netzteil wollte, fehlkauf.SOWJETBÄR schrieb:Wenn die derzeit im TB-Bereich ~45 zu grob ~50 kosten als Bestpreise ist das einfach zu wenig für die Nachteile.
Das ist doch Schwurbel-Quatsch! Als ob man den Stromanbieter nicht auch bezahlen könnte ohne den Strom zu verschwenden.joshy337 schrieb:In den USA, z.B. bei Microsoft, wird in den Rechenzentren gleichzeitig geheizt und gekühlt, damit die vertraglich vereinbarte Mindest-Strommenge vom Stromanbieter abgenommen ("verbraucht") wird. Rein technisch irgendwie pervers und ökologisch fragwürdig.
-THOR- schrieb:Mit dem freien Setting kann man zb. auch ein Raid 6 fahren, wenn man nicht ganz die hohe Schreibleistung sondern nur Lesegeschwindigkeit braucht. Sonst halt dann den "Standard" RAID 10 den man hier aber dann schon mit nur 2 physisch belegten Slots realisieren kann.
man kann bei einem ausfall nicht einfach eine halbe platte austauschen.andr_gin schrieb:Ich frage mich wie viele hier unbewusst den Fehler machen beim RAID 10 die falschen 2 Platten zu koppeln und die 2 Plattenhälften dann im RAID1 laufen.