- Registriert
- März 2006
- Beiträge
- 11.350
Das Problem mit der Theorie der Random Reads, die meiner Meinung nach am wichtigsten sind, und der Praxis ist folgendes:
Random Reads sind ja zufällige Lesezugriffe wie sie z.T. bzw. hauptsächlich beim Booten oder bei Anwendungsstarts auftreten. Nehmen wir einmal an Programm X würde nur aus 3 Dateien bestehen, A, B und C. Diese Dateien sind zufällig auf der SSD bzw. den Chips verteilt und alle 4k groß. Der Ladevorgang wäre also abgeschlossen, wenn A, B und C geladen wurden.
In der Theorie könnte man hier eine max. QD von 2 erreichen. Bei einer QD von 2 kann NCQ natürlich nicht viel optimieren. Bei einer QD von 32 oder 64 könnte der Controller bzw. NCQ natürlich mehr optimieren bzw. den Durchsatz erhöhen, ABER! das können aktuelle Systeme (CPU+Chipsatz+RAM) einfach nicht liefern. Deshalb haben wir in der Regel eine QD von unter 10 und deshalb sind die realen Unterschiede zwischen den SSDs bei den Anwendungsstarts so gering. Hätten wir eine Kombi aus Chipsatz+CPU+RAM, die eine hohe QD (durchgängig) liefern könnte, dann würden die Startzeiten fast mit dem theoretischen Durchsatz bzw. den Kanälen skalieren.
Da ich es für unwahrscheinlich halte, dass sich CPUs so schnell in nächster Zeit entwickeln werden, dass man einen rasanten Anstieg der QD hätte, bin ich davon überzeugt, dass jene SSDs am schnellsten sind bzw. sein werden, die die geringste Zugriffszeit und damit den höchsten Durchsatz bei geringer QD bieten.
Random Reads sind ja zufällige Lesezugriffe wie sie z.T. bzw. hauptsächlich beim Booten oder bei Anwendungsstarts auftreten. Nehmen wir einmal an Programm X würde nur aus 3 Dateien bestehen, A, B und C. Diese Dateien sind zufällig auf der SSD bzw. den Chips verteilt und alle 4k groß. Der Ladevorgang wäre also abgeschlossen, wenn A, B und C geladen wurden.
In der Theorie könnte man hier eine max. QD von 2 erreichen. Bei einer QD von 2 kann NCQ natürlich nicht viel optimieren. Bei einer QD von 32 oder 64 könnte der Controller bzw. NCQ natürlich mehr optimieren bzw. den Durchsatz erhöhen, ABER! das können aktuelle Systeme (CPU+Chipsatz+RAM) einfach nicht liefern. Deshalb haben wir in der Regel eine QD von unter 10 und deshalb sind die realen Unterschiede zwischen den SSDs bei den Anwendungsstarts so gering. Hätten wir eine Kombi aus Chipsatz+CPU+RAM, die eine hohe QD (durchgängig) liefern könnte, dann würden die Startzeiten fast mit dem theoretischen Durchsatz bzw. den Kanälen skalieren.
Da ich es für unwahrscheinlich halte, dass sich CPUs so schnell in nächster Zeit entwickeln werden, dass man einen rasanten Anstieg der QD hätte, bin ich davon überzeugt, dass jene SSDs am schnellsten sind bzw. sein werden, die die geringste Zugriffszeit und damit den höchsten Durchsatz bei geringer QD bieten.