Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Erst durch viele parallele Zugriffe kommen SSDs mit NAND-Flash-Speicher in Fahrt. I/O-Scheduler sorgen dafür, dass Anfragen mit Hinblick auf möglichst hohen Datendurchsatz abgearbeitet werden. Das von koreanischen Forschern vorgestellte Dynamic Load Balanced Queuing (DLBQ) soll dabei noch effektiver vorgehen.
ich dachte das macht AHCI bereits. und das mehr Speicher bessere Performance bei SSDs bringt ist ja fast schon seit 8 Jahren klar., da hatte man dann gerne noch etwas Over Provisioning
Sollen besser mal Load Balancing im real life auf die Strassen bringen, damit das Navi auch was taugt
Lebensdauer haben die NANDs doch in aller Regel mehr als genug und wieso sollte die Art der Verteilung der Zugriffe die Lebensdauer der Speicherchips beeinträchtigen?
hä, wie was, also ich hatte gerade einen Artikel bei dem Windows 10 im Gegensatz zu den anderen OS am meisten von SSDs profitierte, muss mal gucken ob ich den Link wieder finde
keine Ahnung, ich hab gestern mein altes System auf S3 und HDD downgegraded. Dank 8 GB Speicher war eine SSD irgendwie für mein Userverhalten nicht wirklich nötig.
hä, wie was, also ich hatte gerade einen Artikel bei dem Windows 10 im Gegensatz zu den anderen OS am meisten von SSDs profitierte, muss mal gucken ob ich den Link wieder finde
Das sind aber alles High-Level Bechmarks, CDM ist dagegen eher Low-Level und wird weniger von anderen Optimierungen des OS beeinflusst die bessere High-Level Ergebnisse produzieren.
user_xy schrieb:
Als Update für vorhandene SSD`s oder nur gegen Geld auf neuen SDD`s zu haben?
Ohne jetzt das Paper gelesen zu haben, würde ich mal vermuten das es um Routinen der FW der SSD geht und wie diese eben NCQ umsetzt, also die Reihenfolge und Parallelität der Abarbeitung ausstehender Befehle optimiert.
user_xy schrieb:
Auf Kosten der Langlebigkeit der Speicherzellen oder Mehrarbeit des Controllers?
Wieso sollte die Reihenfolge der Zugriffen einen Einfluss auf die Haltbarkeit der Speicherzellen haben? Mehrarbeit für den Controller könnte es aber durchaus bedeuten, wenn der Algorithmus aufwendiger ist der entscheidet was wann gemacht wird. Für Heimanwender ist das aber irrelevant, da hier kaum höhere QD auftreten, zumeist stehen ein oder zwei Befehle gleichzeitig an und da gibt es dann auch nicht viel zu optimieren.
Ohne jetzt das Paper gelesen zu haben, würde ich mal vermuten das es um Routinen der FW der SSD geht und wie diese eben NCQ umsetzt, also die Reihenfolge und Parallelität der Abarbeitung ausstehender Befehle optimiert.
Das Verfahren versucht dafür zu sorgen, dass gute Kombinationen an Befehlen an die SSD übermittelt werden und diese dann per NCQ schneller abgearbeitet werden können.
Das Ganze wird durch das Betriebssystem realisiert und somit lassen sich eine Werte nur schätzen bzw. nähren. (Auslastung eines Channels usw. Des Weiteren wird im Artikel davon ausgegangen, dass bekannt ist wo welche LBA liegt.)
CIG hat letztens noch erwähnt, dass sie auch an so einem I/O Scheduler für Star Citizen arbeiten würden um so Inhalte schneller streamen zu können falls das Spiel auf einer SSD installiert ist.
Wäre natürlich super, wenn Spieleentwickler sich um sowas irgendwann nicht mehr selbst kümmern müssten und das von MS in's Betriebssystem integriert würde.
Soweit ich weiß hat Crytek damals zu farCry Zeiten auch einen eigenen Memory-Acclocator geschrieben weil der von Windows nicht gut genug war. Sie haben den von FreeBSD genommen und modifiziert. Erst jetzt ist der von Windows gut genug, sodass sie den BSD-Allocator wieder entfernen konnten.
Die Erfahrung zeigt also, dass wir wahrscheinlich noch ein Weilchen warten müssen, bis so ein verbesserter IO Scheduler in Windows Einzug halten wird. Bis dahin müssen sich Softwareentwickler, allen voran Spieleentwickler, wohl noch selbst behelfen.
Ok, dann müsste die SSD ja ähnlich wie eine SMR HDD Informationen über die interne Geometrie liefern. Aber auch dies wäre für Heimanwender wegen der dort geringen QDs einfach irrelevant. Bevor man sowas bei Windows einbaut, gäbe es genug andere Stellen wo man das I/O Subsystem von Windows optimieren könnten und sollte.
Für den idealen Fall müsste die SSD die Informationen liefern. In den Artikel werden dafür Annahmen getroffen und die geschätzten Antwortzeiten mit den realen verglichen und entsprechend optimiert.
Das Ganze dürfte sich für Enduser aktuell nur selten lohnen.
Ergänzung ()
noxon schrieb:
CIG hat letztens noch erwähnt, dass sie auch an so einem I/O Scheduler für Star Citizen arbeiten würden um so Inhalte schneller streamen zu können falls das Spiel auf einer SSD installiert ist.
Wie sieht das eigentlich mit I/O Scheds bei windows aus? Bei Linux/Android kann ja jeder seinen bevorzugten in den Kernel einbauen, voilà ein neuer da. Gibt auch recht viele die da selbst was zusammen gemodet haben.
Pitt_G. schrieb:
Sollen besser mal Load Balancing im real life auf die Strassen bringen, damit das Navi auch was taugt
Die Einzige Chance das zu verwirklichen besteht darin wenn Jedes Auto jederzeit seine Position und das Ziel der verwaltungszentrale sendet. Da würden wieder alle wegen Privatsphäre rummeckern.
Es deutet sich an, dass das Potenzial der Technik mit der Anzahl an Speicherchips korreliert: Sind mehr Speicherchips vorhanden, können die Anfragen besser verteilt werden.
Dann müssen die Daten aber auch entsprechend fragmentiert vorliegen, oder? Das sollte man ja bei HDDs vermeiden. Werden SSDs schon so zufällig beschrieben?
Fragmentierung ist eine Sache des Filesystems und bestimmt nur, auf welche LBAs und über wie viele LBAs mit einem Befehl zugegriffen wird. Die interne Verteilung der Daten über die NANDs regelt jeder SSD Controller selbst und davon erfährt der Host auch nichts, zumal sich diese auch ständig ändert, z.B. weil Refreshs nötig sind oder Wear Leveling ausgeführt wurde. Daher ist das ganze Thema auch Mist, wenn es sich auf den Host bezieht. Natürlich verteilen die SSD Controller Daten die mit langen Zugriffen, also solche über viele LBAs geschrieben werden, dann über die NAND Dies um eine möglichst hoch Performance zu erreichen. Mit Fragmentierung hat das aber rein gar nichts zu tun.