Test Intel Optane Memory im Test: 3D XPoint gegen NAND‑Flash und Magnetspeicher

Schalk666 schrieb:
Wer z.b. viele unterschiedliche Spiele spielt / viele große Dateien hat, wird wahrscheinlich auch öfters den Cache voll haben, sodass dann bei seltener genutzten Sachen erst wieder neu gecached werden muss

ja das is die Frage. Einzige Möglichkeit dazu wäre die Hitrate des Optane Cache zu analysieren.

Angenommen du würdest dein Cache nur einmal füllen. Wie viel % deiner Gesamt-Dateizahl würde reingehen? Mach dir einfach mal den Spaß und suche mit Filelocator nach allen Daten, ink System und verstecken Daten. Sortiere aufsteigend und markiere den Block von den kleinsten Dateien an bis zb 5 / 16 / 32 Gb erreicht sind.

2017-04-26 13_09_46-Intel Optane Memory_ Erste Tests zeigen geringe Vorteile in Rechnern mit SSD.png

Mach ich das hier bei meinem Firmen System dann machen 2,54GB = 67% der Dateien aus.

(256Gb SSD als OS Platte)

2017-04-26 13_07_35-792.044 files found - [Search_ C__ (_._)].png

Bei 17.6GB sind es 84% Der Files.

Also ganz ohne Rotationsverfahren kann ich statisch 8 von 10 Lesezugriffe auf die HDD durch statisches Cachen bis 17.6GB hier am System quasi ausradieren.
Die größe Datei ist dabei 331kb ^^

Deswegen würde es mich auch wundern wenn Intel / Optane hier überhaupt irgendwas >1 MB Cachen würde. Da ist dann die Lesezeit verglichen mit der Zugriffs zu groß. Der Vorteil eines Caches ist der wenn du durch die erheblich kürzere Latenz die Gesamtlesedauer quasi eliminierst...
 
Zuletzt bearbeitet:
Bei dem HDD+Cache Vergleich hätte ich gerne noch eine billige 240GB SSD gesehen die mit Intel Response Technologie 50GB als Cache für die HDD zur Verfügung stellt.
Ich selber habe 3 SSD im Rechner und eine alte HDD, nun ist mein Platz voll und ich bin schon länger am überlegen was ich mir hole.
Entweder noch eine SSD oder doch lieber eine 4TB HDD wo ich dann eine von meinen alten SSD als Cache nutze :D
 
@hanfyy
leider wird intel uns nicht die Auswahlkriterien der Daten verraten aber du gehst doch nicht davon aus das ganze Programme in die optane geladen werden :D
Dumm gesagt: optane kennt alle deine Programme. zu diesen erstellt er eine liste mit der startsequenz + weitere squenzen die dann Programm abhängig sind (mit Gewichtung der ausführreihenfolge), nun macht er nach wochentag, Tageszeit, und vergangene abrufe, blabla... eine Wahrscheinlichkeitsrechnung was man höchstwarscheinlich verwendet.
Du hast wahrscheinlich 500 spiele und 300 produktive Programme die du so im Monat anscheint benutzt nach deiner aussage.
er hat jetzt 32Gb zur Verfügung und schreibt aus der Rangliste der 800 Programme alle für die startsequenz nötigen Daten nach einander in den optanespeicher bis er voll ist. vllt sind es dann an die 50 bis 100 Programme (nicht die ganzen Programme sondern nur für den start wichtigen Anteile) je nachdem was du machst...
Wird ein Programm nun gestartet, sind die wichtigen Daten im Arbeitsspeicher. jetzt werden weitere Daten nach weiteren Wahrscheinlichkeiten hinzugefügt die das Programm betreffen und nachvergangenen nutzerverhalten erstellt werden...
So ungefähr kann man sich es aufs einfachste zurück gebrochen vorstellen. Zumindest gehe ich davon aus, es macht einfach kein sinn ganze Programme hochzuladen.

Das funktioniert auch im privaten Sektor, besonders weil der durchschnitt doch eher immer die gleicchen Programme verwendet und neue spiele nur beim ersten mal langsamer sind... ist es sinnvoll... vllt... eher aber nein, bis auf Spezialfälle die viel speicher brauchen und 4Tb SSD sind halt Schweine teuer. Kann auf dieser Technik weiter aufgebaut werden auf alle fälle.

Es bringt halt auch nix wenn man Unmengen speicher brauch, aber nur geld für eine 500Gb ssd hat ständig Programme de und installieren xD

Edit: es währe durchaus interessant wenn man mal den algorithm us auf herz und niere prüft. ob meine Vermutung richtig ist. Wär halt nur viel aufwand :D
 
Also etwa Gleich wie eine SSHD vom Prinzip her.
 
sagen wir 10ms Latenz bei ner HDD. In 10ms kann ich bei einer HDD etwa 2 MB lesen. Bei 5ms entsprechend etwa 1MB.

Schau ich mir meine Bilder oben an so ist die 84% größte Datei gerade mal 331kb groß. Da hab ich bei ner HDD 10ms Zugriffszeit für ne Lesezeit von etwa 2ms.
Genau deswegen sind SSDs ja so viel schneller und reaktionsfreudiger als HDDs.

@ Skycrumb

schau dir die Bilder schon oben an. Gut ist Windows 7 mit jede Menge Apps drauf aber selbst bei einem sehr ausgedehnten System passen in 32 GB Cache schon gut >80% der kleinen Dateien statisch rein. Ganz ohne die Intelligenz "was wurde wann gelesen".
Intel kann genauso gut 80% der kleinsten Files statisch cachen und die weiteren 16GB dynamisch nach Nutzung zuladen oÄ.

Stellt euch mal vor man schaut beim ersten Schreiben einer Datei nach. Alles unter 100kb kann ich direkt in den Cache laden. Damit is die Applikation auch direkt ab dem ersten Start deutlich fixer als ohne Cache...
 
Zuletzt bearbeitet:
Strikerking schrieb:
Also etwa Gleich wie eine SSHD vom Prinzip her.

Hat leider keiner beantwortet von mir - Mich würde interessieren wie sich Optane in Verbindung mit einer SSHD schlägt :D
 
@Skycrumb:

Na ganz so viel ist es dann doch nicht ;)

Aber trotzdem kommt dann wieder der P/L Faktor ins Spiel.

Angenommen ich habe nur wenige Sachen, dann kann ich mir auch ne SSD leisten, die groß genug für alles ist. Und wer hat wirklich eine 4TB HDD, die voll ist mit Programmen?
Ggf. könnte ich mir noch das Cachen von bearbeiteten Videodateien vorstellen, die auf eine HDD geschrieben werden sollen. Aber wer das öfters macht bzw. professionell, der hat bestimmt sowohl als Quell- als auch Ziellaufwerk eine SSD verbaut.

Bei den Beispielen zur Aufrüstung von Office Rechnern sehe ich die vorhandene Hardware als Knackpunkt.

Entweder man hat einen so neuen Rechner, dass eine SSD verbaut ist oder einen "älteren", der noch auf HDD setzt, dann aber auch keinen M2 Slot hat.
Wer nun aufrüstet wird sicher nicht denken "Ich bau mir nen neuen Office PC mit Optane"; nein, der wird sich gleich ne SSD verbauen.

Daher bleibt mMn. nur noch der Einsatz zur Beschleunigung in Servern oder für Enthusiasten, die ihre bereits große SSD beschleunigen wollen.
Siehe ZeroZerp bei Post #26
 
Schalk666 schrieb:
@Caramelito:
Ala doppelt gecached hält besser? : >

kA ich kenne mich da nicht aus, deswegen frage ich ja :P

So eine Firecuda von Seagate mit 1TB kostet um die 60-70€ die mit 2tb um die 95€ - Dazu Optane.

Ein Test dazu wäre natürlich nice, evtl. wird dann doppelt gecached und es bringt etwas oder es bereitet Probleme und verlangsamt das Ganze.
Das wäre für Leute die eine SSHD haben und von Optane lesen, aber sich damit nicht "beschäftigen" dann natürlich bitter ^^
 
maikwars schrieb:
Ich denke das ist als Gegenüberstellung gemeint, ob der Optane-Speicher schneller als SSHD's ist.

Ne wenn man ne SSHD betreibt und dann Optane aufs Board pflanzt. Was passiert dann bzw. was kann man erwarten :D
 
Dann finde ich meine Aussage aber spannender, weil das Funktionsprinzip ja in etwa gleich ist ;)
 
@Hanfyy

Wenn man ne große Platte zb 4TB damit cached verliert man ja nichts. Selbst wenn nur 10% davon kleine Dateien sind die sich für caching eignen - diese werden beschleunigt, stellen aber einen winzigen Teil der Daten im Cache. Gerade wenn man 20 Games und MP3 und Filme Sammlungen noch auf der HDD hat macht man sich damit das gecachte OS sicher nicht langsamer oder kaputt.
 
Kommt mir tatsächlich vor wie eine SSHD in teuer...
So wirklich sinnvoll ist das bei dem P/L leider nicht.
Und dazu natürlich nur Intel Inklusive.
 
die random werte sind beeindruckend. der preis auch. ich denke ohne eine preissenkung ist das ein nischenprodukt für leute, die mit der stärke von optane was anfangen können, der rest ist wohl bei herkömmlichen nvme ssds besser aufgehoben.

das caching war nie sonderlich beliebt und optane wird daran vermutlich auch nichts ändern. wer mehr braucht, als eine normale ssd bietet, sprengt auch locker den cache von optane - hier sprechen wir ja von 2-3tb großen datengräbern. ein cache macht keinen sinn. der ganze rest lässt sich eigentlich durch sata + nvme ssds bequemer lösen.
 
Als Beschleuniger sicher ein sehr gutes Produkt, nur für wen lohnt sich ein HDD-Beschleuniger mit 32 GB mehr als eine 240 GB SSD? Also ich schätze mal für 90% der Privatanwender schon mal nicht. Evtl. wenn man ganz viele Festplatten mit etlichen Programmen im System hat und keine Lust darauf hat alles neu zu installieren, damit 'ne SSD zum Boot-LW wird. Oder wer einen größeren HDD-Raid im Betrieb hat.
Ansonsten sehe ich für die Dinger wenig sinnvolle Anwendungbereiche. Wirklich interessant werden die wohl erst, wenn sie wirklich viel leistungsfähiger als werden. Vllt. gibt's dann irgendwann wieder eine Entwicklung ähnlich wie beim Aufkommen der SSDs.
 
mehr als eine 240Gb SSD allein sicher nicht, also wenn 240Gb Gesamtspeicher reichen.

Mehr als eine 240GB SSD + HDD Kombination schon eher.
Ergänzung ()

duskstalker schrieb:
wer mehr braucht, als eine normale ssd bietet, sprengt auch locker den cache von optane - hier sprechen wir ja von 2-3tb großen datengräbern. ein cache macht keinen sinn.

Das kommt denke ich immer drauf an was für Daten und wie die sich zusammensetzen, alo wie viel ist extrem klein, wie viel extrem groß. Wenn ich nur MP3s und Filme drauf hab bringts vllt wenig, schadet aber auch nicht und füllt den Cache nicht unnötig da das aus besagten Gründen vermutlich garnicht gecached wird.

Auch stehen 2-3 TB NVME Speicher in keiner preislichen Relation.

Oft sind es ja gerade die winzigen Daten die ständig gelesen und geschrieben werden. Die sind schnell so winzig dass selbst 3 GB Cache schon ordentlich was reißen würden.

Wie man oben sieht sind an meinem System 67% der Dateien <= 26kb / Datei= 2,54GB von 256GB.

Müsste jetzt mal schauen wie die Zusammensetzung bei meinem 20 TB fileserver ist.

Edit: Testet selber
https://www.mythicsoft.com/filelocatorlite/download

Einfach mal schauen wie viel % der Dateien sich statisch cachen lassen würden
 
Zuletzt bearbeitet:
außer die Budget SSD wird dadurch schneller als deine "richtige". ZeroZerp ist sehr latenzbedacht. 4000Mhz Ram gepaart mit dem schnellsten Platten 4K iO und bestmöglicher Performance / Thread.

Vermutlich mit dem Ziel das reaktionsfreudigste System überhaupt zu bekommen.

So falsch ist das nicht.
 
Zuletzt bearbeitet:
@Krautmaster
Exakt- Wie ich es sehe, bist Du hier einer der wenigen, die das Optane- Prinzip verstanden haben.

Ich zitiere mich dazu noch einmal selbst:
Intel Optane versteht halt keiner, da das Marketinggewäsch mit wahnsinns Übertragungsraten beim Sequenziellen lesen und bei aberwitzigen Queue- Depths, die mit der Praxis des Leseverhaltens eines Rechners wenig gemein haben, den technischen Fokus der potenziellen Kundschaft komplett verschoben hat.

Wir laufen technisch nicht in eine Übertragungsratenmauer. Die Gesamtlatenzen der Computersysteme bremsen inzwischen alles aus. Was nützt Dir ein 16 kern Prozessor, wenn dieser nicht schnell genug mit Daten versorgt werden kann....

Wir bauen beispielsweise für Großveranstaltungen Satellitensysteme auf um auch im Freifeld Internet anbieten zu können. Das geht inzwischen mit bis zu 50MBit ganz gut.
Lade aber mal eine Seite wie den Focus, Spiegel etc. mit seinen ganzen fitzelbildern und Quer- Verlinkungen darüber. Da hast Du dann zig Anfragen mit einer Verzögerung von 800 Milisekunden.
Das surft sich absolut miserabel damit... Trotz akzeptabler Bandbreite.

Wenn Du aber nen Download hast, dann dauerts mal 800 Milisekunden - Danach steht aber dann über ne Zeit die volle Bandbreite an.

Wenn man im Vergleich dazu auf einer 10MBit Glasfaser Company connect von der Telekom sitzt mit 1Milisekunde Reaktionszeit auf den Google DNS, dann baut sich die Seite, auch wenn das Ding nur 10 MBit liefert schneller auf, als man schauen kann.
Auch ein Download kommt ohne verzögerung aber halt dann nur mit der gebremsten Höchstgeschwindigkeit von 10MBit.

Das sollte das Wirkprinzip von Optane vielleicht noch einmal verdeutlichen.
In Betriebssystem gibt es einfach viel mehr kleine gestreute Fitzelanfragen mit niedriger Queue- Depth als ein durchgängiges Sequenzielles Lesen/Schreiben von 50MB aufwärts.

Grüße
Zero
 
Zuletzt bearbeitet:
Zurück
Oben