Athlonscout
Rear Admiral
- Registriert
- Jan. 2008
- Beiträge
- 5.932
@aurum
Du hast garantiert die 34nm!
Du hast garantiert die 34nm!
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
aurum schrieb:Ja, aber etwas langsamer sind hier 60+ MB pro Sekunde beim Schreiben weniger SSDs sind also doch noch nicht wirklich ausgereift ^^
aurum schrieb:25nm werden schon länger verbaut!! Ich habe 111,7 gb nutzbare Kapazität + FW 1.25 und erreiche lediglich die Werte der 25nm Version ...
Schade, das war wohl ein griff ins WC ^^ Werde definitiv nie wieder etwas von OCZ kaufen.
Hier der Beweis:
Das man aber Werte von AS SSD als regulären Echtzeitwert ansieht ist auch nicht korrekt. Denn der AS SSD berücksichtigt in dem Fall bis zur heutigen Revision keine Force Besonderheiten. In der Regel ist der Wert mittig zwischen ATTO und AS SSD Ergebnis, der "reale" Leistungswert den eine SSD über eine längere Lebensdauer leistet. Dies ist natürlich stark von der Nutzungsart der SSD abhängig, nutzt man die SSD als System-Platte wird diese bei diversen Vorgängen den ATTO Wert erreichen, bei anderen wiederum den AS SSD Wert - dies l i e g t in der Materie der unterschiedlichen Dateiarten und Typen - ebenso der Priorität die im Betriebssystem festgelegt ist. Aus Erfahrung der Langzeittests verhält es sich so, dass die Force SSD weder den ATTO, noch den AS SSD Benchmark-Wert dauerhaft bei allgemeiner PC-Nutzung erreicht - es ist dazwischen angesiedelt. Nutzt man den Computer bspw. mehr für Spiele und Simulationsanwendungen, bzw. SQL Datenbanken und Programmierung, ebenso wie für das Echtzeitrendering - ist man sehr nahe den ATTO Werten. Nutzt man Sie lediglich als Systemplatte für einen Media PC auf dem man Filme schaut, l i e g t man mehr Richtung AS SSD Werten - jedoch ist man auch hier schneller als die AS SSD Benchmark-Messung. Bei anderen Benchmarks sind die Werte z.T. überhaupt nicht verwertbar, daher raten wir hier generell von der Nutzung solcher Programme ab. Dies gilt insbesondere für alle SSDs mit SandForce Controller (Herstellerübergreifend) - dies ist also keine SSD-Herstellerabhängige Frage, sondern hängt lediglich vom Controller-Typ der SSD ab.
I.d.R. kann man das ATTO Ergebnis als bestes und das AS SSD Ergebnis als schlechtestes ansehen das die SSD leistet. Da aber kein Datenspeicher durchgehend den besten bzw. schlechtesten Wert nutzt, kann allein schon aus logischer Sicht die mitte als "realer Wert" angesehen werden. Unsere Langzeittests stützen dies zudem.
DvP schrieb:Ich habe weder das eine noch das andere behauptet. Aber (auch wegen 25nm) man sieht eben wie es mit den Qualitätsansprüchen von OCZ aussieht.
Complication schrieb:ASS alleine hat bei Sandforce basierenden SSDs keine Aussagekraft.
ATTO ist der Benchmark der bei SF-SSDs vergleichbare Max. Werte ausgibt.
http://forum.corsair.com/v3/showthread.php?t=90450
Na dann haben wir ja das auch geklärt auf technisch fundierter Basis mit allen Quellen die das belegen - Ironie darf behalten werdenAlso bitte, hier davon zu sprechen dass dabei irgendwas spezielles beachtet wird oder der AS SSD Benchmark nicht alle "Funktionen" des SF-Controllers nutzen kann ist doch Mumpitz hoch drei.
Eine Installation windows 7 und Office 2007 kommt recht nah an die Realität - und nur 40% Daten geschrieben gegenüber allen anderen Controllern macht schon einen UnterschiedSandForce states that a full install of Windows 7 + Office 2007 results in 25GB of writes to the host, yet only 11GB of writes are passed on to the drive. In other words, 25GBs of files are written and available on the SSD, but only 11GB of flash is actually occupied. Clearly it’s not bit-for-bit data storage.
http://de.wikipedia.org/wiki/DeduplikationWhat SF appears to be doing is some form of real-time compression on data sent to the drive. SandForce told me that it’s not strictly compression but a combination of several techniques that are chosen on the fly depending on the workload.
SandForce referenced data deduplication as a type of data reduction algorithm that could be used. The principle behind data deduplication is simple. Instead of storing every single bit of data that comes through, simply store the bits that are unique and references to them instead of any additional duplicates. Now presumably your hard drive isn’t full of copies of the same file, so deduplication isn’t exactly what SandForce is doing - but it gives us a hint.
Deduplizierung, auch Data-Deduplication, Datendeduplizierung (engl. Deduplication), ist in der Informationstechnologie ein Prozess, der redundante Daten identifiziert und eliminiert, bevor diese auf einen nicht flüchtigen Datenträger geschrieben werden. Der Prozess komprimiert wie andere Verfahren auch die Datenmenge, die von einem Sender an einen Empfänger geschickt wird. Es ist nahezu unmöglich, die Effizienz bei der Verwendung von Deduplizierungs-Algorithmen vorherzusagen, da sie immer von der Datenstruktur und der Änderungsrate abhängig ist. Deduplizierung ist jedoch die derzeit effizienteste Art, Daten zu reduzieren, bei denen eine Mustererkennung möglich ist (unverschlüsselte Daten).
Vorrangiges Einsatzgebiet der Deduplizierung ist vorerst die Datensicherung (Backup), bei der sich in der Praxis realistische Datenverdichtungen von 1:12 erzielen lassen. Das Verfahren eignet sich jedoch grundsätzlich für jeden Einsatzfall, bei dem Daten wiederholt kopiert werden.
Complication schrieb:ATTO ist so aussagekräftig wie wenn ich beim Test der Effizienz eines Packprogramms eine Datei mit lauter 0en packe und dann behaupte, dass 100GB auf wenige Bytes komprimiert werden können.
I.d.R. kann man das ATTO Ergebnis als bestes und das AS SSD Ergebnis als schlechtestes ansehen das die SSD leistet. Da aber kein Datenspeicher durchgehend den besten bzw. schlechtesten Wert nutzt, kann allein schon aus logischer Sicht die mitte als "realer Wert" angesehen werden. Unsere Langzeittests stützen dies zudem.