Test Intel gegen OCZ: X25-M „Postville“ und Summit im Vergleich

so habs grad nur mal überflogen! auf meinem Thinkpad X200 hat die Office2007 installation exakt 2:44minuten gedauert! SSD ist OS-Partition war Quelle und Ziel! und ich war nebenbei noch im inet unterwegs :D Acrobat 9 Pro hat glaub ich auch nur 2:46min gedauert was sonst ewig und 3 tage dauert ;)

werd mich dann mal dran machen die Kommentare weiter zu lesen! btw moros: war scho ganz ok der Test ;)

für alle die es interessiert: Newegg.com vercheckt grad 60GB ocz summits um 160$ und gibt dazu noch nen 30$ gutschein ... wären nach allem noch ~90€ also wer grad in den USA is könnt da schon schwach werden...
Ergänzung ()

mumpel schrieb:
Totalausfall der Summit? Autsch! :D
Schade... macht kein gutes Bild - aber da hat sicher Moros was verpfuscht :headshot:

Moros schrieb:
Ich werd' zwei Szenarien probieren:

1) Office 2007 von SSD auf SSD
2) GTA IV von CD auf SSD

Wenn keine großen Unterschiede zwischen HDD und SSD auftreten (aufgrund der Begrenzung durch das ODD), lass ich den zweiten Test wegfallen.

Ich würds am ehesten so machen:
1) von SSD auf SSD
2) von HDD auf SSD -> deshalb, weile viele bzw die meisten ihre Images auf Datenlagern aka HDDs haben werden! find ich halt am ehesten praxisrelevant! Kannst ja auch .exe progs nehmen wie Gimp!

Kopi80 schrieb:
Na mit Sicherheit wirst du beim Read (ODD) Begrenzungen haben. Ne 24x DVD hat im Maximum ne Leserate 33MByte/s. Selbst beim direkten Kopieren von ODD auf SSD sollten alle SSD schon auf maximal 33MB begrenzt werden. Ich halte diesen limitierenden Faktor für unnötig in solch einem Test. Es würde reichen, wenn man mal auf dieses Szenario hinweist.
Also Optisches Laufwerk hat man ja beim Windows Install in dem Test gesehen, dass da ned viel Unterschied ist weil das ODD einfach bremst! find ich nicht so gut!

Kopi80 schrieb:
Ansonsten stimme ich Eierkuchen zu. Immer alles nur auf der betreffenden SSD abwickeln. Das ist die einzig sinnvollte Testmethode wo sich nur der Kandidat selbst limitieren kann. Das ist zwar nicht immer praxisrelevant, alles andere würde aber nur die Tests verfälschen.
Ganz sooo krass würd ich es nicht machen! aber SSD->SSD selbst sollte schon vorkommen um andere Sachen auszuschließen! Vor allem für NB-User interessant! und leute die heruntergeladene .exes immer erstmal am desktop wandern lassen (wie ich ;)) und somit vom OS-Laufwerk installieren!

btw: Laptop! ein Akkulaufzeitcheck wäre der Ultrahammer! zumindest zwischen standard HDD und SSD... würd da gern mal den unterschied sehen! Wäre mein x200 nicht grad der einzig nutzbare PC würd ich es ja mal testen, aber geht nunmal nicht :(

somit sag ich jetzt mal! Gute n8 an mich und euch wünsch ich nen guten Start in den Dienstag!

aja hätte ich fast vergessen:
Für den Konsumenten ist die Entscheidung zwischen einer SSD mit Samsung-Controller und der neuen Intel Postville bedeutend einfacher als die Entscheidung zwischen Indilinx und Samsung, da die X25-M der zweiten Generation und ihre Konkurrenzprodukte in unterschiedlichen Kapazitäten angeboten werden.

Wie ich immer sage: Hängt alles vom Preis und der Größe ab! wer meint 64gb sind zu wenig und 128gb zu viel -> INTEL und sonst halt Indilinx/Samsung! Wobei ich mittlerweile nur mehr zu SSDs mit Samsung Controller tendiere... vor allem wenn zumindest nur noch 1 einziger Test das bestätigt was hartware.de schon gesagt hat: Dass die GC bei den Samsungs mit der nächsten großen FW echt super funktioniert! und somit vom OS unabhängig ist!
 
@Moros:
Ich schlage vor, dass ihr bei zukünftigen Tests die genaue Kapazität der SSD/HDD angebt.
Entweder wie im Anhang oder einfach nur in Zahlen.

Das würde alles vereinfachen und die Hersteller (wie OCZ), die auf einmal genauere Angaben machen wollen (30, 60, 120) nicht mehr benachteiligen ggü. den "Hochstaplern", die dasselbe Produkt als (32, 64, 128) verkaufen.

Außerdem kann es beim Klonen (inkl. freien Speichers) einer Platte helfen, wenn man die genaue Größe in Bytes weiß, weil sonst evtl. das Klonen scheitert wegen ein paar fehlender Bytes :-) (ist einem Freund mal passiert; die Platten mit gleicher Größendeklaration sind nicht alle bis aufs Byte gleich in der Größe).
 

Anhänge

  • space.JPG
    space.JPG
    32,3 KB · Aufrufe: 523
Das mit den Größen wurde ja schon auf der vorigen Seite besprochen. Ich hatte dann gestern überall die Kapazität hinzugefügt, so dass sie in jedem Diagramm erscheint. Das sah aber nicht mehr gut aus, weshalb die Kapazitäten im Moment unter "Testsystem" zu finden sind.

Soll die Kapazität wirklich in jedem Diagramm dabei stehen?
 
Blackvoodoo schrieb:
Hmm meine Festplatte sollte deutlich schneller sein als deine, ich habe die 300 GB Velociraptor.

Es kommt halt immer drauf an wie dein System zugemüllt ist.
Bei 40075ms habe ich einfach ein neues System aufgesetzt auf einer freien Festplatte mit ein paar Programmen und Games.

In meinem Hauptsystem werkelt auch eine 300GB VelociRaptor und braucht ca. 90000ms.
Aber das ist extrem zugemüllt und nicht defragmentiert weil ich mein System eh zwecks Extremumbau neu aufsetzten will.
Daher auch die Überlegung einer SSD als Systemplatte.
Aber anscheinend benötigt man dies ja nicht und dann diese unausgereifte Technik... :rolleyes:

In meinem Zweitrechner habe ich nur das nötigste installiert und da dauert es 29803ms. Da habe ich die älteste Festplatte reingestopft die ich finden konnte irgendeine von Trekkstor mit 200 GB mit 8 MB Cache.

Als Beweiß habe ich einen Screenshot gemacht. :D
Ach ja die ist auch nicht defragmentiert und HDTuneUp wurde auch nicht angewendet. Bin halt ein fauler Hund ...
 

Anhänge

  • Vista Start.jpg
    Vista Start.jpg
    169,1 KB · Aufrufe: 545
Zuletzt bearbeitet:
bei der Startzeit können angeschlossenen USB geräte oder andere Hardware die etwas störrisch beim initalisieren ist schon einiges ausmachen, da ist nicht gleich die HDD/SSD Schuld wenn es mal länger dauert, direkt vergleichbar sind die Zeiten somit auch nur mit der selben Installation auf einer Maschine
 
...ich bin hier gerade bei dem wort "gestorben" (in bezug auf die ozc) hängen geblieben - wie denn, warum denn? mich würde überhaupt mal interessieren, wie so die kurzfristigen erfahrungen mit der zuverlässigkeit sind - so richtige langzeiterfahrungen kann es ja wohl bisher kaum geben.

meine eigenen sind diesbezgl. gerade aktuell extrem schlecht; ich setze seit gut 2 jahren ssds ein, bisher mtron (slc mit ~100mb/s w/r) im notebook, netbook und htpc, die sind offenbar robust und für diese anwendungszwecke wunderbar (allerdings ist auch eine davon eingegangen, mit dem bei mtron bekannten 15mb-bug).

nun wollte ich auf meinem hauptrechner von bisher 2x sas 15k auf 2x patriot torqx 128gb (mit indilinx controller) umsteigen, und das lief so ab: 2 platten bekommen, 1 davon defekt - die platte wurde zwar erkannt, man konnte sogar lesend benchen, aber bei schreibzugriffen meldet sich die platte mit verbindungsfehlern ab. gut, platte ausgetauscht, sah dann alles ok aus, raid 1 in betrieb genommen, aber nach 2 wochen "stirbt" die nächste platte mit den selben symptomen. ungut! ausfallsquote also bisher 3 von insges. 7 betriebenen stück, oder >40%. gibt mir zu denken und ich werde auf meinem hauptrechner wohl erstmal wieder bei den sas-platten bleiben...
 
Zuletzt bearbeitet:
@ Norman

Ich denke Merlin-.- meint den Unterschied zwischen "aufgedruckter" Kapazität (z.B. 128GB) und reeller Kapazität. Wenn also bei Auslieferung schon ein paar Zellen defekt sind, ist die Kapazität niedriger als versprochen. Oder man hat sogar mehr Platz, weil ein paar Reservezellen noch nutzbar sind. Würde mich (abgesehen von der üblichen MB/MiB Problematik) auch mal interessieren. Ist allerdings kaum aussagekräftig, weil ihr ja immer nur ein Exemplar einer Serie habt und sich davon nicht auf die ganze Serie schließen lässt.

@ Eggcake

Ja das ist in der Tat ein komplexes Thema. Ich werfe zur kompletten Verwirrung nochmal NCQ in den Raum. :D Dabei haben wir doch so viele Studierte hier in der Community. Da wird sich doch mal einer mit so einem Thema auseinandergesetzt haben? Man sollte einen Aufruf starten. ;)
 
Das Windows Performance Toolkit wäre mal ne Varriante, find das auch ganz gut und hab damit schon gearbeitet.

Wird auch mal Zeit das die SSDs endlich billiger werden. :D

MfG
 
t_3 schrieb:
gut, platte ausgetauscht, sah dann alles ok aus, raid 1 in betrieb genommen, aber nach 2 wochen "stirbt" die nächste platte mit den selben symptomen. ungut! ausfallsquote also bisher 3 von insges. 7 betriebenen stück, oder >40%. gibt mir zu denken und ich werde auf meinem hauptrechner wohl erstmal wieder bei den sas-platten bleiben...

Das ist ja furchtbar !
Ich kenne bis jetzt nicht einen bei dem die gute alte HDD ihren Geist aufgegeben hat und auch bei mir gibts selbst bei 10 Jahre alten Platten keine Probleme !
Bei meinen Eltern werkelt eine 40GB Platte aus den ersten Tagen in ihrem Internetrechner die ich ihnen eingebaut habe.

Das Schlimme ist ja nicht wenn so eine SSD schon von Vorherein kaputt ist was dann auf einen Fabrikationsfehler hindeutet. Das kann passieren.
Schlimm ist es wenn sie nach ein paar Tage einfach kaputt geht oder nach ein paar Benchtests.
Das ist dann ein Herstellungsproblem bzw. die Technik macht massiv Probleme mit der Zuverläßigkeit.
Ergänzung ()

@BlackVoodoo,

Ich hab da noch einen interessanten Test von CB gefunden der genau deine und meine VelociRaptor mit 300 GB gegenüber den SSDs darstelt.

https://www.computerbase.de/artikel...b-test.1000/seite-7#abschnitt_anwendungsstart

Da schneidet die Raptor teilweiße sogar besser ab als die Intel !
Sogar die vielgerühmte Multi-Applicationen-Stärke der SSD steht der VR in nichts nach.
 
Zuletzt bearbeitet:
Mit der Zuverlässigkeit bzw. Ausfällen ist das so eine Sache. Die OCZ Summit war die erste, die bei allen SSDs, die ich mittlerweile in der Hand hatte, den Geist aufgab.

Bei t_3 würde ich auf eine mangelhafte Qualitätskontrolle durch den Hersteller tippen.

Grundsätzlich kommen unzählige Möglichkeiten in Betracht, wie eine SSD unbrauchbar gemacht werden kann. Dazu zählen womöglich auch BIOS-Bugs oder Probleme mit bestimmten Chipsätzen. Das Fehlverhalten von Nutzern, welches wohl die größte Fehlerquelle darstellt, blende ich dabei mal aus.

SSDs sind ja eigentlich erst seit einem Jahr, mit erscheinen der Intel SSDs und den Controllern von Samsung und Indilinx richtig präsent. Festplatten gibt es aber schon ein halbes Jahrhundert. Es wurden mehrere Dekaden darauf verwendet, die Kompatibilität und Leistung von HDDs und anderen Komponenten zu verbessern und trotzdem kommt es noch zu Problemen (Bsp. Seagate).

Ich denke, dass SSD-Ausfälle, die tatsächlich durch die SSD entstanden sind, sehr selten auftreten. Dass es für den Nutzer keinen Unterschied macht, warum die SSD ausfällt, ist mir bewusst. Ich wollte trotzdem darauf hinweisen, da solche Erfahrungen ungerechtfertigerweise dem Ruf von Produkten und Technologien über Jahre schaden können - völlig egal, ob SSD oder irgendwas anderes.
 
Pickebuh schrieb:
Das ist ja furchtbar !
Ich kenne bis jetzt nicht einen bei dem die gute alte HDD ihren Geist aufgegeben hat und auch bei mir gibts selbst bei 10 Jahre alten Platten keine Probleme !
Bei meinen Eltern werkelt eine 40GB Platte aus den ersten Tagen in ihrem Internetrechner die ich ihnen eingebaut habe.

Also mir sind 3 Maxtorplatten schon komplett abgeraucht (2 60Gb Platten und 1 120GB Platte) und eine IBM mit 45GB hatte mal die üblichen Anlaufschwierigkeiten, die sich aber nach einem seitlichen Hieb wieder lösten(?).
Seit einigen Jahren setzte ich nur noch Samsungplatten ein. 4x 160GB. 1x400GB, 1x500GB, 4x1TB, 1x1,5TB. Bisher ist mir da noch nichts abgeraucht. Wobei ich die 160er nicht mehr im Einsatz habe.
 
@Moros:
Du hast mich falsch verstanden!

Es geht mir in erster Linie darum, dass Firmen wie OCZ nicht benachteiligt werden sollen, wenn sie 30GB als Größe angeben ggü. Supertalent, die 32GB angeben, die Platten faktisch aber gleich sind.

Es wäre daher objektiver und würde eure Artikel noch weiter verbessern, die gemessene Kapazität (NTFS-formatiert, mit oder ohne Bild) anzugeben, statt einfach die Herstellerangaben zu übernehmen.

@Thema "Installations-Benchmarks"
Die Installation von SSD-->SSD finde ich auch am sinnvollsten, auch wenn bei vielen Usern sicherlich die Quelle HDD ist und dann auf SSD installiert wird.
Aber nur mit SSD-->SSD bleibt die Messung unabhängig von der verwendeten HDD und (sehr wichtig!) ist relevant für Notebooks, die inzwischen einen sehr großen Marktanteil an PCs ausmachen (und systembedingt i.d.R. nur Platz für EINE HDD/SSD haben).
 
Zuletzt bearbeitet:
@Moros

Aber das Toolkit kann ja wohl auch nicht zwischen Random und Seq. unterscheiden, oder? ;)

@Merlin

Zu den angegebenen Grössen:

OCZ meint mit dem 30 übrigens durchaus 30GB und nicht 30GiB. Das hat zum Grund, dass sie im Laufe der Lebenszeit nur 30GB garantieren können. Die SSD kann bis zu 2GB an Sektoren verlieren.
 
Das schockiert mich jetzt doch etwas :-)
Und ich habe schon an "Das Gute im Menschen" geglaubt und gedacht, die würden den Wechsel von HDD auf SSD nutzen, dieses alte Problem aus dem Weg zu räumen... *tsts*
 
nönö die 30GB OCZ sind im windows noch kleiner wie die 32GB von SuperTalent und CO! die nutzen halt die 2GB als Puffer sollten Flashzellen ausfallen! Somit fällt dir gar nicht auf ob Flashzellen eingehen und deine Daten sind immer sicher!
 
Ich glaube das nutzen die anderen ebenso...kann mir nicht vorstellen, dass OCZ da Spezialwürste grillt.
Eine neue OCZ hat ebenfalls ~29.7GB partitionierte Grösse, genau wie eine neue UD.
 
echt? is ja krass...
Ergänzung ()

grad von OCZ hätt ich so nen marketing-gag erwartet ;)
 
Zurück
Oben