Suche schnellste SSD für Zugriff auf Datenbank

Jesterfox schrieb:
Hihi... ist das lustig hier ;-)

Ich denke mal die meisten sollten sich erst mal durchlesen, was Filemaker ist... und dann die ganzen Gedanken über die optimierung eines DBMS vergessen.

Sagt der eine Hase zum Anderen: "Hast du aber große Ohren". :D

Verrate und begründe uns bitte dein Geheimwissen. ;)
 
Zuletzt bearbeitet:
Ich mag die Beschreibungen im Web (unter anderem den Wiki-Artikel) ja komplett falsch verstanden haben, aber für mich sieht das nicht nach nem DB-Server a la Oracle aus... eher nach einem leistungsfähigem Access. Da gibts keine zentrale Instanz die auf das Datenfile zugreift und alles koordiniert.


Aber mal meine weiteren Gedanken dazu: wenn da noch ein Citrix verwendet wird läuft Filemaker ja lokal auf dem Server und wird nur remote "vernbedient". Das Netzwerk sollte kein Problem sein und der Ram des Servers wird auch zum cachen der Zugriffe verwendet. (was halt noch übrig ist, wenn da mehrere Sessions über Citrix laufen)

Aber wie schon gesagt, für so eine Anwendung würde ich keine günstige Consumer-SSD verwenden, sondern was mit SLC. Die hat mehr Performance und hält auch mehr Schreibzugriffe aus.
 
Also ohne wirklich mehr Gegebenheiten zu kennen.

Ich fasse mal zusammen:
"Die Datenbank beträgt mehr als 10 GB. Da auch auf ihr von mehreren Benutzern geschrieben wird, liegt sie extern."
"Mir geht es jetzt eher um die SSD im User-PC, die schnell mit der Datenbank umgehen kann."
"User greift extern auf eine Datenbank zu, welcher auf einem Server gespeichert ist und dort von der Festplatte läuft. "

Leider wissen wir nicht, mit welcher Geschwindigkeit wir hier arbeiten und wie die Datenbank eigentlich aufgebaut ist. Ist das ein 10GB Klotz oder sind das 1000 Files a 10MB? Oder gar noch kleiner? Wie ist die Anbindung des Servers ans Netzwerk? Habt ihr im Server einen 10Gbit Anschluss und an jedem User-PC eine 1GBit Anbindung?

Wie groß ist die 15.000er Platte denn? Und wieviel belegt? Und kommt zum PDF-Druck noch was dazu? Wo liegen diese Daten dann? Auf dem Server oder werden die wieder durchs Netzwerk gejagt? Wieviele greifen in etwa gleichzeitig auf die Daten zu?

Viele Fragen, ich hoffe ich erschlage dich nicht.
 
Onkelhitman schrieb:
Also ohne wirklich mehr Gegebenheiten zu kennen.
Leider wissen wir nicht, mit welcher Geschwindigkeit wir hier arbeiten und wie die Datenbank eigentlich aufgebaut ist. Ist das ein 10GB Klotz oder sind das 1000 Files a 10MB? Oder gar noch kleiner? Wie ist die Anbindung des Servers ans Netzwerk? Habt ihr im Server einen 10Gbit Anschluss und an jedem User-PC eine 1GBit Anbindung?

Wie groß ist die 15.000er Platte denn? Und wieviel belegt? Und kommt zum PDF-Druck noch was dazu? Wo liegen diese Daten dann? Auf dem Server oder werden die wieder durchs Netzwerk gejagt? Wieviele greifen in etwa gleichzeitig auf die Daten zu?

Viele Fragen, ich hoffe ich erschlage dich nicht.

Ach nein.;)

Nun es sind ungefähr 30 verschiedene Files mit 0,1-1,7GB. Die Anbindung erfolgt überall, ob PC oder Server, mit 1 Gbit. Die neuen 140 GB 15.000er Platten sind in einem Storage Pool so aufgeteilt, dass 70 GB zur Verfügung stehen.
Zum PDF-Druck kommen natürlich noch andere Dinge dazu, die der Mitarbeiter für die tägliche Arbeit benötigt, Office ect.
Ansich wird die Netzwerkverbindung in der täglichen Arbeit mit ca. 35 Teilnehmern zum Filemaker nicht wirklich beansprucht (ca. 1-5 % im Durchschnitt). Daher ist die SSD mit schnellen "Bewegungen" und kleinen Dateigrößen ideal in der Arbeit.

Übrigens... die Dateien liegen nicht unbedingt im RAM, sondern werden beim Anwender (Schreibzugriff) temporär erstellt, zum Filemaker auf dem Server und im RAM verarbeitet und dann auf der Platte abgeglichen bzw. gespeichert.:):)
 
Ok.

Das bedeutet:
1. Wir kommen wahrscheinlich nicht über 100MB/s raus, weil 1GBit hier limitiert.
2. Eine Festplatte wäre theoretisch völlig ausreichend, da die Dateien ab 100MB aufwärts sind, und die Datenraten dort bei Festplatten nicht einbrechen.
3. "Zum PDF-Druck kommen natürlich noch andere Dinge dazu, die der Mitarbeiter für die tägliche Arbeit benötigt, Office ect. "

Heißt das, ihr nutzt das Ding als Server weil die PCs Thin-Clients sind? Weil wenn Office genutzt wird, liegt das doch auf den User-PCs und nicht per Remote, oder eben per Netzwerk auf dem Server.

"Daher ist die SSD mit schnellen "Bewegungen" und kleinen Dateigrößen ideal in der Arbeit."
Wo sind denn da kleine Dateigrößen? Eben sprachen wir noch von 100MB - 1,7GB. Außerdem, was nützt es wenn der Server mit den SSDs 200MB/s lesen und schreiben kann wenn das Netzwerk hier limitiert?

"Übrigens... die Dateien liegen nicht unbedingt im RAM, sondern werden beim Anwender (Schreibzugriff) temporär erstellt, zum Filemaker auf dem Server und im RAM verarbeitet und dann auf der Platte abgeglichen bzw. gespeichert."

Passiert das On-the-fly oder wird das irgendwie Prioritäten-mäßig verwaltet? Weil wenn ich jetzt z.B. eine Datei speicher, und die ist gerade woanders offen, so ändert sich ja dann die neue Quelldatei. Die einer anderen Person wäre ja dann anders.

Ich versteh momentan noch nichtmals wie das funktionieren soll. Nehmen wir an ich habe 100 Datensätze, lade die mit meinem normalen User-PC auf meinen. Dort öffne ich die Datei. Und dann drück ich auf speichern und die Datei wird dann neu auf dem Server gespeichert. Wenn ich die jetzt wieder lade sind dort meine Änderungen.

Aber wenn gleichzeitig einer die alte Version gerade geladen hat, dann einen neuen Datensatz speichert, so ist in dieser ja nicht meine Änderung drin sondern nur seine.


Also nochmal, vielleicht bin ich ja ein bissl blöd, aber ich will auch was dazu lernen. Ihr habt einen Server auf dem diese Datenbank liegt. Die verschiedenen Files derer sind um die 100MB -1,7GB groß. Die Anbindung zu den PCs ist mit einem GBit Switch verbunden. Der Server hat eine Festplatte und die User-PCs haben Festplatten. Die Gesamtgröße der Datein beträgt maximal 60GB.

Temporär erstellt, genau da scheitert es bei mir. Ist das dann für die anderen Anwender in der Zeit gesperrt? (müsste ja dann) Also die anderen können zwar lesen aber nicht schreiben bis die Person fertig ist? Dann machts noch einen Sinn.
 
Also auf dem einen Server liegt nur das Produktivsystem. Alles Weitere wie Office, PDF-Druck, ect. liegt auf dem User PC. Über Citrix kommen übrigens nur "nicht lokale" Nutzer ins System.

Das Arbeiten sieht generell so aus, dass ein User immer nur alleine in einer einzigen Position schreiben darf und kann. Mehrere User können sich aber in der selben Position aufhalten. Bei einem Schreibzugriff wird im temporären User-Ordner die Datei erstellt und an den Server übermittelt und dort verarbeitet. Da sich die Dateien aber im kleinen Bereich bewegen, ist das LAN nicht wirklich gefordert. Es kommt aber die SSD hier ins Spiel, weil sie sich schneller mit kleinen Daten bewegen kann.
 
Eine günstige MLC-basierte SSD für Datenbank ? Sie sind für so etwas normalerweise nicht geeignet. Ich weiß es nicht ob bei dir so ist, aber wenn in diesen Datenbank (typischerweise) sehr häufig geschrieben wird (und viele Datensätze hat), dann erwarte nicht eine lange Lebensdauer. Vergesse es nicht dass aktuelle MLC Flash (34nm und 25nm) verträgt maximal 5000 Schreibvorgänge pro Zelle.
 
Die Datenbank bekommt keine SSD, wenn dann höchstens eine SLC-SSD. Es sind hier die User-PCs gemeint. Natürlich ist das Thema SSD im gewerblichen Bereich ein ganz anderes. Vermutlich dauert es noch eine gute SSD-Generation, bis es längerlaufende Produkte gibt. Wenn die SSD jedoch drei bis vier Jahre läuft, dann passt das auch.^^
 
@moby07

Also auch wenn ich damit nur meine Meinung ausdrücke und es leider wieder in die "Glaskugel" Option fällt. Ich würde auf den Launch der neuen Intel SSDs warten, weil die dann entweder Leistungstechnisch besser sind, oder aber der Preis sich noch weiter reduzieren "könnte". Garantieen gibt es logischerweise nicht, dennoch ist der Trend momentan auf Abwärtskurs wegen sehr viel Auswahl, jetzt der "neue" Indilix, Sandforce hat sowieso eine Talfahrt hervorgerufen und wenn jetzt die neuen Intels rauskommen würde ich diese noch den einen Monat abwarten.

Ca. 80GB pro User denke ich mal reichen. Alles was drunter ist ist immer kritisch falls dann doch mal ne Software dazugekauft wird usw. usf.

Und dem Server würde ich tatsächlich eine SLC SSD gönnen, alleine deshalb weil er dann (was ich nicht annehme, aber es könnte sein) die Abarbeitung der Netzwerkanfragen evtl. besser verwaltet. Außerdem ist dann auch die Bearbeitung der kleinen Dateien besser und ihr könnt (falls das denn überhaupt so sein sollte) mit der vollen Netzwerkbandbreite arbeiten ohne irgendwelche Schreib-/Lesezugriffe der Festplatte zu haben mit den Zugriffszeiten. Dadurch sollten auch Dateisuchen, sorfern sie auf der SSD liegen, schneller sein.

Und die Haltbarkeitsfrage ist eh immer ungewiss. Generell gilt, dass ein Backup immer vorhanden sein sollte, ob Festplatten, SSD oder sonstige Speichermedien. Ein Datenverlust kann immer auftreten. Aber das habt ihr dann wahrscheinlich eh schon am laufen.
 
@Onkelhitman

Das sehe ich genauso. Weitere SSDs würde ich auch erst ab Januar kaufen wollen. Dann gibt es wohl auch "haltbarere" Speicher mit entsprechender Leistung.

Als Systemplatte erfüllen die 64 GB SSDs doch recht ausreichend ihren Zweck. Erstellte Daten werden ganz woanders abgespeichert und somit liegen nur Betriebssystem und 10-15 GB an Programmen drauf. Bei einem "Adobe-Photoshop-XY-User" könnte eine etwas größere Platte vielleicht besser sein.;)

Aufjedenfall reicht ein 3,6 Ghz getakteter Corei5 samt 4 GB RAM momentan aus, um alle besagten Aufgaben zu erledigen.;)

Das Thema Server-SSD liegt meiner Meinung nach noch aktuell auf Sand. Erstens sind die Speicher in einem Jahr um die Hälfte günstiger und zweitens ist der Geschwindigkeitsvorteil einer User-SSD schon aktuell gut genug. Der vielleicht größte Knackpunkt ist jedoch der Mangel an SAS-SSDs. Da müssten noch einige Modelle auf den Markt kommen. Nur 200-240 GB aktuell sind mehr als zu wenig.


Onkelhitman schrieb:
Und die Haltbarkeitsfrage ist eh immer ungewiss. Generell gilt, dass ein Backup immer vorhanden sein sollte, ob Festplatten, SSD oder sonstige Speichermedien. Ein Datenverlust kann immer auftreten. Aber das habt ihr dann wahrscheinlich eh schon am laufen.

Ohne Backup und Raid-System würde ich nie ein System planen.:)
 

Ähnliche Themen

Zurück
Oben