Test TerraMaster F8 SSD Plus im Test: Kompaktes NAS mit 8 M.2-SSDs setzt auf Core i3 und 10 GbE

Frank schrieb:
Trotz des wenigen Platzes und der geringen Abmessungen setzt TerraMaster nicht auf ein gelötetes ROM, sondern erneut auf einen internen USB-A-Anschluss, in dem ein kompakter USB-Stick steckt, der den Bootloader des Betriebssystems beherbergt.
Glaube, da fehlt was :)
 
Kapsi87 schrieb:
Ich denke mal, weil der Test von 2020 ist und die Geräte normalerweise immer energieeffizienter werden sollten bzw weil Effizienz mehr und mehr ein ausschlaggebender Faktor ist!

Nicht jeder sitzt in eine Land wo Strom so viel kostet wie in Deutschland. Viele juckt die Effizienz einfach nicht. Alleine China hat ein Mark größer als die EU und Nordamerika kombiniert. Wir sind also nicht der Nabel der Welt.

=dantE= schrieb:
Bei einer Abnahmemenge von 1.000 Stück. Die dürfte dort aber wesentlich höher liegen.

Mehr Rabatt gibt es bei Intel nicht. Zumindest nicht, dass ich wüsste.

=dantE= schrieb:
Jedoch finde ich das hier gewählte Preisgefüge ganz in Ordnung ... und das NVMe SSDs teurer als HDDs sind ist nicht TerraMaster anzulasten.
Von den kleinen Lüftern würde ich allerdings abraten. Das ging im "Desktop-Modus" noch nie wirklich gut.

Korrekt, genau so sehe ich es auch! Zumal das alles UVP ist die mit der Zeit auch runter gehen wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fliz und scooter010
Haldi schrieb:
Der i3-N305 hat nur 9 PCI-E 3.0 Lanes.
Kein Wunder kommt da keine Geschwindigkeit zustande!

Wenn also jede SSD mit 1x PCIe 3.0 angebunden ist, wäre das immerhin noch fast 1GB/s. Ich sähe von der PCIe-Leistung keinerlei Problem, mit einem RAID die Netzwerkkarte voll auszulasten.
 
Toll wäre ein günstiges m.2 NAS mit 2 Slots. :/
 
  • Gefällt mir
Reaktionen: galactix
drmaniac schrieb:
Schade dass die übertragungsgeschwindigkeit beim Schreiben so runter geht wenn man Verschlüsselung benutzt.

Ja das finde ich auch krass, denke mal da hat TerraMaster Mist gemacht, kann ich mir kaum vorstellen.

drmaniac schrieb:
Die Unterstützung von iSCSI wäre auch interessant (oder kann dieses Gerät das?

Ich meien das unterstützt es, Frank hätte auch mal auf TRaid eingehen könne, was gemsichte Disks zulässt...

eastcoast_pete schrieb:
eher gemächliche Schreibgeschwindigkeit mit verantwortlich sein

Das ist hie rund RaidOwl so, Robbie von nascompares erreicht bessere Geschindigkeiten

ph0b0s101 schrieb:
Kann man also auch Unraid oder Truenas auf den System installieren?

Ja, entweder du nimmst den USB Stick raus und ersetzt ihn mit einem mit MLC oder du verlierst einen der acht SSD Slots

kingpin42 schrieb:
Nicht immer nur an den Homeuse denken.

Tue ich auch nicht, aber ich frage nach konkretem Nutzen. 10 Gbit Netzwerkflaschenhals stören Dich ja nicht Aber Du brauchst 32 Gbit NVME ANbindung um große Datenmengen (zusammenhängender Natur) dauerhaft von a) nach b) zu schieben. Was ist das für ein UseCase? Sollte es sich hierbei um Videobearbeitung handlen, beschrieb mal bitte konkret.

kingpin42 schrieb:
Eine PCIe 3.0 Lane reicht übrigens nicht aus, um 10 Gbit/s auszulasten, dazu braucht man schon mindestens 2.

Jo aber zu 80%, wenn Du von einer Mischnutzung ausgehst reicht das gerade so. Habe selber 10 Gbit, und man bekommt es nicht dauerhaft ausgelastet.
Ergänzung ()

@D0m1n4t0r Man kann bei Geizhals auch öffenltiche Wunshclisten machen, dann sieht man das mit einem Blick ;-)
 
@D0m1n4t0r
Danke für das Upgrade. Meine Aussage bzgl. ECC war dahingehend gemeint, dass Proxmox standardmäßig zfs verwendet und von den zfs-Entwicklern ausdrücklich die Verwendung von ECC empfohlen wird.

Daher ist es IMHO durchaus valide anzunehmen, dass erst mal nur ECC-Systeme als "Proxmox-kompatibel" gelten. Natürlich läuft Proxmox auch auf nicht-ECC Systemen. Ist die Frage, wie man für sich "Kompatibilität" definiert. "Läuft schon irgendwie" vs. "Läuft so wie von Entwicklern empfohlen."

Edit:
Aber exakt so ein System hätte ich gerne. Wenn es denn ECC unterstützen täte.
Derzeit tut es bei mir noch ein i3-8100 mit einem Supermicro X11 Board. Leider wird mir die CPU nach und nach zu schlapp. Und das Supermicro-Board ist auch nicht so wirklich sparsam.
 
Zuletzt bearbeitet:
DFFVB schrieb:
Tue ich auch nicht, aber ich frage nach konkretem Nutzen. 10 Gbit Netzwerkflaschenhals stören Dich ja nicht Aber Du brauchst 32 Gbit NVME ANbindung um große Datenmengen (zusammenhängender Natur) dauerhaft von a) nach b) zu schieben. Was ist das für ein UseCase? Sollte es sich hierbei um Videobearbeitung handlen, beschrieb mal bitte konkret.
Wahlfreier Zugriff auf einen RAID Pool mit ein paar gleichzeitigen Usern dürfte da schon voll und ganz reichen, um herkömmliche M.2 SSDs in die Knie zu zwingen. Besonders bei QLC oder TLC, wenn der DRAM- oder SLC-Cache schon ausgereizt ist.
DFFVB schrieb:
Jo aber zu 80%, wenn Du von einer Mischnutzung ausgehst reicht das gerade so. Habe selber 10 Gbit, und man bekommt es nicht dauerhaft ausgelastet.
Bei Dateiübertragungen bekommt man auch, entsprechende Software vorausgesetzt, auch problemlos 100 Gbit/s ausgelastet. Ich hätte in diesem NAS hier auch lieber einen SFP28 Port gesehen.
 
@kingpin42 Langsam wird es etwas unübersichtlich. Wozu brauchen die NVMes mehr als 8 Gbit, wenn Du per Netzwerk auf 10 Gbit Netzwerk limitiert bist? Du sagst ja expressis verbis, dass Du 32 Gbit braucht, was bringen Dir also 24 Gbit mehr, wenn das Netzwerk der Flaschenhals ist? Und nein Content Creator haben selten über 10 Gbit Netzwerk, zumindest nicht oslche die so kleine Lösungen wir hier nehmen. Du kannst immer noch keinen realen Nutzungszweck skiziieren. Und dass Du gerne SFP28 hättest ist auch was neues, aber dann ist da shier die komplett falshce Baustelle für Dich
 
DFFVB schrieb:
@kingpin42 Langsam wird es etwas unübersichtlich. Wozu brauchen die NVMes mehr als 8 Gbit, wenn Du per Netzwerk auf 10 Gbit Netzwerk limitiert bist?
Der Terramaster, um den es hier geht, ist im Netzwerk limitiert, das ist richtig. Mit der Frage, warum NVMes mehr als 8 Gbit brauchen, kamst du um die Ecke, ohne das es dafür für mich ersichtliche Gründe gibt.
DFFVB schrieb:
Du sagst ja expressis verbis, dass Du 32 Gbit braucht
Das habe ich nirgends behauptet.
DFFVB schrieb:
Du kannst immer noch keinen realen Nutzungszweck skiziieren.
Steht oben.
DFFVB schrieb:
Und dass Du gerne SFP28 hättest ist auch was neues, aber dann ist da shier die komplett falshce Baustelle für Dich
Da würde mich gerne mal die Begründung interessieren. Die M.2 im Terramaster sind via PCIe 3.0 x1 angebunden, wenn man mal von einem RAID10 ausgeht, könnte man die SSDs zumindest sequentiell eher mit einem SFP28 Port ausfahren.
 
Warum ist 22110 eigentlich bei Consumer-Ware derart unbeliebt?
 
kingpin42 schrieb:
Mit der Frage, warum NVMes mehr als 8 Gbit brauchen, kamst du um die Ecke, ohne das es dafür für mich ersichtliche Gründe gibt.

Das ist in der Tat korrekt, hab Deinen Post gestern 19:08 als Zustimmung zu dem von CarpeDiem gelesen. Sörry. Der Rest ergibt sich damit, weil Du es nicht zwingend brauchst, in einer theoretischen Welt, ja da gibt den Nutzungszweck, praktisch auch für größere Creators, ich denke keiner der eine SFP 28 Infrastruktur hat, würde das NAS aus dem Thread hier nutzen
 
  • Gefällt mir
Reaktionen: kingpin42
Cool Master schrieb:
Nicht jeder sitzt in eine Land wo Strom so viel kostet wie in Deutschland. Viele juckt die Effizienz einfach nicht. Alleine China hat ein Mark größer als die EU und Nordamerika kombiniert. Wir sind also nicht der Nabel der Welt.
Ja, aber der Test von Computerbase wurde in Deutschland gemacht glaube ich.Somit wird sich das Fazit wohl auch eher auf Deutschland beziehen.
;)
 
@Araska Ich würde sagen, der Formfaktor ist nicht direkt unbeliebt. Aber für Endkundengeräte hat sich 2280 nun mal durchgesetzt, weil er klein genug für Notebooks ist (in noch mobileren Geräten wird eher kein m2 mehr verwendet, sondern der Speicher direkt verlötet) und auch auf Desktop-Platinen nimmt er nicht zu viel Platz weg.

Trotzdem bekommt man dort genug Chips unter für brauchbare Speicherkapazitäten.
Ein 22110 bekäme wahrschienlich noch 4 Speicherchips mehr unter, also 66-100% mehr als bei 2280, aber da gibt es AFAIK keine Controller, die das ansteuern können. Zumindest nicht in Endkunden-Preisregionen und auch Endkunden-Kühlung der SSD.

Ansonsten verliert man wahrschienlich Bandbreite. 8 oder gar 10 Chips könnten, einen kompatiblen SSD-Controller vorausgesetzt, die PCIe-Schnittstelle mehr als ausreizen. Daher die Chips und ihre Bandbreite lieber auf 2 SSDs und damit auf 2 Schnittstellen verteilen.

Ich hätte aber auch lieber langsamere, sparsamere dafür "größere" SSDs.
Da SATA-SSDs auch nicht (mehr) pauschal - von high end speed m2-SSDs abgesehen - günstiger sind als m2, macht es eigentlich gar keinen Sinn überhaupt noch SATA-SSDs zu kaufen, sofern man die m2-Schnittstellen in ausreichender Zahl hat.

Höchstens noch aus Stromsparüberlegungen heraus, da mir ein SATA-Hostcontroller mit 6 SATA-Anschlüssen irgendwie sparsamer vor kommt als eine gleiche Anzahl NVMe Schnittstellen. Ist dafür aber auch deutlich langsamer. Aber auch da: SATA3 mit 6GBit x 6 Ports wären bis zu 36 GBit/s im RAID. Den (enduser)-NIC will ich sehen.
 
Zuletzt bearbeitet:
Boaaaa sind das Preise... omg... und wen dann noch das noch Strom zieht, nein Danke. Das soll ohne datenverlust in der ecke stehen und meine Daten parken. Das das nicht vollständig ohne Strom geht, klar... Aber das sind schon kranke Preise. Aber klar, selber zam basteln ist immer billiger... ich und viele andere sind einfach nicht die Zielgruppe.
 
  • Gefällt mir
Reaktionen: Banjo
@Kapsi87

Mag sein, ändert trotzdem nichts an der Kernaussage. Dazu kommt, wer 700+ € für ein NAS ausgibt den wird der Unterhalt nicht wirklich jucken. Geht mir mit meiner 1621+ genau so. Das Teil läuft 24/7 und kostet mich bei einem Schnitt von 50 Watt ~11 € im Monat und das ohne die PV-Anlage zu berücksichtigen. Würde ich die mit rein rechnen sind das wohl eher 5-6 € wenn nicht sogar noch weniger.
 
Flutefox schrieb:
Sehr stark, total an mir vorbei gegangen! Wird mal in die nähere Betrachtung genommen, auch im NAS möchte ich so langsam von den HDDs weg.

Nur schade, dass es keine CPU mit Dual Channel Speicher ist (nicht für jeden relevant) und kein zweiter Lan Port vorhanden ist.
ich hatte beides und betreibe wieder nur mit HDD's Raid 10 weiter. SSD haben bei mir 2x versagt, waren dann defekt obwohl es gute und teuere mit SLC Chip waren. SSD sind einfach nicht geeignet wenn der Server 24h arbeitet.
 
Cool Master schrieb:
@Kapsi87

Mag sein, ändert trotzdem nichts an der Kernaussage. Dazu kommt, wer 700+ € für ein NAS ausgibt den wird der Unterhalt nicht wirklich jucken. Geht mir mit meiner 1621+ genau so. Das Teil läuft 24/7 und kostet mich bei einem Schnitt von 50 Watt ~11 € im Monat und das ohne die PV-Anlage zu berücksichtigen. Würde ich die mit rein rechnen sind das wohl eher 5-6 € wenn nicht sogar noch weniger.

Naja.... wen es 700€ kostet, und 11€ im Monat, und das mal 12m, mal 10 Jahre, haben wir auf ja eine verteuerung von 10%.... mag nicht jeden stören. Aber ich bin auch jemand der will eigendlich so wenig laufende kosten haben wie möglich. Selbst wen ich erstmal tief, tiefer in die Tasche greifen muss, es ist dann halt weg. Aber klar, unternehmen rechnen so nicht. Da lassen sich laufende Kosten auch gut von der Steuer abziehen.

Aber mir persönlich ist alles lieber, was nur "einmal" kostet. Ist natürlich quatsch, weil dieses Ideal gibt es praktisch nicht, aber kann auch nicht sagen das mir das egal wäre. Ob das in dem Fall noch eine Rolle spielt, bei 900 lass ich mal offen. Gut möglich das es da so sehr in Erpsenzählerei ausartet, das ich sage, "ach komm, auch egal". Aber allein am Anschaffungspreis mache ich das nicht fest. Sondern es kommt eher auf die Gesamtkosten an. Ich bin aber auch jemand der gerne mehr in die "Garantie" investiert, auch wen ich weiß das es sich oft nicht lohnt, weil ich einfach meine Ruhe haben will, und eine Firme die hohe garantiezeiträumen einplannt, weniger Spielraum bei der geplanten obsolenz hat.
 
Zurück
Oben