Test QNAP TS-h686 im Test: Das Intel-Xeon-ECC-PCIe-2,5-GbE-ZFS-M.2-NAS

Rickmer schrieb:
Auch ohne SSD-Cache zeigt sich hier ganz deutlich, dass je nach Situation 2,5 Gbit/s eine HDD dann doch nicht auslasten kann.
Andersrum: Dass eine HDD den 2,5 Gbit/s Link nicht auslasten kann. Das pauschal zu sagen ist inkompetent.
Grundsätzlich wird kaum einer eine einzelne HDD in so einem System betreiben und es kommt auf die Arbeitslast (workload) an: Sind deine Datenbewegungen eher sequenziell, kommt selbst eine moderne HDD nah an die Nettogrenze von 2,5 Gbit/s, mehrere problemlos.

Wenn du natürlich deine 20.000 schmuddelbildchen mit 500 kb übertragen musst... ;)
 
DFFVB schrieb:
Das ist auch so ne Mär die sich hartnäckig hält. War genau der Grund warum ich meiner Mutter nen QNAP zu Weihnachten geholt habe, dachte mir: "Soll fix gehen, hab ich mehr Zeit." Denkste, auch bei QNAP muss man Dinger einrichten, das kommt auf ähnliche Komplexität hinaus.
Niemand sagt, dass die Dinger nur Strom brauchen und laufen. Auf dauer sind die Systeme aber weniger Arbeitsaufwändig. Noch wichtiger: Jeder doof kann dich ersetzen - den Update-Button kann sogar meine Mutter anklicken.
Bei irgendwelchem Gebastel, das im Regelfall undokumentiert ist, ist das mit mehr Aufwand verbunden.
 
Mich hätte noch mehr zum Thema ECC und ZFS interessiert. Man hört viele Mythen um Bit Rot, Data Degradation,... also Dateien, die über die Zeit kaputt gehen könnten. Hier wirbt Qnap mit Selbstheilung. Als Laie stelle ich mir das so vor, dass von alleine erkannt und korrigiert wird. So ein Feature wäre mir bald lieber als das Rennen um den schnellsten Datentransfer.
 
itm schrieb:
Komischerweise konnte die Ryzen Version noch 10Gbase-T...

https://www.computerbase.de/news/st...s-amd-ryzen-v1500b-10-gigabit-ethernet.74794/
Wenn auch die CPU inzwischen genauso Asbach uralt ist... wie der 2 Kern Xeon
Was genau ist daran komisch?
Genau: Gar nichts. Das ist eine produktpolitische Entscheidung.
Sie könnten alles verbauen: Den krachneuen octacore Xeon, 100G Infiniband... und am Ende einen Preis dran schreiben den erst recht keiner mehr zahlen will. Hier wird schon über die 1.400 € gejammert...
 
für welche Zielgruppe soll diese Gerät gut sein für diesen utopischen Preis? Privatanwender mit etwas Know-How bauen sich für ein Bruchteil was schnelleres zusammen und kleine und mittelständische Firmen basteln sich idR nichts selber zusammen
 
Nagilum99 schrieb:
Bei irgendwelchem Gebastel, das im Regelfall undokumentiert ist, ist das mit mehr Aufwand verbunden.

Und da ist der Strohmann - ne einfache SMB Freigabe unter Linux hat nichts mit Gebastel zu tun. Und apt upgrade, vs. Update bei QNAP nimmt sich nichts... Und sobald Du wirklich basteln willst, oder musst, da beißt Du Dir in den Arsch auf so ne Krücke wie nen Mini NAS gesetzt zu haben... Was bin ich froh, damals noch etwas weiter recherchiert zu haben...
 
  • Gefällt mir
Reaktionen: bad_sign
@Nagilum99

Da sich das System eher ans Business (wie dem Preis zu entnehmen ist) richtet und damit sicherlich nicht 60m CAT5 zwischen Switch und NAS liegen dürften wäre alleine schon aus Zukunftsgründen ein Chip sinniger der volles NGbase-T Spektrum beherscht... Das ist in dem Budget sicher drin...

Und ganz ehrlich den Usecase für N-Gbase T im Business Segment im vergleich zu vernünftigem 10Gbase-T sehe ich halt genauso wenig...


An welcher Stelle der Vorteil zu Gunsten liegt... Vorallem wenn man dann aus 2.5 Gbase-T mittles LAGG 10Gbit/s macht mit 4 Datastreams... Da hätte es halt auch 2x 10 Gbit/s sein dürfen bei dem Preis...

Selbst ein 500€ NAS wie ein TS-431XeU hatte schon 10 Gbit/s mit einem SFP+ Port...
 
Wilhelm14 schrieb:
Mich hätte noch mehr zum Thema ECC und ZFS interessiert. Man hört viele Mythen um Bit Rot, Data Degradation,... also Dateien, die über die Zeit kaputt gehen könnten. Hier wirbt Qnap mit Selbstheilung. Als Laie stelle ich mir das so vor, dass von alleine erkannt und korrigiert wird. So ein Feature wäre mir bald lieber als das Rennen um den schnellsten Datentransfer.
Du wirfst hier viel zu viel in einen Topf.
ZFS puffert viel im RAM, damit die Daten dort nicht verfälscht werden, ist es sinnvoll diesen mit ECC gegen Speicherfehler zu schützen. Wohlgemehrkt hat auch das Grenzen: Multibitfehler sind auch da der Tod.
Bitrot betrifft die ruhenden Daten auf den HDDs und ist grundsätzlich ein Thema.
Mit Dateisystemen wie ZFS, BTRFS, ReFS etc. kann man dem entgegenwirken. Hier liegen, wie übrigens auch schon auf den Datenträgern selber, in bestimmten Abständen Prüfsummen, die Fehler korrigieren können.
Es kann regelmäßig auf Datenfehler geprüft werden - alternativ fallen selbige auf, wenn Daten gelesen werden, da die Prüfsummen immer verarbeitet werden.
Das deckt dann nicht nur reines bitrot auf dem Datenträger ab, sondern auch die Übertragungen bis zum RAM/der CPU - denn auch außerhalb ders Datenträgers können Datenfehler passieren (womit wir wieder beim ECC RAM wären...)

Unsere HDDs sind übrigens inzwischen so groß, dass jede HDD statistisch gesehen mindestens ein gekipptes Bit hat, wenn sie einmal vollgeschrieben wurde. Es merkt nur kaum einer.
 
  • Gefällt mir
Reaktionen: itm und Wilhelm14
DFFVB schrieb:
Man muss sich fragen, was die rauchen. 2,5 Gbit? Nutz doch kein Unternehmen, also klar muss man 10 Gbit nachkaufen... oh weh.
Mit SMB Multichannel hättest du deine 10G. Allerdings ist hier nach dem Test fraglich ob die CPU-Leistung überhaupt ausreicht.

@Frank
Hättest du die Zeit auch mal SMB Multichannel zu testen? Folgende Einstellungen müsstest du dafür in der SMB Config ergänzen (die IPs entsprechend der LAN-Ports anpassen):
Code:
server multi channel support = yes
interfaces = "10.10.10.10;if_index=1;capability=RSS,speed=2500000000" "10.10.10.11;if_index=2;capability=RSS,speed=2500000000" "10.10.10.12;if_index=3;capability=RSS,speed=2500000000" "10.10.10.13;if_index=4;capability=RSS,speed=2500000000"

Wobei ich nicht weiß ob RSS geht. Ansonsten "capability=RSS," weglassen.

Dann braucht es noch einen Windows Client mit 10G und spätestens nach einem Neustart sollte der 10G Transfer möglich sein.
 
  • Gefällt mir
Reaktionen: DFFVB
czuncz schrieb:
für welche Zielgruppe soll diese Gerät gut sein für diesen utopischen Preis? Privatanwender mit etwas Know-How bauen sich für ein Bruchteil was schnelleres zusammen und kleine und mittelständische Firmen basteln sich idR nichts selber zusammen
Firmen wollen aber dann auch echtes 10Gbase-T oder Wahlfreiheit mit SFP+... Geht definitiv auch für diesen Preis...
 
Gefällt mir.

Aber eine CPU aus 2019? Und ob das QNAP OS mit dem ZFS so richtig zuverlässig ist, ich bin nicht überzeugt.
 
  • Gefällt mir
Reaktionen: itm
Nagilum99 schrieb:
Andersrum: Dass eine HDD den 2,5 Gbit/s Link nicht auslasten kann. Das pauschal zu sagen ist inkompetent.
Schau nochmal drauf.

Allein durch den Umstieg von 2,5G auf 10G steigt die Transferrate von 140 auf 250 MB/s.
Die einzige mögliche Erklärung: Das Netzwerk war der Flaschenhals.


Ich hatte auch mal random 4K read/writes auf einer SSD über 1G und 10G Netzwerk verglichen. Transferraten waren natürlich in beiden Fällen deutlich unter 100MB/s (die SSD selber konnte vielleicht 50MB/s) aber dennoch war die Geschwindigkeit mit 10G erheblich höher.
Die Screenshots müssten noch irgendwo in einem der beiden SSD Sammelthreads rumfliegen falls du neugierig bist.

Worauf ich hinaus will: das Netzwerk kann das Limit sein, auch wenn es nicht auf den ersten Blick offensichtlich ist weil noch lange nicht die maximal mögliche sequentielle Transferrate erreicht wurde.
 
  • Gefällt mir
Reaktionen: itm
Nagilum99 schrieb:
Du wirfst hier viel zu viel in einen Topf.
jede HDD statistisch gesehen mindestens ein gekipptes Bit hat, wenn sie einmal vollgeschrieben wurde. Es merkt nur kaum einer.
Punkt 1, ja, daher meine Neugier. Aus der Erinnerung hieß es bei Synologys Einführung von BTRFS, dass es sich so wie von Synology umgesetzt nicht selbst heilen würde.
Punkt 2, davon gehe ich aus, auch daher meine Neugier. Ich mache Backups und kopiere entsprechend hin und her. Ich gehe auch davon aus, dass da irgendwo schon was kaputt ist, ohne dass ich es merke. Da wäre eine automatisiche "Selbstheilung" toll. Die Theorie dahinter mit Prüfsummen ist mir grob klar. Ich hätte gerne einen NAS, der das von alleine macht und vielleicht in einem Log darauf hinweist.
 
Looniversity schrieb:
Was sollen die Kerne den ganzen Tag tun?
In der Firma wird eher weniger Leistung für Plex und ewiges Transkodieren gebraucht.

Zum Beispiel Überwachungskamera (h264/265) steuern/aufnehmen oder sämtliche andere Dienste wie interne Seiten (Wiki, Inventar usw...). Wie gesagt ein Dual Core ist heute einfach nicht mehr zeitgemäß. Bei uns läuft noch eine DS412+ und da spürt man langsam aber sicher das Alter.
 
QNAP bewirbt explizit: Dedup, Komprimierung für QUTS Hero...
Damit kann man sicher einen 2 Kerner schön mit beschäftigen... Je nach Algorithmus schwitzen auch moderne 6 Kerner mit HT mit LZ4 (was etwa bei TrueNAS Core standardmäßig ausgewählt ist...)
 
DFFVB schrieb:
Ich hol schon mal Popcorn - da werden gleich wieder ne Menge Leute kommen, die Dir erzählen, dass sie mit HDDs im RAID jede 10 Gbit Verbindung auslasten - locker ;-)

Keine Ahnung wozu man dafür ein RAID braucht. Meine einzelne HDD schafft das ohne Probleme ^^


Ergänzung ()

Rickmer schrieb:
Ich muss sagen, das mich insbesondere dieser Benchmark fasziniert hat:
Auch ohne SSD-Cache zeigt sich hier ganz deutlich, dass je nach Situation 2,5 Gbit/s eine HDD dann doch nicht auslasten kann.
Ich dachte erst, dass sich evtl die Onboard-Buchsen die Bandbreite mit SATA teilen, aber wenn man auf die einzelne Datei wechselt, sieht es "normal" aus:
2021-02-10 18_28_05.png


Wirklich verstehen tue ich das nicht.

Die einzige mögliche Erklärung: Das Netzwerk war der Flaschenhals.
Meinst du? Was soll denn da so viel Einfluss nehmen, was bei 10G nicht passiert? Strange.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DFFVB
mgutt schrieb:
Meinst du? Was soll denn da so viel Einfluss nehmen, was bei 10G nicht passiert? Strange.
Es sagt ja keiner, dass es bei 10G nicht passiert - solange 10G genügend Freiraum nach oben hin hat kann das ja passieren und man merkt es nur nicht.

Ich habe jetzt übrigens doch noch die Benchmarks von mir rausgesucht die ich meinte - die waren doch nicht im SSD Sammelthread :D https://www.computerbase.de/forum/t...scheck-10gbit-netzwerk.1914215/#post-23572098
 
Rickmer schrieb:
Schau nochmal drauf.

Allein durch den Umstieg von 2,5G auf 10G steigt die Transferrate von 140 auf 250 MB/s.
Die einzige mögliche Erklärung: Das Netzwerk war der Flaschenhals.
Ich will gar nicht in die Details schauen, aber de facto kann 2,5G problemlos 250 MB/s durch das Netz schieben - ich habe hier 10 und auch NGBase-T Ports.
Ich will keine "mögliche" rumraterei sondern eine technische Erklärung, vorher nehme ich das Bild gar nicht ernst und bleibe bei seriösen Angaben.
 
Nagilum99 schrieb:
Ich will keine "mögliche" rumraterei sondern eine technische Erklärung, vorher nehme ich das Bild gar nicht ernst und bleibe bei seriösen Angaben.
Dein 'kann doch garnicht sein' ist mir auch scheißegal, ich habe reale Benchmarks und schäme mich nicht die zu posten :freaky:

edit: Siehe z.B. auch die Benchmarks, die ich im Post über deinem verlinkt habe. Die Q1T1 4K Werte kommen dem localstorage und dem theoreitschen maximalen Durchsatz von 1G oder 10G Ethernet nichtmals annähernd nahe, sind aber trotzdem die real gemessenen Werte.
 
Zurück
Oben