Anzeige Seagate IronWolf & Synology DS918+: 64 + 2 TB für NAS-Enthusiasten zum Testen [Anzeige]

Seagate

Cadet 2nd Year
Registriert
Sep. 2017
Beiträge
30
  • Gefällt mir
Reaktionen: dideldei, ro///M3o, Mirk0 und 3 andere
Ja, schöne Sache und interessante Hardware. Leider bin auch ich nicht die Zielgruppe.
Ich bin auf die Tests gespannt und hoffe aber doch, dass die Tester mehr als 800 Wörter schreiben ;)
 
Privat bin ich mit Synology vorbelastet, hier stehen eine DS218j und eine DS 416, alle voll bestückt, unter dem Bett liegt noch eine DS211j.
Beruflich bin ich mit NetApp stark vorbelastet, das reicht vom kleinen FAS 2xxx HA Pair bis zum 8-Node FAS 9000 MetroCluster oder 16-Node HA-Cluster mit gemischten Controllern (FAS 8080, 9000 etc.) und umfasst das volle Spektrum, also Aufbau, Installation, Konfiguration, Administration.
Qualifiziert mich das für einen Test? Ich weiß es nicht.
Mir ist die Geschwindigkeit relativ egal, ich benutze die NAS als TimeMachine Volume, Video Mediathek in Verbindung mit Infuse auf einem AppleTV 4K und Backup Ziel meines gesamten OneDrive (Das NAS hält eine 1:1 Kopie von OneDrive offline bereit).
Manchmal landen auch Dateien drauf, die ich nicht lokal haben möchte. Da benötigt man keine hohen Geschwindigkeiten oder SSD Caching.

Ich wüsste jedoch nicht, was man sich für Ergebnisse erhofft? Man wird lediglich einen Vergleich zwischen dem Lesen/Schreiben vieler kleiner Dateien anstellen können, weil genau hier das SSD Caching einen Vorteil bringt. Die reine sequentielle Datenübertragung großer Einzeldateien wird mangels Netzwerkbandbreite bei knapp 200 MB/s einfrieren (sofern man einen Etherchannel erzeugt und der PC ebenfalls über selbigen oder 10GbE verfügt). Egal ob mit oder ohne SSD Caching.
Man müsste ein NAS mit 10 GbE Port dafür benutzen und die gesamte an das NAS angebundene Hardware ebenfalls in 10 GbE betreiben. Da habe ich vor 7 Jahren schon Übertragungsraten von über 1000 MB/s auf einer FAS 6050 mit PAM Card (Flash Cache) und drehenden SAS Platten gesehen.

Selbst ausprobieren könnte ich das mit einem iMac von 2017 mit TB3 10G an einem Netgear 10G Switch, das NAS würde per Etherchannel an den Switch angebunden werden. Gleichzeitig wäre auch ein Vergleich mit einem MacBook Pro vom Herbst 2016 möglich, ebenfalls mit TB3 10G Netzwerkadapter.

  • iMac Retina 5K 2017, i7 7700K, 32G RAM, 2T Fusion Drive und externer USB-C 3.1 SSD
  • MacBook Pro 2016 mit 4xTB3, i7-6567U, 16G RAM, 500G PCIe SSD
  • Netgear GS110EMX (Switch)
  • Sonnet Solo 10G TB3 (Netzwerkadapter)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ro///M3o, DeLiKanLi61, Pry_T800 und 4 andere
Geht es hier primär um die Festplatten oder muss das mit dem NAS getestet werden?
Ansonsten würde ich das mit meinem FreeNAS-Server im 10 Gbit Heimnetz testen.
Sowohl Virtualisierung als auch Storage wird genutzt. Aktuell erfolgt die Anbindung über ein MikroTik Routerboard mit SFP+, daher entsteht dort kein Engpass.
Ansonsten geht der Test natürlich auch mit dem NAS.
 
  • Gefällt mir
Reaktionen: logi und Mar1u5
Hallo,

ich heiße Georg, bin 38 Jahre alt, Vater von drei Kindern und arbeite als Administrator im öffentlichen Dienst. Ich arbeite seit vielen Jahren im IT-Bereich, was auch ebenfalls eines meiner Haupthobbies ist. Hobby also zum Beruf gemacht - mit all seinen Vor- und Nachteilen :sneaky: Einige Erfahrungen bei Produkttests konnte ich bereits bei Monitoren, Druckern und AiO-Wasserkühlern sammeln.

Mein privates Netzwerk besteht aus sehr vielen Komponenten. Der Backbone umfasst eine OM4-LWL-Verkabelung mit drei Switchen von HP und D-Link. Die Switche sind untereinander mit Dual-GBit im LACP-Trunk verbunden - die Umrüstung auf 10GBit oder höher steht noch an. Hier wurden verschiedene VLANs für die verschiedenen Netze eingerichtet. Als zentrale Einheit dient ein Dell PowerEdge T430. Das bestehende NAS ist ein sehr altes Modell von Imation, was schon längst ausgetauscht werden sollte. Für den Testumfang würde ich folgende Geräte verwenden:

  • Gaming-PC mit AMD Ryzen 2700X per GBit LAN
  • Dell PowerEdge T430 per 4x GBit LAN (2x2 LACP-Trunk) am zentralen Switch
  • Lenovo Legion Y720 per Gbit-LAN und WLAN über verschiedene Switche und APs
  • Imation NAS per 2x GBit LAN im LACP-Trunk

Testumfang:
  • Unboxing (Lieferumfang, Dokumentation)
  • Aufbau (nötige Arbeitsschritte, Einfachheit)
  • Stromverbräuche im Vergleich zum bestehenden System
  • Geschwindigkeitsmessungen
  • Leistungsvergleiche

Das NAS und die Festplatten würde ich gerne testen, da ich aktuell eh an der Suche nach einem neuen NAS bin und ich die Features des Synology-NAS gerne selbst ausprobieren würde. Die Geschwindigkeit, vor allem bei gleichzeitigen Zugriffen, interessiert mich auch sehr und erhoffe, dass durch den SSD-Cache hier ein "WOW"-Effekt eintritt.

Das Ganze würde ich natürlich mit passenden Fotos und Screenshots dokumentieren.

Liebe Grüße
Georg
 
  • Gefällt mir
Reaktionen: Chriz, Zäpfchen, Recharging und 7 andere
Die DS918+ in Verbindung mit NVMe Caching-SSDs und 16TB HDDs hat Potential fuer 10GBE, ich wuesste nicht was man hier gross in Verbindung mit 1GB Ethernet testen sollte. Die Vermutung liegt nahe, dass die 100MB/s dauerhaft erreicht werden, von daher sehe ich das Ganze eigentlich als ueberfluessig an.
 
  • Gefällt mir
Reaktionen: ro///M3o, McSnoop, maloz und 5 andere
Mal so gefragt: 3150MB/s Lesen, obwohl das NAS nur zwei 1Gbe Anschlüsse mit Link Aggregation / Ausfallsicherheit hat (also max 2GBit/s max liefern kann)?!

Irgendwie ziemlich verwirrend!
 
  • Gefällt mir
Reaktionen: ro///M3o, bad_sign, Trespasser und eine weitere Person
Es ist etwas unverständlich wieso man solch eine schnelle SSD ins NAS stecken sollte, der Netzwerkanschluss ist doch eh viel langsamer als die SSD. Da reicht der Vorgänger dieser SSD locker aus.
Hier gehts ja eher um die TBW.

Aber SSD Caching, ist das jetzt die Antwort der HDD Hersteller auf das SMR Debakel? :evillol:
Wenn man die CB News verfolgt so haben jetzt WD und Toshiba wenigstens nachträglich die Karten auf den Tisch gelegt und beschrieben wo sich SMR versteckt, Seagate aber noch nicht.
 
  • Gefällt mir
Reaktionen: iWaver, Master_Chief_87, aklaa und 2 andere
Werden die M.2 SSDs nur als Read/Write Cache verwendet oder bringen die auch was bei der I/O-Performance wenn ich auf dem NAS Virtuelle Maschinen laufen lasse?

Hoffentlicht wird sowas auch in den Lesertests behandelt.

Bei mir rödelt immer noch eine uralte MyCloud EX2 Ultra mit 2x6TB rum die bald mal ersetzt werden soll.
 
Sehe hier, aus den bereits genannten Gründen, ebenfalls keinen wirklichen Sinn in der gesamten Geschichte. Es ist daher wohl eine reine Werbesache nach dem Motto: Wir bringen uns mal ins Gespräch und lenken evtl. von den negativen SMR Berichten ab.
 
Ich würde das System im Vergleich zu einer selbst gebauten NAS (Athlon 300GE) mit Nextcloud setzen.

Relevante Themen wären dabei:

1. Zeitersparnis des (fast) fertigen Systems gegenüber einem selbstbau.
Nicht nur auf Hardwareseite, sondern insbesondere auch auf der Softwareebene.
Das Einrichten (und Absichern) meiner Nextcloud auf meine Bedürfnisse hin hat einige Tage in Anspruch genommen. Dennoch habe ich noch nicht alle gewünschten Features (wie z.B. einen intelligenten SSD Cache) zufriedenstellend gelöst bekommen.


2. Geschwindigkeitstest:

2.1
Die bisherige NAS wird von meiner Familie vor Ort sowie von mir per VPN genutzt.
Ich bemerke z.B. beim scrollen durch meine Medien mittels Kodi eine Verzögerung die (z.T. deutlich) über die Latenz aufgrund der Entfernung hinausgeht. Ich würde messen, wie sich dies ändert.
Die Internetanbindung ist für Deutschlang relativ gut (Gigabit up/50 Mbit down).
Da von @scooter010 angefragt, hier ein kleiner Screenshot bzgl. der Latenz:
ping.png

2.2
Als Fotograph bearbeitet mein Vater professionell mit Photoshop/Lightroom große Bilder.
Sein aktuelles Setup besteht aus einem 1800X, 48GB DDR4, einer Samsung Evo 970 1 TB und zahlreichen HDDs mit Daten, welche er durchrotiert.
Film & Musiksammlung sind bereits in die NAS gewandert wodurch das durchrotieren abnahm.
Durch den SSD Cache hoffe ich alle weiteren Daten von den externen Festplatten auf das NAS schieben zu können.
Einen einfachen Redis Cache hatte ich zwar für meine Nextcloud eingerichtet, echtes SSD Caching dürfte aber hilfreich sein um dauerhaft den Arbeitsablauf umzustellen.
Da an sich sogar ein Upgrade vom 1800X auf einen 3900X oder 3950X geplant ist könnte man da sicher eine nette Kreuzanalyse aufstellen wie das Bearbeiten von Bildern auf seinem PC gegenüber dem bearbeiten von Bildern auf der neuen NAS aussieht.
Unsere bisherige NAS geht auch nur in die Tiefschlafmodi und wird nicht ausgeschaltet, daher dürfte die hier genannte Cacheleerung beim ausschalten zwar unpraktisch, aber verkraftbar sein.


3. Multimediatest:

3.1 Datenhaltung & Synchronisation
Ich synchronisiere bisher meine Daten (Vorlesungsvideos/-Folien, Präsentation,..) mittels Nextcloud zwischen meinen Geräten (PC, Laptop, Handy).
Musik (70GB) wird zwischen allen Geräten aktuell gehalten damit sie jederzeit auch offline vorhanden ist und neue Musik direkt verteilt wird.
Filme liegen zentral auf der NAS, für Code nutze ich Github.
Hier erwarte ich, dass die Umstellung ohne jegliche Probleme durchführbar ist.

3.2 Netflix & Prime nutzung an Fernsehern.
In dem Haushalt stehen 2 Fernseher (FullHD+4k "smart"), sie sollen für genau 2 (3) Fälle genutzt werden:
Satelietenfernsehen,
Wiedergabe von Filmen/Serien vom NAS sowie von Netflix & Prime
Ich möchte für beiden Fernseher beim 2. Punkt die gleiche, saubere und zentrale Lösung.
Vorhandene Raspberry Pi 4 mit "gepachter" alter Chromium Versionen (inkl. Tearing).

FireTV für den einen TV, Pi-Hole für den Datenschutz am Smart-TV, NAS "irgendwie" drangehängt.

Beide Fernseher an die bisherige NAS hängen und neben Nextcloud und Backupdienst noch fehlende Dienste (ohne jegliche Trennung) dazufriemeln.
Jeglicher Internetzugriff des Smart-TVs wird unterbunden.
Lokale Serien/Filme werden durch Kodi mit Netflix/Prime auf der NAS zusammengeführt, Kodi steht an beiden TVs zur Verfügung.


4. Backups
Aktuell wird einmal wöchentlich per externer Dockingstation eine Festplatte angeschlossen.
Über Systemd wird die UUID der eingesteckten Festplatte abgleicht und beim erkennen selbiger automatisch ein inkrementelles Backup gestartet. Hier ein Link zu der ersten Iteration von dem Aufbau.
Sobald es durchgelaufen ist gibt's ein entsprechendes Feedback und die Festplatte landet wieder im Schrank.
Wie bei 3.1 erwarte ich, dass dies ohne jegliche Probleme umstellbar ist.
Ob ich mein eigenes Script nutze oder einen Dienst der NAS nutze würde ich spontan davon abhängig machen was einfacher scheint.


5. Stromverbrauch
Die bisherige NAS habe ich über https://github.com/languitar/autosuspend so eingerichtet,
dass sie intelligent in einen Tiefschlafmodus geht und per WoL aktiviert wird.
Beides sollte die Synology natürlich auch unterstützen.
Leider sind die Ryzens im Leerlauf ja noch eine Ecke schlechter, da würde ich mal schauen ob man mit einem vom Baumarkt/Versorger geliehenem Messgerät Unterschiede bemerkt.


6. Fotos
Da das ganze demnach auch direkt von einem Fotografen getestet wird sollte es kein Problem sein ein paar anschauliche Bilder mit seiner Canon EOS 5DS R zu erstellen. :D


PC1: Ryzen 7 1800X + 48GB DDR4, Samsung 970 Evo 1TB, div HDDs (3900X / 3950X in Planung)
PC2: i5 4500 + 16GB DDR3
PC3 (remote via vpn): Ryzen 5 2600 + 48GB DDR4, 1TB MX500, 1TB Sabrent M2 PCIE 3.0x4)
Raspberry Pi 4 (4GB) mit Kodi
SmartTV (4k)
FullHD TV
3 Smartphones
2 Laptops

FB 4040 bei mir, FB 6591 + GBit Switch bei meinen Eltern.


@All, anscheinend ist auch kein Anschluss vorhanden über den man 10 GBit nachrüsten kann:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nebuk und user2357
Fritzler schrieb:
Aber SSD Caching, ist das jetzt die Antwort der HDD Hersteller auf das SMR Debakel? :evillol:
Wenn man die CB News verfolgt so haben jetzt WD und Toshiba wenigstens nachträglich die Karten auf den Tisch gelegt und beschrieben wo sich SMR versteckt, Seagate aber noch nicht.

Wobei Seagate hier:

https://arstechnica.com/information...ys-network-attached-storage-and-smr-dont-mix/

klargestellt hat das zumindest in der Ironwolf Reihe kein SMR zum Einsatz kommt weil sich das nicht mit dem NAS Einsatz verträgt.
 
  • Gefällt mir
Reaktionen: Trespasser, arnulf und BalthasarBux
Hallo liebe CB-Redaktion,

hiermit möchte ich mich ebenfalls für den Lesertest des NAS und der Datenträger bewerben.

Ich bin 35 Jahre alt und wohne in der nördlichen Oberpfalz/Bayern. Ich habe zunächst Jura studiert, aber dann doch zur wahren Liebe (der IT) gewechselt und eine Ausbildung als IT-Systemelektroniker absolviert. Ich arbeite nun seit einigen Jahren als Server-Administrator bei einem mittelständischen Unternehmen. Ich beschäftige mich schon seit über 25 Jahren mit Computern und allem was dazugehört.
Privat beschäftige ich mich auch mit IT, zusätzlich fotografiere ich gerne und verbringe viel Zeit mit Familie, Freunden und Haustieren.

Aktuell besitze ich drei Synology-NAS (DS414, DS215+ und DS115j) mit über 44TB Bruttokapazität, habe davor und währenddessen aber auch mit einigen anderen Speichersystemen experimentiert (Ubuntu-Server-alles-zu-Fuß, OpenMediaVault, Freenas, Nas4Free, etc). Ich habe mehrere programmierbare Switche (Cisco, Microtik) sowie Testnetze mit VLANs unterteilt in Verwendung um das NAS ordentlich testen zu können.
Zusätzlich habe ich ein Proxmox-Cluster mit drei Nodes und mehr als 20 VMs, die ich "produktiv" Zuhause verwende (Windows-Domäne, Terminal-Clients, diverse Linux-Testmaschinen, GNS3 für Netzwerksimulation, etc.)

Ich hab in meinem Zuhause ca. zehn Rechner, Notebook und stationäre PCs gemischt. Einige sind noch aus der Sandy-Bridge, Ivy-Bridge und Haswell-Generation, besitze aber auch 4 moderne Systeme (Surface Pro2 und Zen+)

Ich würde mit dem NAS und dessen Platten als "SAN" für den Proxmox-Cluster testen, auch wenn dieses nur zwei NICs besitzt. Ich habe die Hofnung, dass die SSDs die Geschwindigkeit massiv beschleunigen. Dies habe ich schon einmal mit meinen anderen NAS versucht, aber mangels SSD war das kein Spass.
Man könnte auch die eingebaute Virtualisierungsfunktion des NAS testen, um einen Vergelich zwischen NFS/CIFS und der eingebauten Leistung zu haben.

Mein langjähriges Hobby ist die Fotografie, besitzte also eine 20-jährige Sammlung an Fotos z.T. im RAW-Format. Dort würde ich den Cache beim Umwandeln und Bearbeiten an seine Grenzen bringen wollen.

Über die Auswahl als Tester würde ich mich sehr freuen!
 
  • Gefällt mir
Reaktionen: user2357 und Trespasser
Nach Veröffentlichung der regelkonform erstellten Tests gehen die Muster in das Eigentum des Testers über.
Okay, das ist natürlich schön, aber ich denke als Besitzer eines uralten Synology NAS mit 2x2TB im RAID-1 wird man mich sowieso nicht ziehen :D
 
Zuletzt bearbeitet von einem Moderator:
Das klingt für mich nach einem sehr spannenden Experiment, an dem ich gerne teilnehmen würde.

Mein aktuelles Setup besteht aus einem Serverrack im Keller, welches verschiedene Dienste im Haus bereitstellt.
Hierzu zählen neben einer Firewall, einem Netzwerk-Adblocker (analog Pihole), sowie diversen Smarthome-Diensten zur Steuerung unserer Geräte im Haus auch ein "Cloudservice".

Da mir Datenschutz wichtig ist, landen die Daten aller Personen im Haushalt nicht im Internet, sondern auf dem Server im Keller.
Ich archiviere dort Fotos, Videos und Backups der Geräte im Netz. Über eine Remoteverbindung wird zudem der Haushalt meiner Eltern ebenfalls auf meinem Server gesichert.

Die Geräte im Haushalt laufen großteils über eine feste LAN-Verkabelung, die drahtlosen Geräte wählen sich über mehrere Unifi-Accesspoints ein. Je nach Nutzergruppe (Bewohner, Gäste, IOT, etc..) auf verschiedenen VLANs. Mein privater Rechner ist über eine 10 Gbit/s Glasfaserverbindung ans Netzwerk angebunden, da der Rechner seine Festplatte zentral auf dem Servershare liegen hat.

Der Server stellt aktuell 48TB verfügbaren Speicherplatz (nach Abzug der Parityplatte) bereit und basiert auf einem Selbstbau mit AMD Ryzen 5 3600. Aus Energiespargründen bin ich derzeit dabei, dies ein wenig zu reduzieren. Ich würde gerne die Vielzahl kleinerer Platten (insbesondere die 4TB, gerne aber eigentlich auch die 8TB) austauschen gegen einige wenige große Platten (16 TB+).
Die Seagate Ironwolf mit 16TB kämen mir da natürlich mehr als gelegen.
Vor dem Ryzen-Setup lief bei mir ein Dell R710 Rackserver. Tolles Teil, aber mein Stromversorger hat sich damit sicher nicht nur einen vergoldeten Ferrari an mir verdient :D

Trotz der Effizienzgewinne mit dem Ryzen bin ich dennoch unzufrieden mit der Energieeffizienz. Ein Schwerpunkt für mich wäre also auf jeden Fall der Vergleich der Synology zu einem Ryzen-Selbstbau in Puncto Energieeffizienz, aber natürlich auch der Punkt Performance.

Da ich viele Fotos und Videos habe, die ich mit der Familie teile, ist es mir Transcoding wichtig. Nicht jedes Gerät kann bei uns jedes Format abspielen (z.B.: 4K Aufnahmen vom Handy). Derzeit übernimmt eine dedizierte Nvidia Quadro das Transcoding im Server.
Ich würde mich freuen, diese Hardwarevielfalt reduzieren zu können und eine Lösung aus einer Hand zu haben.

Mit Synology habe ich bereits vor einigen Jahren positive Erfahrungen sammeln können. Auf Grund der Vielzahl an Festplatten war ich aber gezwungen etwas eigenes aufzusetzen.

Meine Anforderungen an das NAS zusammenfasst:
Es sollte spürbar effizienter Arbeiten, um die Stromkosten im Rahmen zu halten. Zudem muss es aber genügend Leistung bieten, um sowohl diverse Dienste (Cloud, Unifi-Controller, etc.) bereitzustellen, als auch zuverlässig und schnell Daten im Netzwerk auszuliefern.
Mein Ziel ist ein zentraler Ort für Daten im Heimnetz. Das funktioniert nur, wenn alle ausreichend schnell auf ihre Daten zugreifen können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: user2357
Ich bin gespannt, was rauskommt. Ich nutze abgesehen vom SSD Caching das exakt gleiche Setup. Bin eigentlich sehr zufrieden damit, abgesehen davon, dass ich die HDDs nicht mehr sinnvoll in den Ruhezustand versetzen kann, da sie regelmäßig nach exakt 10min geweckt werden. Testweise habe ich das NAS in Ausgangszustand zurückversetzt, Fernzugriff deaktiviert und sogar mal aus dem LAN genommen. Macht keinen Unterschied. Also laufen die HDDs nun durch. Ist zwar blöd, weil ich es meistens nur ein paar Mal täglich brauche, aber fast 70x am Tag wecken ist sicherlich schlechter für die Hardware.
 
ZuseZ3 schrieb:
Da die in Kodi angezeigten Sachen wie Vorschaubilder, Namen und weitere Metadaten vergleichsweise klein sind hoffe ich, dass das Nutzungsgefühl deutlich besser wird.
Latenz durch die 400km: 12-80ms, je nach Netzwerk
Latenz durch Festplatte: 8-9ms, pro Zugriff/Vorschaubild
 
Muss man nur aufpassen, dass man keine Seagate mit SMR erwischt... Die sind im RAID nicht so toll.
 
@scooter, habs oben ergänzt.
Latenz liegt bei ca 19ms.
Somit würde die Latenz rechnerisch zumindest um ca 30% abnehmen.
Praktisch habe ich die Erfahrung gemacht, dass sich Festplatten gelegentlich mal ne Denkpause über ihre normale Latenz hinaus gönnen, während meine SSDs deutlich konsistenter ihre Leistung abliefern.
Aber das wird man ja sehen.
 
Zurück
Oben