Welche Festplatte/Controller/ Externe/Wechselrahmen sollte ich kaufen? (Teil II)

Status
Für weitere Antworten geschlossen.
Ich kopiere gerade die Daten, also nicht über Temperatur wundern :)
 

Anhänge

  • 2020-07-09 18_44_24-Clipboard.jpg
    2020-07-09 18_44_24-Clipboard.jpg
    117,1 KB · Aufrufe: 330
Da sie kein TRIM unterstützt, wie es die Red mit SMR machen und das Attribut 0x16 hat, ist es immer noch eine HDDs mit CMR und Heliumfüllung. Geizhals irrt also mal wieder.
 
  • Gefällt mir
Reaktionen: McGusto
Gibt es irgendwelche Empfehlungen für eine externe Festplatte? Min 2TB/USB 3.0. Max 80€

Meine alte WD ist mir ja leider abgeraucht.
 
Unter 8TB, ne. Dann besser eine interne und generell ein extra Gehäuse. Bissl was musst du noch drauflegen. https://geizhals.de/seagate-ironwolf-nas-hdd-2tb-st2000vn004-a1504507.html?hloc=de

Oder zu dieser hier greifen, wäre ein guter Kompromiss CMR, 3Jahre und für den Dauerbetrieb geeignet; https://geizhals.de/seagate-skyhawk-2tb-st2000vx008-a1504513.html?hloc=de

https://geizhals.de/fantec-db-alusky-u3-6g-schwarz-1779-a1168651.html?hloc=de.
Ansonsten bleibt dir da eher der übliche consumer Kram, WD blue, Seagate BarraCuda...
 
Zuletzt bearbeitet:
Hallo, ich bin auf der Suche nach einem 8-TB Datengrab für den Hauptrechner. Es werden lediglich Musik, ISOs, Dokumente, Fotos darauf gespeichert. CMR wäre mir lieb...
Leider finde ich das Thema hier etwas "unübersichtlich" dargestellt. Gibt es keinen Empfehlungsthreat? Hab mir zwar die letzten Seiten hier durchgelesen, bin deswegen aber trotzdem nicht weitergekommen.
Der Mainpost hier wird scheinbar nicht mehr geupdatet. Soll keine Kritik sein, sondern eine Rechtfertigung für meine Fragestellung.
 
WD Mybook 8TB und aufwärts. Wäre&ist meine Wahl.
 
checkoff schrieb:
8-TB Datengrab für den Hauptrechner.
Wie viele HDDs sind verbaut und wie viele Power-On-Hours kommen pro Jahr zusammen? Wenn die Antwort auf die erste Frage mehr als 1 ist und die auf die zweite über 2400 würde ich eine NAS Platte empfehlen, wie die Seagate IronWolf, WD Red oder Toshiba N300.
 
Holt schrieb:
Wie viele HDDs sind verbaut und wie viele Power-On-Hours kommen pro Jahr zusammen? Wenn die Antwort auf die erste Frage mehr als 1 ist und die auf die zweite über 2400 würde ich eine NAS Platte empfehlen, wie die Seagate IronWolf, WD Red oder Toshiba N300.

Zu Frage 1: Nur eine HDD, dazu kommen 2x SSD
Zu Frage 2: Meine jetzige Seagate ST400DM000-1F2168 4TB (ist eine ausgebaute Externe) läuft seit 4,5 Jahren und hat laut CrystalDiskInfo nun 4438 Betriebsstunden am Buckel. 3628 mal eingeschalten. Tendenz geht eher nach unten. Hab aber kein Problem die 1, 2 Euro für eine "langlebigere" Platte auszugeben. Im NAS hab ich auch 2x 3TB WD RED. Laufen einwandfrei.
Kann man grundsätzlich darauf vertrauen, was bei Geizhals angegeben ist? (SMR, CMR)? oder wird hier (immernoch) seitens der Hersteller geschwindelt?
 
Reflexion schrieb:
Unter 8TB, ne. Dann besser eine interne und generell ein extra Gehäuse. Bissl was musst du noch drauflegen.

Ich habe eine alte WD My Passport gehabt. Die war im Format: 2.5. Das hätte ich vielleicht dazu schreiben solle n aber Mea Culpa. Mit der war ich ziemlich zufrieden. Vorteil war, das die nur ein USB-Kabel hatte und keinen extra Stromanschluss. So was suche ich eigentliche. Aber danke trotzdem. :D
 
Pz_rom schrieb:
Ich habe eine alte WD My Passport gehabt. Die war im Format: 2.5. Das hätte ich vielleicht dazu schreiben solle n aber Mea Culpa. Mit der war ich ziemlich zufrieden. Vorteil war, das die nur ein USB-Kabel hatte und keinen extra Stromanschluss. So was suche ich eigentliche. Aber danke trotzdem. :D
ja, nutze ich für die nextcloud Ablage im SnapRAID Verbund 2x Seagate Expansion Portable, sind einfach ausbaubar und die USB Verbindung nicht verlötet. Für 24/7 fressen 3,5" HDDs zu viel Watt und sind mir zu laut.
Allerdings ist 2,5" verhältnismäßig teurer und eigentlich immer SMR bei den externen.
Durchsatz finde ich ganz ordentlich, man kommt zumindest anfänglich auch 140MBs. Bei der WD Elements 2,5" ist zwar die USB Buchse verlötet, was aber wiederum beim RPi4 einen Vorteil darstellt. Die 4TB WD Element konnte ich auch via USB 2.0 an eine TV Box anbinden ohne dass die Verbindung abbrach.
 
Zuletzt bearbeitet:
checkoff schrieb:
Kann man grundsätzlich darauf vertrauen, was bei Geizhals angegeben ist? (SMR, CMR)?
Die technischen Angaben bei Geizhals können immer falsch sein und es gibt immer wieder Fehler. Angaben die einem wichtig sind, sollte man immer auf der Seite des Herstellers überprüfen und wenn man sie dort nicht findet, entweder hier nachfragen oder ein anderes Produkt wählen. Auch bei SMR/CMR stimmen die Angaben nicht immer.
checkoff schrieb:
oder wird hier (immernoch) seitens der Hersteller geschwindelt?
Geschwindelt wurde meines Wissens nach nie, dies wäre ja bei falschen Angaben der Fall, es wurde eben nur nicht informiert. Wobei man bei Seagate aus den Angaben in den Product Manuals aber immer erkennen kann, welche SSD SMR hat.
Reflexion schrieb:
Für 24/7 fressen 3,5" HDDs zu viel Watt und sind mir zu laut.
Wobei aber auch bei 2.5" USB HDDs in alle Regel HDDs verbaut sind, die nicht für den Dauerbetrieb gedacht sind.
 
@Holt da hast Du natürlich vollkommen recht. Ich habe immerhin ein SnapRAID und wichtiges wird immer redundant ausgelegt auf seperaten Server/n. So ganz nackt geht es auch nicht mit eine Cloud ins Netz. Generell ist es aber so dass man bei Risiko Minimierung am Ende des Tages eine Null mehr anhängen kann.. Zfs/Btrfs, ECC-RAM, dann gleich noch ein RAID Controller mit cache/Batterie, Redundanz an Nt, online USV, Fernzugriff... HW an sich..usw..das lässt sich immer weiter ausholen...und dann kommt noch die Unklarheiten hinzu bzw. Meinte einer der Zfs Entwickler bspw. dass ECC nicht nötig sei.. naja..genau betrachtet ist es bei jedem Dateisystem nötig. Ich wollte eben eine sehr kompakte Cloud haben und die Docker laufen alle auf eine SSD, HDD Array wird durch gereicht. Recht hast Du aber.
 
Zuletzt bearbeitet:
Reflexion schrieb:
. Meinte einer der Zfs Entwickler bspw. dass ECC nicht nötig sei..
Nein, so würde ich das ganz und gar nicht interpretieren was Matthew Ahrens, Mitentwickler des ZFS-Dateisystems, schreibt:
Man beachte die Reihenfolge, zuerst empfiehlt er ECC RAM und dann erst oben drauf ein Filesystem mit Prüfsummen wie ZFS zu verwenden, wenn man seine Daten liebt und vor Korruption schützen möchte!
 
  • Gefällt mir
Reaktionen: Reflexion
...Ok, es gibt auch einige Beiträge bei denen gemeint wird dass Zfs mehr schützt als xfs auch ohne ECC RAM.
 
Man findet im Netz auch die Aussage das Elvis und Hitler noch leben, man muss Aussagen die man im Netz findet schon selbst bewerten. Das Problem mit ZFS und RAM Fehlern ist, dass ZFS für Server entwickelt wurde und da ECC RAM sowieso vorhanden, kein vernünftiger Mensche betreibt Produktivserver ohne ECC RAM. Daher geht ZFS immer davon aus, dass es den Daten im RAM trauen kann und wenn es Fehler feststellt, wie in Wahrheit ab RAM Fehler sind, dann korrigiert es eigentlich korrekte Dateien kaputt. Mit einem normalen Filesystem würde dann nur korrupte Daten weiterverarbeitet werden, aber die korrekt auf der Platte stehenden Daten, bleiben unberührt.

In beiden Fällen hat man ohne ECC RAM aber schon alleine das Problem, dass die Daten beim Schreiben auf den Fileserver ja auch erstmal im RAM landen und schon korrupt werden können, dann wiegt man sich mit ZFS nur im einer falschen Sicherheit, wenn es keinen Fehler meldet und denkt die Daten wären korrekt, obwohl sie schon korrupt geworden sind bevor ZFS seine Prüfsumme darüber berechnet hat. Bevor ich als auf ECC RAM verzichten um dafür ZFS zu verwenden, würde ich ECC RAM (und natürlich ein passendes System welches dies unterstützt) nehmen und auf ZFS verzichten.

Außerdem frage ich mich wovor ZFS denn eigentlich schützen soll, denn HDDs liefern keine korrupten Daten, sondern einen Lesefehler, wenn sie die Daten eines Sektors nicht mehr korrekt lesen und auch nicht anhand der ECC die hinter jedem Sektor steht, korrigieren können. Das wird dann ein schwebender Sektor werden. Jede halbwegs vernünftige RAID Lösung wird in einem RAID mit Redundanz (wer eines ohne aufsetzt ist selbst schuld), wird dann die Daten aus der Redundanz rekonstruieren und den Sektor auf der Platte überschreiben. Der Controller der Platte prüft beim Überschreiben schwebender Sektoren ob die neue Daten korrekt geschrieben wurden und wenn nicht, ersetzt er den Sektor durch einen Reservesektor, auf jeden Fall verschwindet aber der Schwebende Sektor wieder, weshalb HDDs in ordentlichen RAIDs auch nie schwebende, sondern allenfalls wiederzugewiesenen Sektoren haben.

Außer wenn die HDD also einen FW Bug hat oder Fehler auf den internen Datenpfaden, wobei zumindest die besseren HDDs gegen letzteres geschützt sind, was man auch an dem S.M.A.R.T. Attribut der Ende-zu-Ende Fehler erkennen kann. Die Übertragung ist bei SATA mit einer CRC32 pro FIS, also Paket mit bis zu 8192 Byte an Nutzdaten, abgesichert und die Wahrscheinlichkeit das eine CEC32 über 8kiB einen Fehler übersieht liegt im Bereich von 1:10^46, was mal 8k dann ein Vielfaches der ganzen Kapazität aller bisher produzierten HDDs ergibt. Damit fallen unerkannte Übertragungsfehler praktisch raus. Dann bleiben nur Fehler im Host Controller, bei der CERN Analyse von Slient Errors die gerne im Zusammenhang ZFS erwähnt wird, war genau da der Fehlern und da es wohl Server Hardware mit HW RAID Controllern war, dürften es auch SAS Enterprise HDDs gewesen sein, bei denen der RAID Controller noch mehr Verantwortung für die Fehlererkennung hat, da es üblich ist das die Hardware RAID Controller die SAS Platten auf 520 oder 528 Byte pro Sektor formatieren und in den zusätzlichen Bytes eine eigene ECC ablegen und die SAS Platten so konfigurieren, dass sie sofort die Rohdaten liefern, ohne eine eigene Fehlerkorrektur vorzunehmen. Dies vermeidet das die HDDs Verzögerungen verursachen weil sie durch wiederholtes Lesen die Daten problematischer Sektoren doch noch korrekt zu liefern. Das geht aber nur bei SAS Platten und legt damit die ganze Fehlererkennung und -korrektur in die Hände des Controllers.

Schon von daher ist die CERN Studie für jeden Heimanwender mit SATA Platten irrelevant und letztlich dürfte auch nicht jeder SAS Hardware RAID Controller solche FW Bugs haben wie die die bei CERN im Einsatz waren, aber ja, dagegen schützt ZFS dann natürlich, wenn man eben auch das Pech hat Host Controller oder HDDs mit FW Bugs zu haben die Datenkorruption verursachen. Aber wie viele solcher Fälle gab es in den letzten Jahren? Die HDD mit so einem FW Bug von der weiß war die Samsung F4EG, wo es im AHCI Modus durch das Auslesen der Device Ident Daten zu Datenkorruption im Cache der HDD kommen konnte. Das ist aber fast 10 Jahre her!

Interessanter ist bei CERN Analyse dagegen das Thema RAM Fehler:
Ob double bit errors zu Datenkorruption führen, hängt natürlich von der Art der ECC ab, bei Intel können die großen Plattformen auch double bit errors erkennen und korrigieren, nur die kleinen Xeons des Mainstreamsockels sind auf die Korrektur von mehrfachen bit errors eingeschränkt, können aber double bit errors zumindest erkennen und mit der richtigen Einstellung des OS kann auch rauf unkorrigierbare Bitfehler reagieren, z.B. mit einer kernel panic.

Daher würde ich immer zuerst ECC RAM nehmen, wenn es um die Sicherheit von Datenkorruption geht, ohne ECC RAM (und passendes System) braucht man sich darum keine Gedanken zu machen. Natürlich kosten ECC RAM i.d.R. mehr und das passende System meistens auch, während ZFS kostenlos ist, aber ZFS kann schon wegen der Gefahr das die Daten vor dem Erstellen der Prüfsumme oder auch nach dem erfolgreichen Lesen beim Transfer übers Netzwerk korrupt werden, ECC RAM einfach niemals ersetzen! Redet euch das nicht selbst ein und lasst euch dies auch nicht einreden.
 
  • Gefällt mir
Reaktionen: >/cat/proc und Reflexion
Kann vll jemand was hierzu sagen? WD My Book 10TB
Ich weiß, es kann hier niemand hellsehen, aber wenn die Platte einigermaßen passen würde, sehe ich die diese als absolutes P/L-Volltreffer.
 
@checkoff Die WD My Book 10TB ist top für den Preis, verglichen zur 8TB Variante und wird wohl Zukünftig wer dem Helium hinterherrennt auch deren Platz einnehmen. Warum sollte die Platte nicht passen ? Es ist nicht wie bei 4 und mehr TB der 2,5" HDDs die in wenige externe Gehäuse passen.

@Holt Danke für die ausführliche Erklärung,
ich habe mir u.a deine Aussage schon in einem anderen Forum durchgelesen zu ZFS. Die Sache dass ZFS auch ohne ECC sicherer wäre als bspw. Ext4, habe ich nicht von irgendeinen Noob (so auf dem Kopf gefallen bin ich nun auch wieder nicht). Ich habe nur aus Respekt hier keinen Namen genannt, die Person ist aber mit ZFS und Solaris immer ganz ausführlich.^^
Mich irritierte daher die Aussage zumal die ZFS weiter Entwicklung/Optimierung wie auch immer ja nicht stehen bleibt und wie du vlt weißt Qnap auf ZFS setzt (bei den etwas teureren Boxen) bei non ECC RAM.

Generell sind aber noch andere Faktoren vorhanden die das Risiko erhöhen können, Xeons werden nicht selten mit mindestens 4 Riegel ausgestattet bei Quad oder Octa-Channel-RAM auch logisch nur jeder weitere RAM jede dazugehörige Leiterbahn auf dem Mainboard ist doch wieder ein mögliches Risiko für einen Fehler, wie genau will ich denn abwägen ob der Heim "NAS" mit einem Pentium mit vlt nur 1 Riegel "ohne ECC" nicht doch weniger Fehlerpotenzial beherbergt...

Wie überprüfe ich eigentlich ob ECC-RAM wirklich Fehler erkennt denn ECC/Reg. RAM Riegel im Mainboard sitzend und vom Betriebssystem erkannt ist doch kein Fakt dass die Fehlererkennung/Korrektur erfolgt.
Wenn ich dich richtig verstehe ist man bei zbs Proxmox (Debian) ohne ECC RAM dann doch besser bei Ext4 aufgehoben (Xfs wäre ja auch dem BSB Lager)?
Zumindest wenn man kein zusätzliches Risiko einfahren möchte.
Dass man in Produktiven Rahmen auf ECC setzen möchte sollte logisch sein, ich möchte kein Zahlendreher bei sensiblen Kundendaten verantworten weil an der falschen Stelle gespart, nun ist es aber so dass nicht selten in der IT die Leute mit Lappys rumrennen und die haben meist ganz sicher kein ECC-RAM besitzen., korrupte Daten werden dann also bei Backups auf den peniblen Server geschrieben.. so richtig logisch ist dann für mich nicht.

Ein kleines weiteres Problem hatte man dann außerdem im Heimbereich wenn man auf Ryzen v1 und 2 setze, wie wir wissen mögen die Teile niedrige Latenz und hohen RAM takt beides eher schwierig bei ECC RAM..Timings und oc ist da meist nicht viel drin, wenn überhaupt. Was wiederum verständlich ist, erhöhtes Risiko von Fehlern.
 
Reflexion schrieb:
Die WD My Book 10TB ist top für den Preis, verglichen zur 8TB Variante und wird wohl Zukünftig wer dem Helium hinterherrennt auch deren Platz einnehmen.
Wobei WD schon vor einiger Zeit 10TB HDDs ohne Heliumfüllung eingeführt hat und es nur eine Frage der Zeit sein dürfte, bis auch die HDDs in den MyBook 10TB dann keine Heliumfüllung mehr haben.
Reflexion schrieb:
Mich irritierte daher die Aussage zumal die ZFS weiter Entwicklung/Optimierung wie auch immer ja nicht stehen bleibt und wie du vlt weißt Qnap auf ZFS setzt (bei den etwas teureren Boxen) bei non ECC RAM.
Was Qnap oder ein anderer Hersteller macht, ist deren Problem und das Problem der Kunden die sowas kaufen. Die NAS Hersteller sind mir sowieso nicht sympathisch, deren Hardware ist für das gebotene viel zu teuer und so manches was sie so als Enterprise vermarkten, würde ich niemals in einem Unternehmen einsetzen wollen. Schaut man dagegen auf die kleinen Microserver echter Serverhersteller, wie die kleinen von HP oder Dell, so verzichten die selbst bei den billigsten Geräte nicht auf ECC RAM. Aber vielleicht haben sie bei ZFS ja die Fehlerkorrektur deaktiviert, keine Ahnung ob dies geht, bei btrfs geht es und bei den NAS ohne ECC RAM wurde es bei zumindest einem der Hersteller auch so konfiguriert. Das beseitigt dann schon einmal das Problem das RAM Fehler dazu führen können, dass die korrekte die Korrektur vermeintlicher Fehler kaputtkorrigiert werden.
Reflexion schrieb:
Wie überprüfe ich eigentlich ob ECC-RAM wirklich Fehler erkennt denn ECC/Reg. RAM Riegel im Mainboard sitzend und vom Betriebssystem erkannt ist doch kein Fakt dass die Fehlererkennung/Korrektur erfolgt.
Normalerweise zeigt das Board dies im IPMI und / oder BIOS an, aber bei den AM4 Systemen kann man da nie sicher sein, die haben ja eben keine offizielle Unterstützung für ECC RAM, es ist eben eine Desktopplattform. Damit weiß man auch nicht ob sie Fehler korrekt ans Betriebssystem weitermelden, damit man es wenigstens dort sehen kann. Da musst Du hoffen das es funktioniert und zumindest die korrigierbaren RAM Fehler auch korrigiert werden, dafür ist die Hardware eben günstig zu haben. Erwartet nicht immer für billig das Gleiche wie für teuer zu bekommen, dem ist nicht so. Ein EPYC oder Xeon System kostet mehr, dafür ist dort ECC auch offiziell und die Boards können damit auch korrekt umgehen.
Reflexion schrieb:
nun ist es aber so dass nicht selten in der IT die Leute mit Lappys rumrennen und die haben meist ganz sicher kein ECC-RAM besitzen
Mein Notebook hat ECC RAM und einen Xeon, es gibt also auch Notebooks mit ECC RAM und wie immer muss jeder selbst entscheiden ob er es haben möchte oder nicht, ob es also für seine Anwendung wichtig oder verzichtbar ist und natürlich kostet so eine mobile Workstation mit einem Xeon und ECC RAM mehr.
Reflexion schrieb:
korrupte Daten werden dann also bei Backups auf den peniblen Server geschrieben.. so richtig logisch ist dann für mich nicht.
Wenn die Daten die am Notebook aufgenommen/verarbeitet werden so wichtig sind, dann hat man dort eines mit ECC RAM zu nehmen und sonst hat man wenigstens die Sicherheit das die Date nicht auf dem Server korrumpiert werden, womit das Risiko von Datenkorruption gemindert wird. 100%ige Sicherheit gibt es sowieso nicht, sondern nur mehr oder weniger Sicherheit und mehr Sicherheit bedeutet immer auch mehr Aufwand und auch mehr Kosten. Am nächsten an 100% Sicherheit kommen die Mainframes, da wird wirklich alles von der Hardware überwacht damit sich nirgends Fehler einschleichen, weshalb die bei Banken und Versicherungen bis heute nicht wegzudenken sind, obwohl deren Aussterben schon vor Jahrzehnten prophezeit wurde.

Am wenigsten hat man bei der normalen Desktop Hardware, die soll vor allem billig sein und es reicht wenn sie meistens bei den meisten Usern fehlerfrei arbeitet. Da wird nur etwas eingeführt was Fehler vermeidet, wenn dies nicht mehr gegeben wäre, so wie eben die CRC32 bei den SATA Laufwerken, die auch als Ultra-DMA CRC bekannt ist, weil die damals zusammen mit dem Ultra-DMA Modus bei IDE eingeführt wurde, da hatte man wegen der für damalige Zeiten und eine parallele Übertragung hohen Frequenzen einfach die Sorgen das es zu viele Übertragungsfehler geben würden. Ebenso jüngst bei DDR4, da wird die Übertragung ja auch mit einer CRC abgesichert, weil die Taktraten nun eben schon sehr hoch geworden sind und es ohne offenbar zu oft zu Übertragungsfehler gekommen wäre. Die ersetzt kein ECC RAM, weil ja Bitfehler im RAM selbst nicht erkannt werden, sondern nur Übertragungsfehler und ist wohl auch nur optional, bei erkannten Fehlern muss die Übertragung dann wiederholt werden, womit RAM Probleme erstmalig auch zu Performanceproblemen führen können, aber es zeigt das eben nur dann was gemacht wird wenn der Schuh drückt und dann auch nur eine billige Lösung, statt ECC für alle zur Pflicht zu machen.

Reflexion schrieb:
hohen RAM takt beides eher schwierig bei ECC RAM..Timings und oc ist da meist nicht viel drin, wenn überhaupt. Was wiederum verständlich ist, erhöhtes Risiko von Fehlern.
Einmal das und zum anderen kann man bei Servern die RAMs sowieso nicht übertakten, so dass die Hersteller die taktfreudigsten Dies dann wohl lieber für die OC RAM Riegel für Gamer verwenden, statt sie auf die ECC Riegel zu löten. Es reicht auch wenn bei Auswahl der Chips für die ECC Riegel gar nicht geprüft wird wie hoch die überhaupt taktbar wären, sondern man nur schaut ob sie den vorgesehene Takt schaffen, dann können da 8 Chips drauf sein die locker 4000 packen würden, wenn der 9. nur 3000 schafft, bringt dies auch nicht.

Es gibt eben einfach keinen Markt für OC ECC RAM.
 
  • Gefällt mir
Reaktionen: Reflexion
Hallöchen,

ich plane die Anschaffung eines NAS und suche gerade nach passenden Platten.

Gewünschte Gesamtgröße sind 4 TB (d.h. 2x 4 TB im RAID-Verbund). Herstellertechnisch bin ich seit langer Zeit mit WD sehr zufrieden, habe dort aber auch die Aufregung um SMR und CMR bei den WD Red mitbekommen.

Würde man als Otto-Normal-Heimanwender jetzt die WD Red Plus (https://geizhals.de/western-digital-wd-red-4tb-wd40efrx-a992027.html?hloc=at&hloc=de) nehmen?
 
Wenn Du keine mit SMR haben willst, dann solltest Du statt der Red die Red Plus nehmen, oder nimm doch die IronWolf, die ist günstiger und auch ohne SMR.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

O
Antworten
525
Aufrufe
107.998
J
Zurück
Oben