News AMD Great Horned Owl: Ryzen Embedded V1000 löst die R-Serie ab

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.717
Rein aus Neugier, habt ihr so oft kippende BITs, dass ihr ECC braucht?

BTT:

Wieder nur GBE. Dieses Jahr wird wohl nicht mehr das Jahr wo es mit 10 GBE richtig losgeht?
 
Was meinst du mit "so oft"? Wie stellst du es ohne ECC überhaupt fest?

Nur soviel: Einmal bei einem Speichersystem genügt und das Filesystem ist nachhaltig korrumpiert.
 
Sicher, dass die APU Great Hornet Owl heißt? Dass Tier heißt nämlich great horned owl.

Edit: so steht es sogar in der alten News.
 
  • Gefällt mir
Reaktionen: DON.HEROUR
@Wattwanderer

10gbe hat sich in einigen Bereichen doch längst durchgesetzt und wird verwendet. Lediglich beim Consumer ist es noch nicht so Recht angekommen. Aber ganz ehrlich, der Nutzen ist da auch ziemlich gering... Und die großen Plattformen bieten ja auch entsprechende Mainboards. Die meisten haben zu Hause einfach nicht die Infrastruktur, um 10gig sinnvoll zu nutzen, daher setzt es sich auch eher schleppend durch.
 
  • Gefällt mir
Reaktionen: DON.HEROUR
Haben die neuen Produkte gleich vom Start aus Microcodeupdates gegen Spectre und Meltdown? Werden also gleich mit einem neuen Microcode ausgeliefert?
 
Shoryuken94 schrieb:
@Wattwanderer

10gbe hat sich in einigen Bereichen doch längst durchgesetzt und wird verwendet. Lediglich beim Consumer ist es noch nicht so Recht angekommen. Aber ganz ehrlich, der Nutzen ist da auch ziemlich gering... Und die großen Plattformen bieten ja auch entsprechende Mainboards. Die meisten haben zu Hause einfach nicht die Infrastruktur, um 10gig sinnvoll zu nutzen, daher setzt es sich auch eher schleppend durch.

Ja leider ist es genau das Problem. Solange die Mainboard-Hersteller eben kein 10GBE verbauen bringt das herzlich wenig. Wenn die den Anfang machen würden wie z.B. Biostar bei einigen Boards (verbaut 5GBE) würde der Rest auch schneller nachziehen. Immerhin gibt es ja Lösungen mit dem RJ45 Standard. Der Umstieg von 100MBit auf 1GBit war schon extrem zu spüren, von 1 auf 10 wird es aktuell nicht so sein. Noch nicht.
 
@Chrissi1303

Wie gesagt, es gibt ja einige wenige Mainboards.die sowas haben. Das Problem ist einfach, dass die meisten zu Hause überhaupt nicht die Infrastruktur haben, um 10gig sinnvoll zu nutzen. Das fängt bei der passenden Verkabelung an, geht über die benötigten switches und endet bei genug sinnvollen Anwendungsfällen.

Wenn man aktuell 10gig braucht, wird man wahrscheinlich eine entsprechende Plattform haben oder sich entsprechende Netzwerkkarten kaufen (sind meist sogar günstiger als der Aufpreis für die Mainboards)

10gig ist aktuell noch zu teuer, zu stromhungrig und der Nutzen privat zu klein. Zumal Thunderbolt, USB 3.1 Gen2 und co. Vielen privat oftmals kostengünstigere Alternativen sind, wenn beispielsweise nur ein storage angebunden werden soll. Der wirkliche nutzen ist noch nicht vorhanden, anders als bei 100mbit auf 1gibit.

Beim Consumer ist der Nutzen immer gedeckelt. Ähnlich wie bei PCI-e SSDs, die privat auch kaum Vorteile bringen. Aktuell ist der Bedarf noch nicht da. Daher wundert es mich nicht, dass billige Mainboards noch nicht auf 10gbe setzen. Dafür ist es einfach noch nicht günstig genug, um es einfach so zu verbauen.
 
Zuletzt bearbeitet:
Das Problem mit 5GBE und 10GBE ist, dass die Dinger pro Port bis zu 5W Leistung ziehen. Das kommt in Tests, die die Idle-Verbräuche vergleichen, halt relativ schlecht an, wenn das Board 10W für gefühlt nichts aus der Steckdose zieht. (Dass das nicht "Nichts" ist, ist mir auch klar. Nur da die wenigsten 5GBE oder 10GBE-Switches haben, bleibt von 10GBE halt derzeit nur "braucht mehr Strom".)

Regards, Bigfoot29
 
CoffeeJunkie schrieb:
Sicher, dass die APU Great Hornet Owl heißt? Dass Tier heißt nämlich great horned owl.

Naja, aus der großen gehörnten Eule wird dann eben mal schnell eine große Hornisseneule gemacht, letzterer würde ich in aber nicht begegnen wollen (man denke an den Stachel) :D ...
 
gaelic schrieb:
Was meinst du mit "so oft"? Wie stellst du es ohne ECC überhaupt fest?

Nur soviel: Einmal bei einem Speichersystem genügt und das Filesystem ist nachhaltig korrumpiert.

Und? Hast du das so häufig, dass du mit ECC RAM auf Besserung hoffst?
 
Er sprach von Filesystem, wenn man sich mit den Dingern ein NAS zusammenschrauben will, sollte man schon wert auf ECC legen. ZFS und ECC, die Basis für ein gutes Storage.
 
Was wirklich erwähnenswert ist: Alle Raven Ridge bieten ECC Unterstützung. Damit lassen sich also kleine Server mit integrierter Grafik auf AM4 realisieren. Sogar im mITX Format mit 10gbE.

Sprich einen Server mit 8 Threads, 65W TDP, OpenCL fähiger GraKa, 10gb Ethernet und ECC support im mITX Format ist überhaupt kein Prob.

Das gibts bei Intel nur sehr viel höherpreisig.
 
Zuletzt bearbeitet:
don.redhorse schrieb:
Er sprach von Filesystem, wenn man sich mit den Dingern ein NAS zusammenschrauben will, sollte man schon wert auf ECC legen. ZFS und ECC, die Basis für ein gutes Storage.

Ich meinte durchaus auch korrupte Filesysteme.

Eigentlich ein seltenes Phänomen. Meist passierte das durch Stromausfall oder Totalabsturz. Dann ist fehlendes BIT das allerkleinstes Problem. Meist fehlen KBytes bis MBytes. Allerdings geben sich die Filesystementwickler viel Mühe passende Reparaturwerkzeuge mitzugeben. So dürfte Komplettverlust wirklich sehr selten sein. Problematischer sind wohl kippende BITs bei den Daten die womöglich aus einer 10 ein 11 machen...

Bisher habe ich mantramäßige Wiederholung von ZFS und ECC gehört aber nie jemanden gefunden der plausibel erklären konnte warum RAM ein Problem ist und wenn das so ist, nicht auf "RAID 1" Modus geht sondern sich nur mit ECC begnügt.

IBM hatte durchaus auch bei kleineren Servern unter 2000 EUR einen Betriebsmodus gehabt wo man RAMs spiegeln konnte.

Ich meine auch Server unter Hochlast laufen ohne ECC ewig durch. Wäre ein BIT gekippt, dann wäre er mit hoher Wahrscheinlichkeit abgestürzt.
 
Great horned owl. AMD hat es im Moment echt drauf mit coolen Namen.
 
Wattwanderer schrieb:
Bisher habe ich mantramäßige Wiederholung von ZFS und ECC gehört aber nie jemanden gefunden der plausibel erklären konnte warum RAM ein Problem ist und wenn das so ist, nicht auf "RAID 1" Modus geht sondern sich nur mit ECC begnügt.

IBM hatte durchaus auch bei kleineren Servern unter 2000 EUR einen Betriebsmodus gehabt wo man RAMs spiegeln konnte.

Weil das die Standard-Hardware gar nicht kann? Dazu müsste der Speichercontroller so etwas wie Raid-Fähigkeiten bieten (und man verliert 50% der Speicherkapazität bei einem Mirroring-RAID). ECC bietet genügend Schutz gegen Bit-Flipping und andere "Desasterchen", die im Regelbetrieb auftreten können, ohne dass man die doppelte Speichermenge verbauen müsste. (Wie gesagt, für Hochverfügbare, hochtolerante Systeme ist das nochmal was anderes. Aber in diese Kategorie gehört ein NAS für 250 Euro wohl definitiv eher nicht.) Und IBM hat mit den Power-CPUs halt noch immer Mainframe-Knowhow und Fähigkeiten. Die konnten (und können) es sich sogar erlauben, inMemory-DBs aufzusetzen, die ihre Daten nur bei Bedarf und dann für den Nutzer unsichtbar ihre Daten auf den Platten abzulegen. Die Dinger brauchen dann andere Fehlertoleranzen als Stangen-x86-Hardware.

Und ob Server Ewigkeiten ohne Bitfehler durchlaufen, kriegst Du gar nicht mit. Korrumpierte Daten z.B. auf nem DB- (oder File-)Server merkst Du erst, wenn jemand mal versucht, das - dann korrumpierte - Objekt wieder zu laden. Und selbst dann nur, wenn der Fehler nicht in redundanten Daten liegt. Wobei das dann viele aufs "bit rotting" der Platten schieben.

Mit Rowhammer kann man solche RAM-Fehler übrigens sogar forcieren. Und mit guter ECC-Hardware werden die Fehler nicht nur erkannt sondern sogar transparent behoben. Da steht dann nur in den Logs, dass es einen Incident gab, der wiederhergestellt werden konnte.

Regards, Bigfoot29
 
Wattwanderer schrieb:
Ich meinte durchaus auch korrupte Filesysteme.
Eigentlich ein seltenes Phänomen.

Ja, aber: bei Stromausfall und Absturz sind die Filesysteme gewappnet und erkenne über die Metadaten und Prüfsummen wo etwas nicht stimmt.
Problematischer sind wohl kippende BITs bei den Daten die womöglich aus einer 10 ein 11 machen...

Bisher habe ich mantramäßige Wiederholung von ZFS und ECC gehört aber nie jemanden gefunden der plausibel erklären konnte warum RAM ein Problem ist und wenn das so ist, nicht auf "RAID 1" Modus geht sondern sich nur mit ECC begnügt.
Weil: wenn im RAM etwas schiefgeht (Bitflip) dann ist für ZFS dennoch alles in Ordnung und der Fehler wird mitgeschrieben und hier beginnt das Problem:
http://jrs-s.net/2015/02/03/will-zfs-and-non-ecc-ram-kill-your-data/

Ich meine auch Server unter Hochlast laufen ohne ECC ewig durch. Wäre ein BIT gekippt, dann wäre er mit hoher Wahrscheinlichkeit abgestürzt.

Nein, das muss nicht sein. Wenn irgendwo in den Daten ein Bit gekippt ist (z.b. eine Bilddatei, Video, etc.) dann macht das erstmal gar nichts, vielleicht merkt man es nichtmal, vielleicht fehlt ein Frame, vielleicht ist aber die Datei danach korrupt.

Und nein, es muss auch nach 2 Jahren kein Problem auftreten. Aber siehe Link von oben, wenn dann ist man bei einem Speichersystem arm dran. Und Speichersysteme sind auch etwas besonderes: meist greift man erst nach Jahren wiedermal auf eine Datei zu, z.b. alte Bilder. Und dann merkt man daß ein paar kaputt sind.
 
@Computerbase

Könnt ihr in Zukunft bitte mit einem ersten, leicht verständlichen Satz erklären, wovon der Artikel handelt bzw. für welche Zielgruppe und welchen Zweck das thematisierte Produkt gedacht ist? Verstehe nur Bahnhof.
 
Zurück
Oben