Notiz Jetzt verfügbar: 32 GB DDR4 UDIMM (mit ECC) von Samsung

HtOW schrieb:
Ich kenne mich beim Thema RAM nicht wirklich au aber ist Dual ranked nicht schneller als Single Ranked?

Das kommt ganz auf den Anwendungsbereich an und Dual Ranked ist jetzt kein exklusives Alleinstellungsmerkmal der neuen M-Dies.

Was neu ist, ist die Verfügbarkeit von 16 GB DIMMs als Single Ranked Modul. Single Ranked Module lassen sich in der Regel besser takten.

Faustregel: 0,5 - 1,5 Taktstufen Vorteil für Dual Ranked [und auch nur in Ausnahmefällen.] Dual Ranked erhöht zudem die Lese-, Schreib- und Kopierdurchsätze.

Wenn du dich in Sachen Single Ranked VS Dual Ranked mal vollumfänglich informieren willst, empfehle ich den exzellenten Leserartikel von @Baal Netbeck, anschließend war auch ich schlauer. :)
 
  • Gefällt mir
Reaktionen: fox40phil, Smartbomb und HtOW
RYZ3N schrieb:
Das kommt ganz auf den Anwendungsbereich an und Dual Ranked ist jetzt kein exklusives Alleinstellungsmerkmal der neuen M-Dies.

Was neu ist, ist die Verfügbarkeit von 16 GB DIMMs als Single Ranked Modul. Single Ranked Module lassen sich in der Regel besser takten.

Faustregel: 0,5 - 1,5 Taktstufen Vorteil für Dual Ranked [und auch nur in Ausnahmefällen.] Dual Ranked erhöht zudem die Lese-, Schreib- und Kopierdurchsätze.

Wenn du dich in Sachen Single Ranked VS Dual Ranked mal vollumfänglich informieren willst, empfehle ich den exzellenten Leserartikel von @Baal Netbeck, anschließend war auch ich schlauer. :)

Viele Dank :)
 
  • Gefällt mir
Reaktionen: SVΞN
mikeStevens schrieb:
Alle anderen Mainboards starten einfach nicht.
Wenn die Boards nicht starten, dann hast du aber falschen RAM, also registred oder buffered RAM für Server in einen Desktop gesteckt. Ist schon klar, dass diese nicht laufen
 
Laut einer bekannten Google-Studie liegen die Fehlerraten von Server-RAM bei 8% pro DIMM pro Jahr.
Aslo schrieb:
Ich hatte in über 20 Jahren noch keinen rambedingten Systemfehler.
Das kannst du ohne ECC gar nicht wissen... denn RAM-Fehler werden dann gar nicht erst erfasst.
Aslo schrieb:
Braucht man ECC wirklich?
Wenn du dir keine Datenkorruption leisten kannst, brauchst du ECC.
 
  • Gefällt mir
Reaktionen: Kazuja, up.whatever und darkcrawler
mikeStevens schrieb:
Nach meinen Erfahrungen liegt die Quote eher so bei 15-20%.
Alle anderen Mainboards starten einfach nicht.
Da bin ich nun nicht sicher worauf sich das bezieht, aber vermutlich auf die Frage ob Boards die kein ECC RAM unterstützen auch mit ECC RAM laufen und da würde ich bei der Quote auf das Gleiche wie rg88 tippen:
rg88 schrieb:
Wenn die Boards nicht starten, dann hast du aber falschen RAM, also registred oder buffered RAM für Server in einen Desktop gesteckt. Ist schon klar, dass diese nicht laufen
Man muss halt schon aufpassen was für RAM es ist, denn wenn Board kein ECC unterstützen, schlucken sie in aller Regel nur UDIMM, also unbuffered RAM. Die meisten gebrauchten Server RAM die billig in der Bucht zu bekommen sind, sind aber RDIMM, also registered RAM und die laufen dann in diesen Boards natürlich nicht.
 
Das Board erkennt vorhandenes ECC nur an der Programmierung des Moduls.
Ändert man das Byte (und korrigiert die Checksumme), merkt das Board vom vorhandenen ECC nichts mehr.
Daraus leitet sich auch ab dass jedes Consumer Board mit ECC UDIMMs booten sollte (ohne es zu nutzen) es sei denn beim Boot wird das ECC Byte explizit überprüft und ggf. abgelehnt.
Und genau das, also ob das Byte geprüft wird oder nicht, kann der Endkunde nicht feststellen.


RYZ3N schrieb:
Was neu ist, ist die Verfügbarkeit von 16 GB DIMMs als Single Ranked Modul
Nicht die Verfügbarkeit, lediglich die Möglichkeit diese theoretisch zu bauen.
Ein 16Gbit Die ist aktuell viel teurer als 2 8Gbit Dies. Daher wird man 16GB auch noch mehrere Monate lang exklusiv als Dual Rank bauen.
Zudem glaube ich nicht dass der M-Die als erste Generation sich sonderlich gut tweaken lässt, auch wenn er als nativer 2933er Chip designt ist, aber halt mit CL21.
Nicht zu vergessen dass die 16Gbit Chips nochmal höhere Subtimings haben und diese ja insbesondere bei Ryzen eine große Rolle spielen können.

Der swap auf 16GB single rank ergibt also aufm Papier aktuell erstmal keinen Sinn.
 
Aslo schrieb:
Ich hatte in über 20 Jahren noch keinen rambedingten Systemfehler. Braucht man ECC wirklich? Würde mir als Serverbetreiber die Mehrkosten sparen und einfach stinknormalen Consumerram einbauen.

Wie will man ohne ECC feststellen das der RAM kein Problem hatte?
Ergänzung ()

Blutschlumpf schrieb:
Wer was baut was bei nem gekippten Bit über den Jordan geht, der hat imho eh schon verloren.

Sowas kann mit einem kaputten Bit in die Hose gehen:

C:
if (foo) {
printf("%s\n", "You are dead");
} else{
 printf("%s\n", "You win");
}
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kazuja
Artikel-Update: Allmählich erreichen auch Samsungs 32-GB-UDIMMs ohne ECC den Handel. Die Preise für ein Modul mit der Kennung M378A4G43MB1-CTD beginnen bei 185 Euro. Es handelt sich um die bisher einzigen regulären DDR4-UDIMMs mit 32 GB im Endkundenhandel. Im Jahresverlauf sind auch 32-GB-UDIMMs von Micron zu erwarten.

Auf den DDR4-Modulen mit den Kennungen M378A4G43MB1-CTD (UDIMM ohne ECC), M391A4G43MB1-CTD (UDIMM mit ECC) und M471A4G43MB1-CTD (SO-DIMM/UDIMM) kommen Samsungs neue 16-Gigabit-DRAM-Chips zum Einsatz. In der ersten Revision werden diese mit einem „M“ gekennzeichnet, weshalb auch von den neuen M-Dies gesprochen wird.
 
  • Gefällt mir
Reaktionen: fox40phil
Aslo schrieb:
Braucht man ECC wirklich? Würde mir als Serverbetreiber die Mehrkosten sparen und einfach stinknormalen Consumerram einbauen.

Kommt auf die Server an. Irgendwelche 0815 Dateiserver brauchen das bestimmt nicht. Durch Prüfsummen können in der Software Fehler abgefangen werden und notfalls eine Datei oder Fragment erneut geladen werden, die durch einen RAM-Fehler etwas falsches übermittelten.

Das Betriebsysstem sollte zudem vor RAM-Fehlern ausreichend schützen und notfalls Programme beenden und neu starten. Die Programme müssen natürlich auch so gestaltet sein, dass sie genau das problemlos mitmachen. (auch mit ECC-RAM kann das passieren)

Bei Number-Crunchern sieht die Sache anders aus, sofern man Teilergebnisse nicht ebenfalls mit Prüfsummen absichern kann.

Auch bei Geldsystemen ist ECC nicht unbedingt nötig, da man dort Ergebnisse eh doppelt verifiziert. Und das wegen eines Bitfehlers 2x genau der gleiche Fehler an der gleichen Stelle ausgelöst wird ist doch sehr sehr unwahrscheinlich.
Ergänzung ()

foofoobar schrieb:
Wie will man ohne ECC feststellen das der RAM kein Problem hatte?

Das erkennen moderne Betriebssysteme automatisch und markieren entsprechende Bereiche, damit diese nicht mehr genutzt werden.
 
  • Gefällt mir
Reaktionen: Aslo
Wattwanderer schrieb:
Es wird halt viel Paranoia geschoben, noch mehr Unsinn erzählt die dann bereitwillig wiederholt werden.

Am meisten ist mir das bei FreeNAS aufgefallen. Best Practices die für Enterprise Umgebung gelten werden nahtlos für Homeserver übernommen auf dem womöglich Daten landen die man im Internet in wenigen Stunden wieder herunterladen kann. Dann schwirren die irrsinnigsten Theorien wie Dateien bei ZFS kaputt gehen kann obwohl mit viel Hirnschmalz gegen kippenden BITs vorgesorgt wurde.

Erkläre mir mal wie FreeNAS / ZFS ein gekipptest Bit im RAM verhindern soll? Oder wie das Filesystem gegen ein gekipptest Bit "vorsorgen" soll.

Szenario 1: Bit im RAM ist gekippt, gehört zu einer Datei -> die Datei wird fehlerhaft beschrieben, Filesystem ist konsistent; insofern kein Problem, es ist nur diese Datei kaputt oder zumindest teilweise kaputt

Szenario 2: das "Schlimmere", Bit im RAM kippt, und zwar ausgerechnet eines wo gerade eine Checksum im Filesystem berechnet wurde. Das heißt in Folge wird die Checksum falsch geschrieben und das kann unter Umständen (extrem unwahrscheinlich) das Filesystem beeinträchtigen; zumindest stellt sich beim Lesen der Datei die Frage: ist nun die Checksum falsch oder hat die Datei ein Problem

Insofern ist gerade bei Dateisystemen mit Checksums ECC sehr anzuraten.

Blutschlumpf schrieb:
Wer was baut was bei nem gekippten Bit über den Jordan geht, der hat imho eh schon verloren.

Ich drehs mal um: was geht bei einem gekippten Bit nicht über den Jordan?
Ergänzung ()

flappes schrieb:
Das erkennen moderne Betriebssysteme automatisch und markieren entsprechende Bereiche, damit diese nicht mehr genutzt werden.

Wie soll das denn funktionieren?
 
  • Gefällt mir
Reaktionen: Rego
flappes schrieb:
Das erkennen moderne Betriebssysteme automatisch und markieren entsprechende Bereiche, damit diese nicht mehr genutzt werden.

Gibt es dazu auch ein KB Artikel der das bestätigt? Wäre sehr interessant wenn es tatsächlich so wäre.
 
flappes schrieb:
Das erkennen moderne Betriebssysteme automatisch und markieren entsprechende Bereiche, damit diese nicht mehr genutzt werden.

Echt? Und welche Betriebssysteme sind das und wie funktioniert das?
--> ernst gemeinte Frage.
Analog dazu, bei schwebenden oder "kaputten" Sektoren einer Festplatte weiß das OS davon ja auch nichts, nur der controller der HDD speichert eben genau dort nichts mehr ab.
Stimmt das so, zB @Holt

RAM testet man ja indem man von einem externen Medium zB USB stick, ein Programm startet, welches des RAM überprüft (ohne vorher was in den RAM zu laden, denn man würde dann ja nicht mehr den vollen RAM zur Verfügung haben zum Testen).
Wird jetzt zB von memtest86+ fehlerhafter RAM entdeckt, was macht man dann? Richtig, gegen neuen RAM tauschen!
Woher weiß man aber, genau welcher Riegel (ok, einzeln testen) und genau welcher Bereich für die "Fehler" verantwortlich ist?
UND: woher sollte ein OS das dann wissen und wie soll das OS(!) verhindern, dass genau in einem Teilbereich des RAMs, nix mehr geschrieben und gelesen wird?

Ich glaube du verwechselst das eben mit fehlerhaften Sektoren einer HDD.

Grüße
 
gaelic schrieb:
Szenario 2: das "Schlimmere", Bit im RAM kippt, und zwar ausgerechnet eines wo gerade eine Checksum im Filesystem berechnet wurde. Das heißt in Folge wird die Checksum falsch geschrieben und das kann unter Umständen (extrem unwahrscheinlich) das Filesystem beeinträchtigen; zumindest stellt sich beim Lesen der Datei die Frage: ist nun die Checksum falsch oder hat die Datei ein Problem

Insofern ist gerade bei Dateisystemen mit Checksums ECC sehr anzuraten.

Die Checksumme könnte mehrfach berechnet werden, bevor sie gespeichert wird und der gesamte Vorgang wird erst abgeschlossen, wenn die mehrfach testweise eingelesene Checksumme den noch vorgehaltenen entspricht. Nur mal ins blaue gedacht ... da gibt es sicherlich gängige Methoden.
 
user2357 schrieb:
Die Checksumme könnte mehrfach berechnet werden, bevor sie gespeichert wird und der gesamte Vorgang wird erst abgeschlossen, wenn die mehrfach testweise eingelesene Checksumme den noch vorgehaltenen entspricht. Nur mal ins blaue gedacht ... da gibt es sicherlich gängige Methoden.
Das will man auf keinen Fall machen da es sehr viel kostet (CPU & RAM). Unter anderem ist ZFS deswegen so gierig auf Ressourcen weil permanent checksums gerechnet werden; checksums rechnen ist sehr CPU intensiv, und natürlich geht das ganze nicht ohne Schreibvorgänge bzw. vorrätighalten der Daten im RAM.
Kurz: man will nicht unbedingt einen Server ohne ECC betreiben, schon gar nicht um ein paar € einzusparen.
 
Was für ein Haufen an Irrtümern hier, ich versuche mal etwas aufzuklären.
flappes schrieb:
Irgendwelche 0815 Dateiserver brauchen das bestimmt nicht. Durch Prüfsummen können in der Software Fehler abgefangen werden und notfalls eine Datei oder Fragment erneut geladen werden, die durch einen RAM-Fehler etwas falsches übermittelten.
Nein, gerade bei Fileservern bei denen man die Daten vor Korruption schützen will, ist ECC RAM extrem wichtig, wie es auch Matthew Ahrens, Mitentwickler des ZFS-Dateisystems, schreibt:
Man beachte die Reihenfolge, zuerst empfiehlt er ECC RAM und dann erst oben drauf ein Filesystem mit Prüfsummen wie ZFS zu verwenden, wenn man seine Daten liebt und vor Korruption schützen möchte! Gar einfach schon deshalb, weil die Daten erst ins RAM kommen, bevor das Filesystem seine Prüfsummen überhaupt berechnet und dann sind sie ggf. schon korrupt, während man aber glaubt, sie wären korrekt, weil das Filesystem dies ja so sieht, denn es weiß ja nicht, dass sie schon vorher durch einen RAM Fehler korrupt geworden sind. Ebenso können sie korrupt werden, nachdem sie gelesen wurden, aber bevor sie zum Zielrechner gehen.
flappes schrieb:
Das Betriebsysstem sollte zudem vor RAM-Fehlern ausreichend schützen und notfalls Programme beenden und neu starten.
Wie sollte dies denn gehen, wenn es gar nicht weiß was in den RAM Adressen stehen sollte? Da wird A geschrieben und B gelesen, nur weiß dann keiner mehr, dass dort A stehen sollte. Mit ECC RAM und dem entsprechenden System kann ein OS vom RAM Controller erfahren, wo korrigierbare RAM Fehler aufgetreten sind und wann es einen unkorrigierbaren Fehler gibt und darauf reagieren, aber ohne ist dies schlicht und ergreifend unmöglich.
flappes schrieb:
Die Programme müssen natürlich auch so gestaltet sein, dass sie genau das problemlos mitmachen. (auch mit ECC-RAM kann das passieren)
Auch hier, wie soll das gehen? Die könnten allenfalls selbst Prüfsummen über eigene Daten erstellen, aber wenn diese sich dauern ändern, dann wären der Aufwand gewaltig und die Performance grottig und dies nur um ein Problem zu vermeiden, welches im der passenden Hardware ohne Leistungsverlust auch zu verhindern ist. Wenn es also wichtig ist, dann nimmt man die passende Hardware mit ECC RAM und sonst ist es auch egal ob die Daten korrekt sind oder das Programm abstürzt. Consumer Hardware soll billig sein und es wird solange nichts gegen RAM Fehler unternommen werden, wie dies nicht zu oft passiert.
flappes schrieb:
Das erkennen moderne Betriebssysteme automatisch und markieren entsprechende Bereiche, damit diese nicht mehr genutzt werden.
Wie sollte dies ohne die passende Hardware mit ECC RAM denn möglich sein? Es ist ohne ECC RAM nicht möglich RAM Fehler als solche zu erkennen. Die Testprogramme wie Memtest86 können dies nur, weil sie bestimmte Daten ins RAM schreiben und dann beim Auslesen eben wissen, was für Daten sie zu bekommen erwarten, was aber eben bei der normalen Nutzung nicht geht.
Cool Master schrieb:
Gibt es dazu auch ein KB Artikel der das bestätigt? Wäre sehr interessant wenn es tatsächlich so wäre.
So ist es nicht. Es gibt zwar die Möglichkeit z.B. über wmic auch bei Windows auf System ohne ECC RAM auszulesen ob es RAM Fehler gab, aber da können dann ja nie welche drin stehen, wenn keine erkannt werden können, weil es kein ECC RAM gibt und damit von der Hardware gar keine Meldungen über RAM Fehler dort hinterlegt werden können. Dies verleitet dann leider viele zu der Fehlannahme es gäbe keine RAM Fehler auf ihrem System oder man können eben solche Dinge wie die von denen flappes träumt oder irgendwo gelesen hat.
Smartbomb schrieb:
bei schwebenden oder "kaputten" Sektoren einer Festplatte weiß das OS davon ja auch nichts, nur der controller der HDD speichert eben genau dort nichts mehr ab.
Stimmt das so, zB @Holt
Schwebende Sektoren sind einfach nur Sektoren deren Daten nicht mehr zur ECC passen die hinter jedem Sektor steht und die mit deren Hilfe auch nicht mehr korrigiert werden können. Da die korrekten Daten nicht mehr feststellbar sind, gibt die Platte statt falscher Daten einen Lesefehler als Antwort wenn man versucht diese schwebenden Sektoren zu lesen. Von daher weil das Betriebssystem bzw. bei HW RAID Controllern dann der Controller von dem Schwebenden Sektor und HDDs in einem echten RAID, also einem mit Redundanz (also nicht bei einem RAID 0, welches eigentlich ein AID 0 ist) zeigen daher normalerweise keine schwebenden Sektoren, weil die RAID Controller (ggf. RAID SW) bei Lesefehlern die Daten aus den Daten der anderen Platten rekonstruiert und den Sektor überschreibt bei denen der Lesefehler aufgetreten ist. Die Controller merken sich die schwebenden Sektoren und prüfen die Daten nach dem erneuten Schreiben auf diese Sektoren, dann verschwinden diese einfach oder werden eben durch Reservesektoren ersetzt, nur dann wird dort wirklich nichts mehr gespeichert.

Schwebende Sektoren können nämlich auch anderen Gründe als defekte Oberflächen haben, z.B. einen Stromausfall während eines Schreibvorgang der dazu führt, dass eben nicht die ganze Daten plus der neuen ECC geschrieben wurden oder wegen eines Stoßes oder Vibrationen ist der Kopf beim Schreiben aus der Spur gekommen und hat Daten auf der Nachbarspur überschrieben. Auch arbeiten HDDs nicht 100%ig und die Hersteller geben die Fehlerhäufigkeit auch in Form der UBER an, wobei eine UBER von 1:10^14 bedeutet, dass je 10^14 gelesener Bits was etwa 12TB gelesener Daten entspricht, ein Lesefehler und damit schwebender Sektor im Rahmen der Erwartungen liegt.
Smartbomb schrieb:
RAM testet man ja indem man von einem externen Medium zB USB stick, ein Programm startet, welches des RAM überprüft
Eben, damit man wirklich weiß welches RAM man testet, die Betriebssysteme haben nämlich eine eigene Speicherverwaltung und daher weiß der RAM Test nicht welche RAM Bereiche er wirklich testet.
Smartbomb schrieb:
Wird jetzt zB von memtest86+ fehlerhafter RAM entdeckt, was macht man dann? Richtig, gegen neuen RAM tauschen!
Oder man lässt den RAM Bereich ausblenden, nicht nur bei Linux, sondern auch bei Windows mit bcdedit /set {badmemory} badmemorylist .... Nach dem Reboot nutzt Windows diese künftig nicht mehr und man kann auch mit RAM die defekte Bereiche haben problemlos arbeiten.
user2357 schrieb:
Die Checksumme könnte mehrfach berechnet werden, bevor sie gespeichert wird
Der Aufwand wäre so hoch, dass die Performance grottig wäre und es ist auch sinnlos etwas mit so viel Aufwand beheben zu wollen, was sich mit Hardware für recht kleines Geld auch vermeiden lässt. Kein SW-Entwickler würde sich die Mühe machen seine Software extra gegen RAM Fehler zu sichern, wenn man diese doch einfach mit ECC RAM vermeiden kann. Dies ist bei ZFS nicht anderes, ZFS soll Fehler der Platten, deren Host Controller etc. erkennen und vermeiden, ist aber für Server entwickelt worden und die haben eben ECC RAM und schützen sich mit Hardware vor RAM Fehlern, so dass es gar nicht nötig ist dies mit Software zu versuchen.
 
  • Gefällt mir
Reaktionen: 0xffffffff, h00bi, Blaze1987 und 7 andere
Blutschlumpf schrieb:
Wer was baut was bei nem gekippten Bit über den Jordan geht, der hat imho eh schon verloren.

Im Gegenteil:

gaelic schrieb:
Ich drehs mal um: was geht bei einem gekippten Bit nicht über den Jordan?

Offenbar geht die Vorstellungskraft nicht darüber hinaus, dass bei einem gekippten Bit in einem Bild ein einzelner Pixel die falschen Farbe hat. Es wäre schön, wenn es so gutmütig wäre. Nein, ein einzelnes gekipptes Bit kann Zahlen im Speicher oder Programmcode verändern. Im besten Fall stürzt dann nur der Rechner ab. Im schlimmsten Fall bleibt der Fehler unentdeckt, und dann wird aus dem Fehler im Computer ein Fehler in der realen Welt.

Das ist jetzt kein Beispiel für ein gekipptes Bit, aber die Fehlerquelle ist ähnlich simpel: Beim ersten Start der Ariane 5 ist ein Zähler übergelaufen. Ein vorzeichenbehafteter 16bit-Integer-Wert ist über sein positives Maximum +32767 hinaus gelaufen und dann geht es bei -32768 weiter. Beim einem gekippten Bit kann genau das Gleiche passieren. Die Rakete bekam dadurch quasi die Anweisung, zur Startrampe zurück zu kehren, und die folgende Notsprengung zerstörte Satelliten für fast 300 Millionen Euro.

Und nein, diese Fehler kann man in der Regeln nicht erkennen. So weit, während jedweder Programmausführung alle Daten ständig über Prüfsummen gegenzuchecken, so weit geht man nicht. No, wait! So weit geht man. Das nennt sich ECC-RAM und erledigt den Job auf der untersten Ebene.
 
  • Gefällt mir
Reaktionen: up.whatever und gaelic
Nixdorf schrieb:
Und nein, diese Fehler kann man in der Regeln nicht erkennen. So weit, während jedweder Programmausführung alle Daten ständig über Prüfsummen gegenzuchecken, so weit geht man nicht. No, wait! So weit geht man. Das nennt sich ECC-RAM und erledigt den Job auf der untersten Ebene.

Jepp... den Leuten scheint nicht klar zu sein was das für ein riesiger Aufwand wäre diese Prüfung per Software über die CPU zu realisieren. Vor allem muss man die Checksummen dann auch noch irgendwo speicher, hat also zusätzliche Zugriffe auf den RAM und mehr Speicherverbrauch. Auf der anderen Seite bekommt man sie über ECC RAM fast schon geschenkt. Und vom zusätzlichen verbraucht für die Checksummen merkt man auch nichts weil bei ECC jedes Byte einfach mit 11 Bits gespeichert wird (die auch direkt so auf dem RAM Modul vorhanden sind)

Holt schrieb:
Schwebende Sektoren sind einfach nur Sektoren deren Daten nicht mehr zur ECC passen die hinter jedem Sektor steht und die mit deren Hilfe auch nicht mehr korrigiert werden können. Da die korrekten Daten nicht mehr feststellbar sind, gibt die Platte statt falscher Daten einen Lesefehler als Antwort wenn man versucht diese schwebenden Sektoren zu lesen.

Eigentlich sollte der Sektor auch schon dann als schwebender markiert werden wenn er noch übers ECC korrigierbar war, oder? Denn bei ECC sind ja Fehler bis zu einem gewissen Grad nicht nur erkennbar sondern können auch korrigiert werden.
 
  • Gefällt mir
Reaktionen: Nixdorf
flappes schrieb:
Das erkennen moderne Betriebssysteme automatisch und markieren entsprechende Bereiche, damit diese nicht mehr genutzt werden.

Spannend, "moderne" Betriebssysteme haben also eine eingebaute Glaskugel.
Zeig mir doch bitte die Stellen im Linux oder BSD-Kernel dafür.
 
Zuletzt bearbeitet:
Zurück
Oben