Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsDDR5-Arbeitsspeicher: G.Skills neue 24- und 48-GB-Modul-Kits gehen bis DDR5-8200
Der taiwanische Hersteller G.Skill hat neue DDR5-Arbeitsspeicher-Kits mit Modulgrößen von 24 GB und 48 GB sowie Frequenzen bis hinauf auf DDR5-8200 und Timings von 32 bis 40 angekündigt. Module mit dieser Kapazität kommen dieser Tage von immer mehr Herstellern auf den Markt. Das BIOS muss explizit darauf ausgelegt sein.
Ist das mit diesen Zwischengrößen eigentlich nur eine Frage der Kompatibilität? Oder kann sich das auch negativ auf die Performance auswirken?
Z.B. durch irgendeinen Adressierungs-Overhead? Ich weiß nicht genau wie das abläuft, aber man nutzt ja bei den Zwischengrößen vermutlich mehr Adressbits, die dann nicht komplett ausgenutzt werden? Oder sowas? Oder spielt das keine Rolle?
Ob und wie es sich auf die Performance auswirkt hängt, wie jetzt auch, doch lediglich davon ab, ob die Timings besser oder schlechter sind, als bei den vorhandenen Modulen.
@aikatv
Wieso denn komisch?
Die Schritte sind inzwischen halt ziemlich groß.
Wem 32 GB zu wenig ist, muss nun nicht mehr gleich zu 64 greifen.
Ich z.B. habe 2x32 im Rechner und das ist mir eigentlich zu viel. da sind dann 2x24 ideal.
8200. ok, Buildzoid hat grade ein Rant Video veröffentlicht, er bekommt nichts über 7800 stable. Ein Test steigt immer aus. Der Speichercontroller der CPU muss das auch noch mitmachen. Und das Board auch.
Ich bin beim Upgrade auf den 5900x vor guten zwei Jahren direkt auf 64GB gegangen. 32GB erschien mir zu wenig in Bezug die nächsten Jahre.
Allerdings merke ich nun, dass 32GB immer noch völlig ausreichend ist, wenn es um den Standard Gamer PC geht. Wenn die Entwicklung so weiter geht, dann braucht es nicht eine ständige Verdopplung, sondern dann sind kleinere Schritte sinnvoller - sofern sich das positiv auf den Preis und die Performance ausübt.
So wie es aussieht, ist nach 32GB eine sinnvolle Größe 48GB.
Edit:
Quasi zeitgleich ein +1 zum Beitrag von @hamju63
Ist das mit diesen Zwischengrößen eigentlich nur eine Frage der Kompatibilität? Oder kann sich das auch negativ auf die Performance auswirken?
Z.B. durch irgendeinen Adressierungs-Overhead? Ich weiß nicht genau wie das abläuft, aber man nutzt ja bei den Zwischengrößen vermutlich mehr Adressbits, die dann nicht komplett ausgenutzt werden? Oder sowas? Oder spielt das keine Rolle?
Sollte keinen Effekt haben. Du hast Adressbits hauptsächlich in zwei Kontexten:
Virtuelle Adressen: Die sind bei x64 immer 64 Bit (wovon aktuell 48 verwendet werden, d.h. 256TB), weil Prozesse isoliert sind von der Hardware und gar nicht wissen sollen, wo die Daten dann landen (RAM, Auslagerungsdatei, mmap, …)
Hardware-Adressen: Wie viele Bits du da hast hängt vom RAM-Controller ab, der ist in der CPU heutzutage, und damit Teil des Sockels. Die Adress-Pins sind immer fest verlötet, der Mainboard-Hersteller weiß ja im Vorhinein nicht, wie viel RAM du einbaust. AFAIK ist das bei aktuellen Sockeln auch 48 Bit.
Komisch es doch nur, weil wir uns an die Verdoppelung, bzw an die 2er Potenzen gewöhnt haben. Alles andere sind halt keine typischen "Informatik Zahlen".
Macht in der Realität aber keinen Unterschied.
Wir könnten auch 69 GB verbauen - das wäre dann sogar nice.
16 GB werden für die meisten Gamer auch die nächsten Jahre reichen.
Es mag natürlich Ausnahmetitel geben, die mit mehr RAM besser laufen, aber die laufen auch mit 16 GB.
Und ich rede von Titeln die von ihrer Größe her mehr brauchen und nicht weil sie grottenschlecht umgesetzt sind.
24 GB ist als Zwischneschritt auch nicht so verkehrt. Genug Reserven für Spiele und System.
Macht aber auch nur Sinn bei teurem RAM, mit extremen Werten.
Ansonsten kann man sich auch günstige 32 GB zulegen.
Mit Direct Storage wird der RAM-Verbrauch auch nicht steigen, im Gegenteil, wenn die GPU die Daten direkt von der NVMe schaufelt, dann spielt der RAM eher eine geringere Rolle. MS, mach voran!
Z.B. durch irgendeinen Adressierungs-Overhead? Ich weiß nicht genau wie das abläuft, aber man nutzt ja bei den Zwischengrößen vermutlich mehr Adressbits, die dann nicht komplett ausgenutzt werden? Oder sowas? Oder spielt das keine Rolle?
Die gesamten DIEs wurden vergrößert. Also es ist nicht so, dass aus einem Modul mit acht 2GiB-DIEs eines gemacht wurde, auf dem vier mal 2GiB und vier mal 4GiB sitzen und das dann insgesamt 24GiB ergibt, sondern es sitzen auch wirklich 3GiB-DIEs drauf. Somit fehlen auch die entsprechenden Probleme einer schiefen Bestückung, sondern alles sollte ganz normal laufen.
Mich würde trotzdem interessieren, wie das Hardwaretechnisch funktioneiren soll. Sind das spezielle RAM Chips, oder Teildefekte, die halt statt 1Gbit dann 0,75Gbit haben? Denn ich kenne nur binär "volle" Chips.
Finde die Zwischengrößen recht interessant, bei passenden Abstand des Preises zu 64GB, nicht das dann nur ein paar Euro dazwischen sind und man gleich 64GB statt 48GB nehmen kann.
Kann man eigentlich noch darauf hoffen das DDR5 Module mit Timings wie bei DDR4 kommen werden in Relation dazu, oder geht das technisch aktuell nicht, sollte doch wieder deutlich unter 10ns gehen oder bringt das nichts.
Dadurch das bei den aktuellen Ryzens alles über DDR5 6000 irgendwie meh ist, finde ich persönlich 6000er Speicher mit knappen Timings interessanter. Waren da mal nicht im letzen Jahr 6000er angekündigt worden mit CL28?
Die Größen sind doch eigentlich auch egal. Es wird eh der Ram gekauft der ins Budget passt. Bei der Größe wird ein minimum festgelegt und der rest is egal. Ich kenne zumindest niemanden der sich seinen Ram auf den GB genau ausrechnet ^^.
Die neuen Größen füllen eben die Lücken ab 32gb aufwärts. Darunter macht eine Abstufung meiner Meinung nach eh wenig sinn.