64 GB RAM Performance bei Sockel 2011

Status
Für weitere Antworten geschlossen.

Laser12

Cadet 3rd Year
Registriert
Sep. 2010
Beiträge
47
Moin,

wenn ich das hier http://ht4u.net/reviews/2011/intel_sandy_bridge_e_hexa_core/index13.php
richtig verstehe, dann ist die Speicherbandbreite eines

i7-3820 Sandy-Bridge-E im Sockel 2011 mit 4 x 1600 MHz DDR3 RAM mit 51,2 GB/s theoretisch ca. 100% schneller als mein bisheriger
i7-950 Nehalem (Bloomfield) im Sockel 1366 mit 3 x 1066 MHz DDR3 RAM mit 25,5 GB/s.

Wenn ich im 2011 Sockel 64 GB bestückte (8 x 8 GB RAM), wäre lt. dieser Quelle http://forum.corsair.com/v3/showpost.php?p=550040&postcount=4 nur noch 4 x 1333 MHz mit 42,4 GB/s möglich. Damit würde der Geschwindigkeitsvorteil auf 66% gegenüber dem bisherigen System zusammenschrumpfen.

Ein schnellerer Prozessor i7-3960X mit 6 statt 4 Kernen würde die Speicherbandbreite nicht erhöhen.


+++++++++++++++++++++++++++++++++++++++++


Die Performance meiner Anwendungen wird im Wesentlichen davon bestimmt, wie schnell Daten von und zum RAM gelangen.

Innerhalb der Ramdisk mit etx4 Dateisystem habe ich derzeit eine mittlere Rate von 10 GB/s für schreiben und lesen insgesamt. Da die Ramdisk nach ca. 1,5 Sekunden gelesen/geschrieben ist, hängt die weitere Performance von der Leeserate der SSD bzw. bei Zugriffen auf dieselben Daten von der Pufferung der Sektoren im RAM ab. Das RAM ist ca. um den Faktor 100 schneller als die SSD.

Mein aktueller Rechner hat nur 24 GB RAM. 32 GB im nächsten Rechner würde die RAM-Bandbreite um 100% erhöhen. Bei 64 GB erhöht sie sich nur um 66%, dafür können 32 GB mehr SSD Daten im RAM gepuffert werden.

Da derzeit insgesamt ca. 110 GB zeitkritische Daten sehr häufig gelesen werden, würde ich mich für 64 GB RAM entscheiden.

Sehr Ihr das auch so?
Hat jemand schon Erfahrungen mit 64 GB RAM im System?
Hab Ihr andere Ideen, wie man den Datenfluss beschleunigen könnte?
 
auf jeden fall
meiner Meinung wirst du trotz spezieller Anforderung kaum merken das der RAM langsamer ist.
du bist ja jetzt bereits im Mittel weit unter dem theoretischen Maximum.
 
Ich denke, dass der Umstieg auf 64GB Ram alleine schon die Investition rechtfertigen wird. Wenn du soviel Ram brauchst, dann sind die Paar TB/s auch vernachlässigbar. Die SSD wird immer der limitierende Faktor bleiben.

Kommt es darauf an, dass die Daten möglichst schnell in den Ram geschrieben werden oder dass der Rechner die Daten im Ram schnell bearbeiten kann?

Die Performance meiner Anwendungen wird im Wesentlichen davon bestimmt, wie schnell Daten von und zum RAM gelangen.

ok...

Du sagst trotzdem noch: die Leserate hängt maßgeblich von der SSD Performance ab.

Also liegst doch an der SSd?!

Wenn du die 64GB brauchst, dann ein klares ja, wenn es "nur" um die Speicherbandbreite geht: dann nein.
 
Zuletzt bearbeitet:
Ich benutze am Arbeitsplatz mehrere Rechner mit 64, 128 und 256 GB RAM (im Mittel 4-8GB per CPU-core). Ich verspüre allerdings keinen signifikaten Performancezuwachs von i7 (Nehalem) auf i7 (SB). Einzig die Leistungsaufnahme ist bei den SB-Prozessoren wesentlich geringer.

Wenn die Kosten also eine Rolle spielen und/oder Du das gar privat finanzieren musst, würde ich eher das bestehende System auf mehr als 64 GB aufrüsten.

Grüße
gt
 
Wenn man sich mal die 64GB Kits genauer anschaut (ich mein jetzt hier die von G.Skill auf der eigenen Webseite), dann sieht man das wohl DDR1600 wohl noch "ok" ist.
Dort sind noch ein paar Boards als kompatibel gelistet.

Geht es allerdings über DDR1600 hinaus (bis DDR2400) wird praktisch nur noch das Asus Ramapage Extreme IV genannt und man muss schon wirklich manuell tweaken, daß es dann so läuft.

Für eine Produktivumgebung würde das nicht wirklich mehr in Frage kommen (denk ich).

Was ich mich aber Frage:

Würde man den unterschied 64GB DDR1333 vs. DDR1600 überhaupt wahrnehmen?

Wenn der PC praktisch 24 Stunden am Tag arbeiten würde,
würde man da letztendlich - etwas Zeit rausholen können?

Ich hatte/habe für mein Sockel 1155 System

ein 16 GB DDR1866CL9 Kit @1,5V
ein 16 GB DDR1600CL9 Kit @ 1,35V

und neuerdings ein 32GB DDR1600CL10 Kit @1,5V

von den Benches her ist das 32GB Kit etwas langsamer,
aber merken tut man davon im Betrieb wirklich nichts.
 
Zuletzt bearbeitet:
<-- hat zwar nur 48GB im System, aber seit wann wirkt sich die Bandbreite vom Speicher auf die Anwendungen aus? Ist mir bisher noch nie ein Zusammenhang aufgefallen. Die Caches der Prozessoren werden doch immer größer, und fast alle Programme laufen vollständig im Prozessor-Cache ab. Dafür ist der doch da, damit nicht ständig aufs RAM zugegriffen werden muss.

Bandbreitenbenchmarks gehen das Haus.

Ich hab die Erfahrung gemacht das ich mit mehr langsamen RAM schneller arbeite als mit weniger schnellem RAM.
 
Moin,

schon mal vielen Dank für die bisherigen Antworten.

the_nobs schrieb:
auf jeden fall
meiner Meinung wirst du trotz spezieller Anforderung kaum merken das der RAM langsamer ist.
du bist ja jetzt bereits im Mittel weit unter dem theoretischen Maximum.
Zu den 10 GB/s sollte ich vielleicht noch einige Infos geben, wie die "gemessen" wurden. Kopie eines komplexen 7,5 GB großen Verzeichnisses auf die Ramdisk mit Nautilus 2.32.0 unter Ubuntu 10.10. Kopie dieser 7,5 GB von Ramdisk auf Ramdisk. Damit sind 15 GB gelesen/geschrieben worden. Das dauerte bei mehreren Ausführung etwas weniger als 1 Sekunde bis ca. 1,5 Sekunden. Daraus habe ich dann konservativ 10 GB/s verwendet. Man hätte da auch 20 GB/s draus machen können.

So ein Benchmark gibt natürlich nicht die Speicherbandbreite wieder. Es hängt noch eine Dateisystem dazwischen mit ca. 13.000 Dateien öffnen, schließen usw. Es ist mir an der Stelle auch egal, ob das wirklich aus der Ramdisk kam oder aus dem Puffer des Betriebssystems. Das spiegelt genau meine Anwendungssituation wieder, dass sehr viele Dateien immer wieder gelesen werden.


666eraser666 schrieb:
Die SSD wird immer der limitierende Faktor bleiben.

Kommt es darauf an, dass die Daten möglichst schnell in den Ram geschrieben werden oder dass der Rechner die Daten im Ram schnell bearbeiten kann?

[...]

Du sagst trotzdem noch: die Leserate hängt maßgeblich von der SSD Performance ab.

Also liegst doch an der SSd?!

Wenn du die 64GB brauchst, dann ein klares ja, wenn es "nur" um die Speicherbandbreite geht: dann nein.
Die SSD ist häufig nur beim ersten Lesezugriff der limitierende Faktor. Da auf die Daten mehrfach zugegriffen wird, liegt ein Teil auf der Ramdisk (z.B. temporäre Dateien), der Rest liegt auf der SSD bzw. häufig schon im Puffer des Betriebssystems. Mit "nur" 256 GB RAM könnte ich so ganz komfortabel arbeiten. ;)
256 GB sind derzeit für ein Desktop System natürlich nicht machbar - weder technisch noch finanziell.


GrandTheft schrieb:
Ich benutze am Arbeitsplatz mehrere Rechner mit 64, 128 und 256 GB RAM (im Mittel 4-8GB per CPU-core). Ich verspüre allerdings keinen signifikaten Performancezuwachs von i7 (Nehalem) auf i7 (SB). Einzig die Leistungsaufnahme ist bei den SB-Prozessoren wesentlich geringer.

Wenn die Kosten also eine Rolle spielen und/oder Du das gar privat finanzieren musst, würde ich eher das bestehende System auf mehr als 64 GB aufrüsten.
Das eigentliche Rechnen ist bei mir nicht so der Engpass. Da die Software nicht häufig nicht wirklich auf parallele Prozesse ausgelegt ist, laufen in der Regel maximal 2 Threads auf 100%, 2 auf ca. 40% und die restlichen 4 relativ nahe bei 0%. An der Stelle wurde ich durch eine neue CPU keine großen Performancesprünge erwarten.

Das bestehende System aufzurüsten würde so aussehen:
Motherboard (kann nur 24 GB), CPU, RAM, SSD neu. Das ist wertmäßig so ziemlich ein ganzer Rechner. Dann lieber einen neuen Rechner und ich kann eventuell einen älteren Win XP Rechner einmotten.


Tenchi Muyo schrieb:
Geht es allerdings über DDR1600 hinaus (bis DDR2400) wird praktisch nur noch das Asus Ramapage Extreme IV genannt und man muss schon wirklich manuell tweaken, daß es dann so läuft.

Für eine Produktivumgebung würde das nicht wirklich mehr in Frage kommen (denk ich).

Was ich mich aber Frage:

Würde man den unterschied 64GB DDR1333 vs. DDR1600 überhaupt wahrnehmen?
Ein Betrieb außerhalb der Spezifikationen ist heute zwar en vogue, kommt für mich aber nicht in Frage. Das System muss zuverlässig laufen. Außerdem träume ich von einem leisen Rechner ohne Hitzeprobleme.

Der Unterschied von DDR1333 zu DDR1600 liegt bei ca. 20%. Um als Benutzer wirklich etwas zu bemerken braucht man nach meiner Erfahrung so ca. 30-50%. Dass muss natürlich beim Engpass sein. Wenn die CPU nur 50% schneller auf die nächste Eingabe wartet ...

Intel gibt auf Seite 11 von hier an
Interfaces
1.2.1 System Memory Support
• The processor supports 4 DDR3 channels with 1 unbuffered DIMM per channel
• Unbuffered DDR3 DIMMs supported
• Data burst length of eight cycles for all memory organization modes
• Memory DDR3 data transfer rates of 1066, 1333, and 1600 MT/s
• DDR3 UDIMM standard I/O Voltage of 1.5 V
• 1-Gb, 2-Gb, and 4-Gb DDR3 DRAM technologies supported for these devices:
— UDIMMs x8, x16
• Up to 2 ranks supported per memory channel, 1 or 2 ranks per DIMM
• Open with adaptive idle page close timer or closed page policy
• Command launch modes of 1n/2n
• Improved Thermal Throttling with dynamic CLTT
• Memory thermal monitoring support for DIMM temperature using two memory
signals, MEM_HOT

Die Aussagen verstehe ich nicht wirklich. Ich würde die konkreten RAMs wohl eher von Verfügbarkeit und Preisen abhängig machen als von 20% Performance bei der Bandbreite.


HisN schrieb:
<-- hat zwar nur 48GB im System, aber seit wann wirkt sich die Bandbreite vom Speicher auf die Anwendungen aus? Ist mir bisher noch nie ein Zusammenhang aufgefallen. Die Caches der Prozessoren werden doch immer größer, und fast alle Programme laufen vollständig im Prozessor-Cache ab. Dafür ist der doch da, damit nicht ständig aufs RAM zugegriffen werden muss.

Bandbreitenbenchmarks gehen das Haus.

Ich hab die Erfahrung gemacht das ich mit mehr langsamen RAM schneller arbeite als mit weniger schnellem RAM.
Meine PC-Anwendung ist nicht so ganz Mainstream. Es werden immer wieder extrem große Datenmengen gelesen. Die passen nicht in den Cache, nicht in's RAM, mit etwas Glück auf die SSD. Geschrieben wird bei mir relativ wenig und davon noch einiges in temporäre Dateien.

Die Bandbreite des Speichers wirkt sich auf die Anwendungen aus. Ein Programm wird gestartet, erhält einen Auftrag, läuft los. Der User wartet auf das Ergebnis. Das Programm wird erneut gestartet, bekommt einen anderen Auftrag, greift auf dieselben Daten lesend zu und findet einen Großteil bereits im RAM. Nächstes Programm wird gestartet...
Die CPU ist dabei nicht sonderlich am Schwitzen. Die SSD hat einen großen Sprung gebracht, weil auf diverse (Unter-)verzeichnisse ohne Kopfbewegung einer HD zugegriffen wird. Jetzt wird ein größerer Teil der Daten in das RAM verlagert. Für einzelne Anwendungen wird es bei 64 GB möglich sein, alles auf eine Ramdisk zu verlagern. Wenn der Strom nicht ausfällt, gibt das einen riesigen Schub. Da kommt es dann auch auf die Speicherbandbreite an. Wenn der Strom weg ist, gibt es ein Rollback von der SSD.

Das Thema ist also: Gib die Daten endlich her. :cool_alt:
 
hmmm... wenn ich das so lese fühl ich mich mit meinen 4GB Ram so klein xD
 
dann miss doch die Bandbreite mal richtig mit dd

z.B. zum Lesen

dd if=/mount/ramdisk of=/dev/null bs=8M

mit den 8M musste mal bisschen spielen, kann sein dass Du da andere Ergebnisse mit anderen Werten erzielst, ist bei mir aber immer ziemlich unkritisch gewesen.

und Schreiben

dd if=/dev/zero of=/mount/myramdisk.file bs=8M

Grüße
 
Moin,
Wukong schrieb:
hmmm... wenn ich das so lese fühl ich mich mit meinen 4GB Ram so klein xD
ist ja immer die Frage, was man braucht. Dafür hat Dein Portemonnaie weniger Schwindsucht.


GrandTheft schrieb:
dann miss doch die Bandbreite mal richtig mit dd
Die Befehle ich habe ich nicht ganz verstanden. Und mit dd bin ich eher vorsichtig, bevor die Platte überschrieben ist.

Ersatzweise Infos hätte ich im Angebot:
Code:
df -m
(nur ein Teil der Ausgabe)
Dateisystem           1M‐Blöcke   Benutzt Verfügbar Ben% Eingehängt auf
tmpfs                    16384      1028     15357   7% /tmp

Das scheint mir weniger passend:
Code:
/tmp$ dd if=/dev/zero of=tempfile bs=1M count=1024 conv=fdatasync,notrunc 
1024+0 Datensätze ein
1024+0 Datensätze aus
1073741824 Bytes (1,1 GB) kopiert, 0,415129 s, 2,6 GB/s

ohne den Cache zu löschen danach:

/tmp$ dd if=tempfile of=/dev/null bs=1M count=1024 
1024+0 Datensätze ein
1024+0 Datensätze aus
1073741824 Bytes (1,1 GB) kopiert, 0,18644 s, 5,8 GB/s


Das kommt gut hin:
Code:
sudo hdparm -tT /dev/sdb
/dev/sdb:
 Timing cached reads:   20482 MB in  2.00 seconds = 10251.41 MB/sec
 Timing buffered disk reads:  1006 MB in  3.00 seconds = 335.26 MB/sec

sudo hdparm -tT --direct /dev/sdb
/dev/sdb:
 Timing O_DIRECT cached reads:   672 MB in  2.00 seconds = 336.00 MB/sec
 Timing O_DIRECT disk reads:  982 MB in  3.00 seconds = 326.98 MB/sec
 
soyd schrieb:
das könnte dich vielleicht auch interessieren:
http://www.legitreviews.com/article/1779/4/

Was wird denn mit den Daten gemacht wenn sie mal im RAM liegen, je nachdem was du damit anstellst könnte man vielleicht mal mutmaßen welche Architektur dafür besser geeignet ist.
Wenn die Daten im RAM liegen, ist der Performance-kritische Anteil auch schon erledigt.
 
Da scheint irgendwas faul zu sein. Sogar ein C2Q sollte > 10GB/s schaffen.

Probier mal /dev/zero nach /dev/null mit dd

Grüße
gt

Bsp:

Code:
[someone@somerockstarmachine ~]$ dd if=/dev/zero of=/dev/null bs=4M count=1000
1000+0 records in
1000+0 records out
4194304000 bytes (4.2 GB) copied, 0.222419 s, 18.9 GB/s
 
Zuletzt bearbeitet:
I-7 950, Ubuntu 10.10
Code:
dd if=/dev/zero of=/dev/null bs=4M count=1000
1000+0 Datensätze ein
1000+0 Datensätze aus
4194304000 Bytes (4,2 GB) kopiert, 0,347975 s, 12,1 GB/s
 
bevor ich einen neuen Thread aufmache sorry für Offtopic: wo für braucht man so viel RAM?
 
Hallo,

nach dem ich mich nun durch die einzelnen Threads gewühlt habe! (Kritik an HisN & Moderatoren, Wieso macht man dafür inzwischen 4 Threads auf ? -.-)
Verstehe ich dein Konzept von vorne bis hinten GAR NICHT! :D

Wofür 64GB Ram? Für das bisschen Bildchen spielen? Wieso kein XEON, wenn du so brachiale Performance willst? Und wieso kein RevoDrive, den der einzige Punkt bei dem ich sehe das es limitieren wird ist die SSD!
Mal ganz davon abgesehen, dass ich mich frage wieso mal "Millionen" Bilddateien durchsuchen muss, und das davon abhängig ist, wie gut dein Suchalgorithmus ist ;)
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben