News DDR4-RAM für Xeon E5-2600 v3 noch 2014

Kann mal jemand erklären was eigentlich GDDR5 ist?

Anscheinend schafft die GPU ja eine wesentlich bessere Adressierung/Memorymanagement als eine CPU, weshalb ja auch GPU Computing so stark ist.

Stimmt das? Woran liegt das?
Was sind die Unterschiede zwischen den beiden Systemen?


Wo reiht sich da DDR4 ein?
 
Immer die gleiche Diskussion bei RAM.... Abseits von Servern und Bild/Film/Render-Rechnern ist nur interessant ob genug RAM im System ist, die Geschwindigkeit ist total egal bzw. von DDR4 zu DDR2 würden wahrscheinlich 3-6% Leistungsunterschied in Spielen übrigbleiben. Ist eine interne GPU vorhanden die auf den gemeinsamen RAM zugreift sieht es natürlich anderes aus, hier lohnt sich schneller immer!
Das Problem mit dem RAM ist schlicht wie bei so vielem inzwischen die Software. Es wird fast alles eher auf Low-End als auf High-End Hardware programmiert und das bedeutet bei RAM ganz klar für 32 Bit Systeme und eher langsamen RAM. Welcher Software (inklusive Games) entwickelt schon für 64 Bit auf z.B. 8GB RAM, wenn über 50% (rein hypotetisch, wahrscheinlich noch eher noch mehr) der potentiellen Kunden es nicht nutzen können weil sie noch ein 32 Bit System haben.
Die weiterentwicklung von RAM ist primär deshalb auch nur für Server, Workstations und GPUs sinnvoll. Diese profitieren halt davon, der normale User kann getrost erstmal noch die nächsten 3-6 Jahre bei DDR3 bleiben. Auch die niedrigeren Spannungen über diese Bereiche höchstens im mobilen Sektor wirklich interessant. Aber seien wir doch mal ehrlich, die schleppende Entwicklung beim RAM ist doch nur Symtomatisch für den gesamten PC-Markt, Hardware lebt inzwischen halt nichtmehr nur noch 2 Jahre bevor sie hoffnungslos veraltet ist. Für Office/I-net kenn ich inzwischen x Leute die noch uralt Systeme mit großer zufriedenheit nutzen und völlig offen ist wann diese nicht mehr genutzt werden können. Ich finds super, mehr geld für anderes und weniger müll....

Mfg
PaWel
 
@Tohdgenahgt: GDDR5 basiert auf DDR3 nur mit höherem Takt und niedrigerer Latenz, in etwa.
 
Tohdgenahgt schrieb:
Kann mal jemand erklären was eigentlich GDDR5 ist?

Anscheinend schafft die GPU ja eine wesentlich bessere Adressierung/Memorymanagement als eine CPU, weshalb ja auch GPU Computing so stark ist.

Stimmt das? Woran liegt das?
Was sind die Unterschiede zwischen den beiden Systemen?

GDDR5 basiert auf DDR3, ist aber an die besonderen Anforderungen von GPUs angepasst. Genaueres weiß ich auch nicht.

GPU Computing ist aber vor allem deshalb so stark, weil es extrem parallel ist - statt 4-8 Kernen hat eine GPU ja Hunderte Recheneinheiten. Bei Aufgaben, die sich gut verteilen lassen, hat sie dadurch einen riesigen Vorteil.
 
Ist DDR4 2133 MHz schneller als DDR3 2133 MHz?
 
racer320kmh schrieb:
@Tohdgenahgt: GDDR5 basiert auf DDR3 nur mit höherem Takt und niedrigerer Latenz, in etwa.
falsch, die latenzen werden höher, ist aber für GPUs egal.
Ergänzung ()

AMINDIA schrieb:
Ist DDR4 2133 MHz schneller als DDR3 2133 MHz?
nein
 
Die bis zu 35% weniger Stromverbrauch sind ja schonmal schön. Aber wie siehts denn mit der Leistung aus? Was kann man sich denn an Leistungssteigerung von DDR4 gegenüber DDR3 versprechen? Ist das überhaupt signifikant, oder gehts bei DDR4 nur vornehmlich um die Verrringerung des Energiebedarfs?
 
Ich freue mich jedenfalls sehr auf GDDR6! Das drückt eigentlich jetzt schon aber man hat leider noch nichts davon gehört :(
Wenn es dann so weit ist, drückt es noch -viel- mehr.
Wenn sich JEDEC nicht sputet, ist der GDDR Standard durch HMC oder anderes bedroht.
 
romeon schrieb:
die werden erst in 2-3 Jahren interessant, wenn sie bei geschätzt 3GHz liegen. Die ersten DDRs einer Folgegeneration hatten immer eine ähnliche Speed wie die DDRs der Generation zuvor.
Das wird so lange nicht dauern. Zuerst wirds nur bis 2133/2400 gehen, aber spätestens wenn DDR4 im Mainstream angekommen ist (also mit Intels Skylake) wirds von jedem Hersteller wieder massig OC Versionen geben und dann wird man schnell über die 3000 sein.

Ich mein wir reden hier von den ersten RDIMMs, die sind ja nun nicht bekannt dafür das Maximum auszuloten.
 
Leider verkennen hier viele, dass niedrigere Spannung auch niedrigeren Verbrauch im S3 bedeutet. Und zwar deutlich.
Von daher würde ich hier sehr wohl von einem Quantensprung sprechen.
 
Wenn mal mehr Notebooks DDR3L-RS verwenden würde, wäre das schon mal ein Anfang. Da bringt DDR4 dann auch nicht mehr den riesigen Sprung (im Standby). Aber DDR4-RS wird auch kommen. ;)

Aber für den mobilen Bereich ist das vor allem in Anbetracht der IGPs wichtig. Die werden ja schon extrem ausgebremst. Externe GPUs in Notebooks werden immer weniger werden.
 
Zuletzt bearbeitet:
bensen schrieb:
Externe GPUs in Notebooks werden immer weniger werden.

Du meinst dedicated GPUs? Über Externe GPUs würde ich mich frreuen! Da gibt es doch dieses Teil wo man in den PCMCIA Schacht einschieben kann und darüber eine GPU betreiben kann. Ich finde schade das es sowas nicht mehr gibt, bzw. nicht wirklich Erfolg hatte. Das wäre einfach super brauch ich Leistung? Zack GPU dran und gut ist. Brauch ich Akku Laufzeit --> iGPU.
 
Jo extern des CPU-Package war gemeint. :D
Außerhalb des Gehäuses gabs ja viele Insellösungen. Aber ohne einheitlichen Standard wirds nie was werden.
Theoretisch ist das kein Problem, PCIe-Kabel gibts zu hauf und einen Port wird man auch noch hinbekommen, aber dafür müsste einfach Interesse der Hersteller vorhanden sein.
Thunderbolt hat man ja auch als Chance ungenutzt gelassen. Würde mit 2 GB/s auch schon taugen.
 
Zurück
Oben