News Spezifikationen für „Hybrid Memory Cube“ fertiggestellt

Bleibt dann nur noch die Politik übrig. Ob die aber was gebacken kriegen :)
 
Zuletzt bearbeitet:
Hallo @ all,

also mich errinert das irgendwie an PI-/PII-Zeiten. Da gab es auch plötzlich einen Riesensprung beim Speicher von 70-90ns (PS/2-Speicher) auf 8-12ns (vergessen wie das hieß). In der Anfangszeit gab es MBs, bei denen Mischbestückung möglich war. Da dachte man auch, da müßte ein riesen Sprung sein, doch wenn man den moderneren Speicher mit 10ns einbaute. Pustekuchen, vielleicht war ein Unterschied meßbar, doch in der Praxis war kein großer Unterschied, gefühlt zumindest.
 
So sieht es aus. Man schaue sich nur mal HDD und SSD an :) Mit einem guten Raid Controller packt man auch ~250 MB/s mit HDDs (habe ich selber bei mir) und mit einer SSD ~400+. Da denkt man auch erst mal pff die paar MB/s... Aber man spürt es einfach sofort.
 
Ich hoffe eher dass die Technik auch bei SSDs anwendbar ist und wir dadurch noch rascher noch größere Größen bekommen und der Preis der aktuell großen Modelle rapide sinkt. Dann kommt sowas vielleicht auch mal in meinen Desktop-Rechner.
 
Ich denke, daß im Moment der eigentliche Flaschenhals die veraltete Architektur von Hardware/Software ist, sprich die Zwänge zu Abwärtskompatibilität. Mit jeder neuen Generation von Hardware und Windows werden die Kompromisse die man dafür schließen müssen immer größer.

Ich bin mir durchaus bewußt. daß es vielleicht technisch machbar wäre, aber praktisch nicht umsetzbar, Hard- und Software von Grund auf neu zu konstruieren und dabei die Fesseln von Gestern loszuwerden. Doch würde man das machen, wären die Performancegewinne viel gewaltiger als irgendeine einzelne Hardwareverbesserung zu leisten vermag.
 
Seh ich genau so als Anwendungsentiwckler :) Müsste man nicht auf alte HW rücksicht nehmen könnte man Software schreiben die jeden Kern super ausnützt. Allerdings ist dies extrem schwer Threads zu paralelisieren.
 
Doc Foster schrieb:
Lustigerweise ist ja im Consumerbereich für die meisten Anwendungen heute schon Standard DDR3 schnell genug, aber irgendwie muss man ja Umsatz generieren...

Es geht immer um high end und zum Glück wird geforscht. So etwas ist für vieles interessant. Nicht nur "dein" consumer Bereich.
Warum sind immer wieder einige Leute gegen Entwicklung? Steinzeit lässt grüßen...

Mit der Einstellung wäre jetzt noch immer der 386er das Maß aller Dinge... schließlich war alles ausreichend um Texte zu bearbeiten *sigh*
 
Vradash schrieb:
Ich hoffe eher dass die Technik auch bei SSDs anwendbar ist und wir dadurch noch rascher noch größere Größen bekommen und der Preis der aktuell großen Modelle rapide sinkt. Dann kommt sowas vielleicht auch mal in meinen Desktop-Rechner.

Die Größe bezieht sich wohl eher auf den Platzbedarf der Speicherriegel, da man die einzelnen Chips halt stapeln kann. Die Transistoren bleiben hingegen gleich groß und damit wohl auch die Kapazitäten der einzelnen Chips. Aus 8GB werden somit keine 64GB.
Hybrid Memory Cube ist eher eine neue Art von Übertragungstechnik, ähnlich wie DDR oder früher SDR.

Die Aussage, das damit größere Speichermengen möglich seien, beziehen sich wohl nur auf Geräte mit Platzproblemen wie z.B Smartphones. Auf dem Desktop hast du eigentlich genug Platz.
 
Es wird auch Zeit. Seht euch mal den Platzverbrauch von Speichermodulen in Note/Ultrabooks an. Gut denkt der eine, dann sollte man ihn doch auflöten, so spart man Platz.
Stimmt zwar, aber Platzverschwendung bleibt die Architektur dennoch. Nimmt man State of the Art das MBP Retina. Platzsparender kann man ihn nicht verbauen und dennoch ist es riesig.
http://media2.giga.de/2012/10/MacBook-Pro-Retina-13-Zoll-Innenleben.jpg
Im Notebook (noch) weniger ein Problem, aber vor allem in Tablets kommt es auf jeden cm^2 an. Ein neuer Sandard wird in einigen Jahren für Entlastung sorgen.
 
@ Cool Master und @ BlackWidowmaker

Ihr habt zu 100% recht. Dadurch wird die Performance reduziert. Auch die ganze Fragmentierung der Hardware (egal ob CPU, Graka, Mainboard etc.) bremsen meiner Meinung nach eher die Entwicklung, weil kein Hersteller Kunden verlieren möchte und so auf alter Technik weilt.

Wenn weniger verschiedene Hardware und Standards vorhanden wären, könnte man mehr Zeit in die Optimierung der Software investieren, siehe dazu Playstation 3 an, mit welcher "alter" Hardware die tolle Spiele machen können.

Man sollte ein Limit für Standards setzen, ab wann sie ablaufen. Danach sollten sie nur noch über Erweiterungen nutzbar sein (z.B USB 2.0 über PCI, Update für Software auf die neuere Version gegen einen sehr geringen Aufpreis)

Die Industrie ist einfach zu konservativ und beharrt auf alter Technik, bis die nicht mehr funktioniert/akzeptiert wird/im Weg steht etc.
 
Zuletzt bearbeitet:
unknown7 schrieb:
Mit der Einstellung wäre jetzt noch immer der 386er das Maß aller Dinge... schließlich war alles ausreichend um Texte zu bearbeiten *sigh*

mit der Einstellung hätten wir nicht einmal Computer, sondern es würden immer noch 80% der Bevölkerung auf dem Acker schuften..
 
Also die Zahlen sind ja mal bahnbrechend! :)
Ändert sich denn aber auch was an den Timings? Da hat sich ja so gut wie nichts getan bisher, außer dass diese gestiegen sind.

Dass das immer noch gute 3 Jahre dauert ist eine traurige Sache :(
 
Cool Master schrieb:
So sieht es aus. Man schaue sich nur mal HDD und SSD an :) Mit einem guten Raid Controller packt man auch ~250 MB/s mit HDDs (habe ich selber bei mir) und mit einer SSD ~400+. Da denkt man auch erst mal pff die paar MB/s... Aber man spürt es einfach sofort.

maximale transferraten als indikator nehmen? haha ^^
1. vergleich die mittlere zugriffszeit.
hdd=15ms (5400upm) bis bestensfalls 4-6ms(10k upm)
ssd=<1ms!
2. guck dir die mittleren transferraten an, besonders bei vielen kleinen dateien
3. schau dir bei volleren festplatten (>80-90%) an, schöne fragmentierung am besten!
4. hier wird im RAID genannt. einzelne ssds knallen schon mit 500MB/s davon, im Raid kannst direkt >1GB/s peak liegen!
5. ssd sind super - besonders fürs lesen. schreibst du aber extrem viel, tu es auf ner hdd! ssd kannst fix totschreiben, besonders wenn die leute nicht lernen trim anzumachen!

gucken wir uns mal die Datenrate von RAM an:
http://de.wikipedia.org/wiki/DDR-SDRAM
DDR3 -> ~34GB im Dual-Channel bzw 51GB im TrippleChannel
DDR4 -> 25,6 GB/s pro Modul: 51GB/s bei zwei und 102GB/s bei 4!!
...
320GB/s klingt schon nicht mehr so viel als spezifikation.
bei verlöten, evtl nicht so schnellen raten und über paar tricks. bin noch skeptisch.
ich erwarte niedrigere latenzen, höheren modularen aufbau für spätere weiterentwicklung
(i.d.r ist die folgeGeneration gleich befreit von den ersten fehlern und klar besser),
steigende geschwindigkeiten mit den zeiten und absolut zuverlässige fehlerlosigkeit
(hab öfters mal kaputten ram erlebt, wenn wieder gegeizt wurde).
 
@BxB

Zu 1. Joar genau auf das wollte ich ja hinaus :D

Zu 2. Brauch ich nicht ich habe nie mit Daten unter ~ 5 MB zu tun, bekomme trotzdem mit meinem RAID 5 ~ 150+ MB/s hin

Zu 3. Bei einem RAID nicht ;)

Zu 4. Korrekt, bekommst aber nur mit einem RAID 0 bei SSDs hin und das ist kein RAID, weil da nichts redundant ist.

Zu 5. Also wenn ich am Tag 50 GB schreibe hällt meine SSD noch 10 Jahre.... Bis dahin hab ich eh ne andere.

Schau dir mal Grafikkarten RAM an mit wie viel GB der Angesprochen wird ;) Das RAM schneller ist, ist klar dieser ist direkt per DMA an der CPU. Die Grafikkarte muss erst mal an die Southbridge, diese an die Northbridge in der CPU und noch mal eine Übertragung zur CPU, klar das man da nicht so schnell ist.

Dafür das dies eine neue Technik ist, ist es verdammt schnell.
 
Cool Master schrieb:
Nur das dir Gewährleistung nichts bringt, da nach 6 Monaten die Beweislastumkehr greift. Wenn sollte man sowas über Garantie abwickeln aber das ein hersteller 4 oder sogar 5 Jahre Garantie gibt geht nicht zumindest nicht bei etwas so hoch komplexem.

Natürlich geht das. Absolut realitätsfern sowas zu behaupten. Gewährleistungszeit auf 5 Jahre (min.) und keine Beweislastumkehr...zwar würden die Preise steigen, aber der Normalo käm immer noch billiger weg.

Richtiger Fortschritt ist meistens gut...für wen stellt sich meist erst danach ;)
 
Autos sind Sparsam. Es kommt auf die Person an die fährt. Ich habe eine S-Klasse 400 CDI (Diesel) schon auf 8 Liter gehabt und mein i30 auf 3,2 Liter. Man darf halt nicht mit 250 über Autobahn fahren...

Heute fahren aber ein paar mehr. Dennoch kannst du die 250, selbst wenn du wolltest, gar nicht erreichen. Auf ein paar Strecken vielleicht. Die halbe Zeit wirst du im Stop an Go gurken. Und da verbrauchst du dann auch keine 8 Liter, oder 3,2 Liter.

Nen Fiat 500 hat das damals auch geschafft. Eben leichtbauweise und keinen unnützen Krempel drin. 20PS reichen für Stadtbereich völlig aus, da kann man sogar Elektroautos... aber wir schweifen zu sehr ab.

Nur bringen einem kein Quadcore, wenn man ihn nicht nutzt, es bringt keine Grafikkarte wenn man nichts spielt, und es nützt einem nicht 300GByte/s zu übertragen, wenn der Flaschenhals woanders liegt und auch schon bei der Software.
 
@Onkelhitman

Man kann sich auch Stur stellen... Ich war in den letzen 2 Jahren genau 2 mal im Stau für ~ 10 Minuten für andere sieht es klar anderst aus aber nur weil dem so ist sage ich nicht das es nur Stop & Go ist, zudem kann man den Motor imm ausmachen und somit verbraucht man halt 4 Liter statt 3,2 ;)

WIe gesagt HW ist seit einigen Jahren der SW vorraus. Das ganze hat so ab den Core2Duo/Quad angefangen. Das Problem ist ja nicht mal das die Software es nicht kann sondern das es verdammt schwer ist zu paralelisieren. Klar nutzt es was immer schneller zu übertragen --> Es muss halt mal ein Anfang geben. Nach deiner aussage würden wir am besten noch im Jahr 1970 sitzen und eine Übertragungsrate von 1 byte/s haben...
 
Nein, das ist genauso eine Falschaussage wie dem Doc wie in Post 27 einen Stillstand zu bescheinigen.

Fortschritt ist wenn ich für dieselbe Leistung weniger verbrauche.
Fortschritt ist, wenn ich bei selbem Verbrauch mehr Leistung bekomme.
Fortschritt ist, wenn ich bei selbem Verbrauch und selber Leistung mehr Sicherungsmechanismen habe.
Fortschritt ist, wenn bei selbem Verbrauch und selber Leistung alles kleiner wird.
Fortschtitt ist, wenn es dasselbe zu einem günstigeren Preis gibt.

Fortschritt kann nicht sein, Ram mit 800, 1066, 1333, 1600, 2166 Mhz zu verkaufen, obwohl der Anwender damit überhaupt nichts anfangen kann. Mag sein, dass es bei Servern eine Rolle spielt, evtl. auch bei riesigen Ram-Disks mit nem speziellen Adapter und nem Akku. Für den "Normalo"- Anwender bringt das soviel wie ne zweite Tastatur, er wird sie einfach nicht nutzen können bis es wirklich Anwendungen und Beschleunigungen gibt.

Den Quadcore bekommt man mit Videobearbeitung auch gut ausgereizt.

Der Anfang mag ja kommen, der Anfang ist aber wahrscheinlich erst einmal nur für Unternehmen interessant, wie Google oder dergleichen die unzählige Anfragen pro Sekunde bekommen und bei denen das in Strom/Geld/Zeit geht.
 
Onkelhitman schrieb:
Fortschritt ist wenn ich für dieselbe Leistung weniger verbrauche.

Gibt es nennt sich Low Voltage RAM

Onkelhitman schrieb:
Fortschritt ist, wenn ich bei selbem Verbrauch mehr Leistung bekomme.

Gibt es --> DDR3-2166 im Vergleich zum 1066er mehr Leistung bei gleichem Verbrauch dank 1,5 Volt.

Onkelhitman schrieb:
Fortschritt ist, wenn ich bei selbem Verbrauch und selber Leistung mehr Sicherungsmechanismen habe.

Gibt es auch schon nennt sich RAID bzw. bei RAM ECC.

Onkelhitman schrieb:
Fortschritt ist, wenn bei selbem Verbrauch und selber Leistung alles kleiner wird.

Gibt es auch DIE Schrinks

Onkelhitman schrieb:
Fortschtitt ist, wenn es dasselbe zu einem günstigeren Preis gibt.

Das ist kein Fortschritt sondern Preiskalkulation. Wenn ich kaum investieren muss kann ich etwas gleich teuer anbieten.

Onkelhitman schrieb:
Fortschritt kann nicht sein, Ram mit 800, 1066, 1333, 1600, 2166 Mhz zu verkaufen, obwohl der Anwender damit überhaupt nichts anfangen kann.

Natürlich ist das Fortschritt. Schon mal eine APU betrieben? pack da mal 2166er RAM Ram rein das ist deutlich besser als 1066er.

Onkelhitman schrieb:
Den Quadcore bekommt man mit Videobearbeitung auch gut ausgereizt.

Und welcher "Normalo" nutz dies? Richtig kaum einer. Fakt ist das jeder i7-2600 oder 3770 für jeden Consumer die nächsten 10 Jahre hällt. Da es die Software einfach nicht gibt. Narütlich gibt es aussnahmen aber 99% der Programme für Linux, Mac OS und Windows sind Single Threaded mit einem Kern.

Onkelhitman schrieb:
Der Anfang mag ja kommen, der Anfang ist aber wahrscheinlich erst einmal nur für Unternehmen interessant, wie Google oder dergleichen die unzählige Anfragen pro Sekunde bekommen und bei denen das in Strom/Geld/Zeit geht.

Genau das ist falsch. Geld wird bei Intel z.B. mit dem Cosumer und den OEMs gemacht. Dadurch kommt Geld für Forschung rein und dadurch kann es neues geben.
 
Cool Master schrieb:
SDRAM war früher auch ok...
Und heute nicht mehr? :confused_alt:

Pyroplan schrieb:
Da es auch noch platzsparender sein soll -> mehr Speicher -> Programme könnten sich dann evtl komplett in RAM laden und würden somit deutlich schneller laufen. Gerade was Ladezeiten, Simulationen, Video-/Bildbearbeitung angeht.
Naja Platz ist ja heute nicht das Problem. Man könnte selbst auf dem half-height SO-DIMM 16 Chips unterbringen, stacked noch mehr. Das ist ja nur ne Frage des Formfaktors. Die Datendichte der Speicherchips wird ja nicht größer.
Interessant ist ja die Verschaltung der Chips um hohe Transferraten zu realisieren.

Onkelhitman schrieb:
Daher ist die Frage berechtigt. Wenn niemand den Geschwindigkeitsvorteil nutzen kann, welche Neuerung außer vielleicht einen niedrigeren Stromverbrauch hat der Endkunde davon?
Wieso soll das niemand nutzen können? Grafikkarten knappsen schon fast immer an der mangelnden Speicherbandbreite. Bei den IGPs wirds das gleiche. GDDR5 oder DDR4 reichen da auf lange Sicht nicht aus.

Und selbst bei den CPUs wirds knapp. Sandybridge E ist schon bei Quadchannel angekommen. Bei Ivybridge-EX mit 15 Kernen werden die 4 Kanäle wohl schon aus allen Nähten Platzen. Vorerst wird man sich da aber auch mit DDR4 retten können.


BlackWidowmaker schrieb:
Da gab es auch plötzlich einen Riesensprung beim Speicher von 70-90ns (PS/2-Speicher) auf 8-12ns (vergessen wie das hieß).
PS/2-SIMM beschreibt ja nur den AUfbau des Moduls (Nachfolger ist der DIMM). Was du meinst war der Wechsel von EDO-RAM auf SD-RAM.

Vradash schrieb:
Ich hoffe eher dass die Technik auch bei SSDs anwendbar ist und wir dadurch noch rascher noch größere Größen bekommen und der Preis der aktuell großen Modelle rapide sinkt.
Die Datendichte der Chips wird ja nicht erhöht, nur der Formfaktor wird kompakter. Von daher wird auch der Preis nicht sinken.

Bei SSDs hat man ja auch kein Platzproblem. In 2,5" HDDs passen rein mechanisch mehrere Terabyte. Nur gibts keinen der so viel dafür bezahlen will. ;)
 
Zurück
Oben