News Sparsame 2-Gbit-DDR3-Chips in 30 nm von Samsung

phelix schrieb:
Es sind wohl eher Gigabyte statt Gigabit gemeint...
2GBit = 256MByte
Davon packst du 8 auf eine Platine und du hast 1 Single sided Modul mit 2 GByte oder 16 Stück -> double sided 4GByte
 
Wenn man bei manchen hier so ließst, könnte man denken die wollen die Hardware umsonst, nein am besten noch Geld dazu bekommen :freak: Es gab Zeiten da hat man für 2 bzw. 4 GB weit über 100€ bezahlt, durch die niedrigen Speicherpreise sind wohl viele verwöhnt wurden.
 
Du sagst es doch selber, die Preise sind höher als vor einiger Zeit(DDR2+DDR3?!). Wobei man früher weniger Speicher brauchte (DDR1).
 
canada schrieb:
Wenn man bei manchen hier so ließst, könnte man denken die wollen die Hardware umsonst, nein am besten noch Geld dazu bekommen :freak: Es gab Zeiten da hat man für 2 bzw. 4 GB weit über 100€ bezahlt, durch die niedrigen Speicherpreise sind wohl viele verwöhnt wurden.
Man zahlt für 4GB AM STÜCK immer noch viel zu hohe Preise
http://geizhals.at/?cat=ramddr3&xf=1454_4096&sort=p

Wenn man mal sieht, dass 2x2GB mit Glück die Hälfte von 1x4 GB kosten.
http://geizhals.at/?cat=ramddr3&xf=1454_4096~1454_2048&sort=p

Sollte es nicht an sich günstiger sein, größere Module her zu stellen, als kleinere?
Man braucht zwar mehr Chips pro modul, aber man braucht halt weniger Modul an sich wo die Chips draufkommen richtig? Ausserdem ist bei Chips mit höherer Kapazität doch auch mehr Chip pro Wafer zu bekommen, wenn die in derselben oder gar kleineren Norm produziert werden, oder?
 
ich will endlich 4 gb Modulle mit " normalen Timings " zu einem Gigabyte/ euro Preis der dennen von 2 Gb Modullen entspricht.

Scharfe Timing sind doch nur für Benchmark Fetischisten interessant.
 
An die Leute, die sich über den Energiehunger ihrer Module lustig machen:
In dem Artikel ist auch die Rede von Servermodulen. Und wo ein Server steht, stehen meist noch mehr.
Schonmal daran gedacht, dass ein Ersparnis von 0,4 Watt bei 1000 Servern im Jahr schon ein "kleines" bisschen mehr Ersparnis, als bei euch zu Hause bedeutet?

Das Internet ist einer der größten Energie"verschwender" den es gibt...
 
Eine Ersparnis ist es doch nur theoretischer Natur, wenn Serverfarmen low voltage Rams benutzen.
SSDs, Cloudcomputing und Wegrationalisierung von Servern bringen hier Einsparungen in deutlich zweistelligen Prozentwerten im Gegensatz zu möglicherweise 2%-5% bei Rams.
 
Hexenkönig schrieb:
Schonmal daran gedacht, dass ein Ersparnis von 0,4 Watt bei 1000 Servern im Jahr schon ein "kleines" bisschen mehr Ersparnis, als bei euch zu Hause bedeutet?
Ich glaube du überschätzt das Umweltbewusstsein von Leuten die über ein Budget von mehreren Millionen Euro verfügen um Server zu kaufen.
Auch heute noch ist der Kaufpreis in Relation zum Verbrauch so viel höher, dass 5 Watt mehr oder weniger beim Kauf nicht ins Gewicht fallen, da wird nach dem Preis entschieden.

Und Samsung geht es wohl eher nicht um Sparen sondern um billiger herstellen, der Rest ist Goodie.
 
@ Blutschlumpf
Falsch, Unternehmen denken zunehmend anders. Erst letztens habe ich einen Vertreter von Seagate getroffen. Als ich ihn darauf ansprach warum sie keine SSD's herstellen erklärte er mir das Seagate sehr wohl SSD's herstellt aber nur für Unternehmen nicht für normale Endkunden. Seagates größter Kunde sei anscheinend Google, die sehr viele SLC-SSD's bei Seagate ordern, weil die in den Servern von Google weniger verbrauchen als HDD's. Die rechnen nicht Preis/Gigabyte sonder Gigabyte/Energierbrauch. Und die kaufen sauteure SLC-SSD's mit 32-64GB. Da kostet eine wahrscheinlich locker über 400€:freak:!

Edit: Auserdem musst du bedenken dass es sich vielleicht wirklich nicht lohnt auf diese Module umzurüsten, aber wenn man eine Server/Workstation-Anlage neu aufbaut überlegen die ja gleich weiter, denn:
- Sie brauchen keine so gute/teure Kühlanlage
- Sie brauchen kein so großes Netzteil alias Stromkasten
- evtl. ist die andere Kühlanlage auch leiser und braucht ebenfalls weniger Strom
- evtl. stabilerer Betrieb durch geringere Wärmeentwicklung (z.B. die Tage über 33°C:freak:)
 
Zuletzt bearbeitet:
@Gorby: Du glaubst ernsthaft Google kauft SLC-SSDs um Energie zu sparen ? Sorry, aber an dem Punkt kann ich deinen Post nicht mehr Ernst nehmen.

PS: Ich arbeite in nem RZ, wir haben hier gerade nen Kunden bekommen der hier 3 Schränke mit Poweredges gekauft hat ohne sich auch nur annähernd Gedanken über den Verbrauch der Geräte zu machen.
Mag sein, dass es (wenige) Firmen gibt die so ticken wie du denkst, die meisten rechnen den Preis der Hardware + die Betriebskosten auf 3 Jahre und kaufen dann das günstigste was deren Bedarf deckt.
Sparsame Hardware wird nur gekauft wenn der Aufpreis nicht höher ist als die zu erwartenden Einsparungen bei der Colocation (Strom und Klima). Wenns keine Kosten sparen würde gäbs kein "Green-IT".

Und welcher Speicher im Server steckt ist nichtmal zweitrangig weil man bei Dell, IBM und co eh nicht Speicher von Hersteller xy kauft sondern xy GB für Poweredge R710, eSeries wasauchimmer. Wer den herstellt und welche Chips darauf verbaut werden wissen geschätzte 90% der Käufer und Administratoren nicht (außer Sie gucken nach dem Kauf im Server nach).
 
Zurück
Oben