News Grafikspeicher von Micron: Schnellere 2-GB-GDDR6X-Chips gehen in Serienfertigung

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
16.021
  • Gefällt mir
Reaktionen: flo.murr, Onkel Föhn, C4rp3di3m und 5 andere
Na das wird sehr spannend. Wenn NVIDIA wirklich einen Infinity Cache einführt, werden Sie die Nase deutlich vorne haben.

Aber nach allem was man so mitbekommt wird RDNA3 die Effizienzkrone mit Leichtigkeit gegen ADA gewinnen. Und mir persönlich ist das dann bei der eh schon starken Leistung wichtiger.

5120x1440@120Hz müssen irgendwie befeuert werden. Das schafft momentan keine Karte wirklich. Aber für den Preis von 600 ADA-Watt? No Way!

Durch solche Massnahmen wie GDDR6 anstatt GDDR6x zeichnet sich schon wieder ab, das die AMD's günstiger werden als Nvidia. Wäre echt mal ne tolle Überraschung wenn sie dennoch etwas besser performen würden durch Infinity Cache.

Jetzt wäre es noch toll wenn Micron auch endlich DDR5 @ 6400Mhz (bisher nur 4800er) anbietet und nicht nur am GDDR6X optimiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: flo.murr und Hatsune_Miku
Schon pervers, wie schnell man Daten von A nach B schieben kann. Das Platinenlayout will ich aber nicht zeichnen :D

Mal gespannt, wann die neue Generation kommt und zu was für Preisen die über die Theke gehen werden.
 
  • Gefällt mir
Reaktionen: aid0nex, gartenriese, Jan und eine weitere Person
Viper816 schrieb:
Aber nach allem was man so mitbekommt wird RDNA3 die Effizienzkrone mit Leichtigkeit gegen ADA gewinnen.
Wieso das denn? Nur weil das Topmodell bis zu 600 Watt schluckt sagt das halt gar nichts über die Effizienz aus.
Da Nvidia von 8nm Samsung auf 5nm TSMC wechselt kannst du davon ausgehen dass Ada einen riesigen Sprung in Sachen Effizienz macht.
 
  • Gefällt mir
Reaktionen: gartenriese
Viper816 schrieb:
Aber nach allem was man so mitbekommt wird RDNA3 die Effizienzkrone mit Leichtigkeit gegen ADA gewinnen. Und mir persönlich ist das dann bei der eh schon starken Leistung wichtiger.
Bei 300 Watt mach ich die nächste Generation Cut.
 
  • Gefällt mir
Reaktionen: DaBo87 und Viper816
S.Kara schrieb:
Wieso das denn? Nur weil das Topmodell bis zu 600 Watt schluckt sagt das halt gar nichts über die Effizienz aus.
Da Nvidia von 8nm Samsung auf 5nm TSMC wechselt kannst du davon ausgehen dass Ada einen riesigen Sprung in Sachen Effizienz macht.
Immer dieses Nanometer geschwätz ich kanns langsam nicht mehr hören. Sämtliche Leaker und Leute aus der Branche sagen schon seit Wochen das RDNA3 Effizienter sein wird aus vielen Gründen. Vorrangig durch das Chiplet Design.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: baizer, aid0nex, Heinrich Bhaal und 2 andere
  • Gefällt mir
Reaktionen: Heinrich Bhaal
Was bringt der Speicher? Siehe RTX 3070 zu 3070TI 5%? Wenn beide übertaktet sind sind sie absolut gleichschnell. Das einzige was dieser Speicher tut ist Strom fressen.
 
  • Gefällt mir
Reaktionen: Viper816
Galarius schrieb:
Leute aus der Branche sagen schon seit Wochen das RDNA3 Effizienter sein wird aus vielen Gründen. Vorrangig durch das Chiplet Design.

Ein Chiplet Design macht aber nichts effizienter. Du brauchst ja sogar zusätzlichen Platz für Kommunikation und Zusammenarbeit usw. für die einzelnen Einheiten. Verteilte Einheiten kann man natürlich unter umständen besser kühlen.

Chiplet sind günstiger herzustellen, da einzelne kleinere Chips und damit weniger Ausschuss.

Die Architektur und Fertigung zeigen ob etwas Effizienter ist.
AMD zeigt ja auch bei jetziger Generation, dass es grundsätzlich geht, nur im High-End sind sie noch nicht stark genug.
 
  • Gefällt mir
Reaktionen: Herr-A, Innocience, GT200b und 2 andere
Kann AMD nicht damit eine 8GB 6500XT bauen?
PCIe-Problem solved.
 
oem111 schrieb:
Kann AMD nicht damit eine 8GB 6500XT bauen?
PCIe-Problem solved.
Ja machen sie doch der Gerüchteküche nach. Siehe mein Link und Screen hier:.
2022-04-13 15_01_27.png
 
Galarius schrieb:
Immer dieses Nanometer geschwätz ich kanns langsam nicht mehr höhren.
Wieso das denn? Nvidia welchselt nun mal vom 8nm Samsung auf 5nm TSMC.
Wenn du das nicht mehr hören kannst bist du hier falsch.

Galarius schrieb:
Sämtliche Leaker und Leute aus der Branche sagen schon seit Wochen das RDNA3 Effizienter sein wird aus vielen Gründen. Vorrangig durch das Chiplet Design.
Das Chiplet Design ist keine Garantie für höhere Effizienz. Von glaubwürdigen Leakern ist zudem weiterhin bis auf ein paar Eckdaten nicht viel bekannt.

Viper816 schrieb:
Sorry aber wo steht da dass die neuen Karten von AMD sparsamer sein werden als die von Nvidia?
 
  • Gefällt mir
Reaktionen: RogueSix, W4RO_DE und gartenriese
Danke für den Link Viper, diese Neuauflage wäre aber was völlig Neues da 128bit SI.

Die 6500xt hat nur 64bit
 
Ich glaube die miner freuen sich eher über schnelleren Speicher, als die Gamer.

Übertakten mal euren Speicher, zb. Jetzt bei der 3000er gen.
Selbst bei 1000mhz plus, sind das kaum 2-3% wenn überhaupt.

Es limitiert doch eher die speichermenge, oder der Chip selbst, bevor die Speicher Geschwindigkeit ein Problem wird.

Siehe Radeon 7 mit ihrem hbm Speicher.
Was hat es gebracht? Ne gute hashrate, das war’s 😅
 
  • Gefällt mir
Reaktionen: Col.Maybourne und Viper816
Super:

  • 15% less power per transfered bit
  • von 14 Gb/s auf 21 Gb/s (50% mehr)
  • 1.5 / 1.15 ~ 1.3

Unterm Strich 30% mehr Verbrauch, pro Gb verbauten RAM.

Man passt sich den Trend der Mitbewerber an. Mehr Leistung durch mehr Leistungsaufnahme.
 
  • Gefällt mir
Reaktionen: baizer
@Corpus Delicti Du verwechselst die Gewindigkeit mit dem Verbrauch pro Transfer.

Die Menge an zu übertragenen Bits ändert sich nicht, es bleibt die 15% bessere Effizienz bei gleichzeitig 50% höherer Bandbreite.
 
S.Kara schrieb:
Sorry aber wo steht da dass die neuen Karten von AMD sparsamer sein werden als die von Nvidia?
Meine Güte, liess doch einfach den Artikel. Fängt schon bei der Überschrift an. Im ersten Abschnitt steht alles. Sonst schau das dort verlinkte Video von Moores Law is Dead.

Wenn Du es immer noch nicht findest, dann mach ich Dir Screenshots der entsprechenden Sätze.

Kleiner Tipp zum Thema Textverständnis:
Es steht nirgens, dass die Karten sparsamer werden als nvidia, sondern das es stark anzunehmen sei. Was sein wird weiss noch niemand mit Bestimmtheit. Wir sind noch in der Gerüchtephase!

PS: Sorry
 
Eine Überraschung? NEIN!
Micron war gezwungen auf 24Gb/s zu erhöhen, weil Samsung ja mit GDDR6 das auch schafft und schon vorhanden ist.
 
  • Gefällt mir
Reaktionen: Viper816
Fegr8 schrieb:
Eine Überraschung? NEIN!
Micron war gezwungen auf 24Gb/s zu erhöhen, weil Samsung ja mit GDDR6 das auch schafft und schon vorhanden ist.
Naja, bisher nur auf dem Papier. Ich glaube das erst wenn ich den irgendwo verbaut sehe. Und dann will ich auch erstmal die Effizienz sehen.
Von der Samsung Page ist der Speicher zumindest wieder verschwunden und zuvor war der auch noch im sampling Status.
Was viele vergessen ist, dass nicht unbedingt der Speicher das Problem ist, sondern der Speichercontroller in Ampere.
Ergänzung ()

flappes schrieb:
Die Architektur und Fertigung zeigen ob etwas Effizienter ist.
Und die Breite des Chips. Ein breites Design, kann ich deutlich niedriger takten, was effizienter ist.
Ada wird ja generell sicherlich auch nicht mega ineffizient. Die übertreiben es nur extrem mit den Taktraten weitab des Sweetspot.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Viper816
bensen schrieb:
Von der Samsung Page ist der Speicher zumindest wieder verschwunden und zuvor war der auch noch im sampling Status.

Laut Heise wird der Samsung GDDR6X Speicher inzwischen als LPDDR4X auf der Webseite gelistet.
heise online schrieb:
Samsung hat GDDR6-Bausteine mit 24 Gbps schon Ende 2021 in seinem Produktkatalog aufgenommen, laut dem Partnerhersteller zu dem Zeitpunkt bereits bemustert wurden. […] Im Produktkatalog geriet seitdem offenbar etwas durcheinander, denn die schnelleren GDDR6-Chips werden jetzt irrtümlich als LPDDR4X aufgeführt.
Quelle
 
  • Gefällt mir
Reaktionen: Viper816
Zurück
Oben