Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GDDR6X-Grafikspeicher: 21 Gbps und verdoppelte Kapazität von Micron ab 2021
- Ersteller Volker
- Erstellt am
- Zur News: GDDR6X-Grafikspeicher: 21 Gbps und verdoppelte Kapazität von Micron ab 2021
Bigeagle
Lt. Commander
- Registriert
- Nov. 2008
- Beiträge
- 1.521
Wundert mich ja, dass sich noch keiner über den 'MLC RAM' beschwert hat ^^
Spannend wäre ja ob die Signalqualität besser geworden ist, oder schon immer für 4 Spannungslevel ausgereicht hätte und das nur eine Kostenfrage war, oder in dem Bereich einfach die Technologie schwieriger umzusetzen ist. Da gehen immerhin eine ganze Menge Daten durch, die man auch erstmal mit niedriger Latenz verarbeiten muss.
Oder nimmt man da nun höhere Fehlerraten hin weil es meistens sowieso nur einzelne abweichende Pixel, oder verzerrte Meshes sind und Profis ja sowieso ecc haben?
So ein paar Fragen stellen sich da schon wenn so eine mächtige Veränderung Einzug hält.
Spannend wäre ja ob die Signalqualität besser geworden ist, oder schon immer für 4 Spannungslevel ausgereicht hätte und das nur eine Kostenfrage war, oder in dem Bereich einfach die Technologie schwieriger umzusetzen ist. Da gehen immerhin eine ganze Menge Daten durch, die man auch erstmal mit niedriger Latenz verarbeiten muss.
Oder nimmt man da nun höhere Fehlerraten hin weil es meistens sowieso nur einzelne abweichende Pixel, oder verzerrte Meshes sind und Profis ja sowieso ecc haben?
So ein paar Fragen stellen sich da schon wenn so eine mächtige Veränderung Einzug hält.
aid0nex
Commander
- Registriert
- Feb. 2014
- Beiträge
- 2.747
RNG_AGESA schrieb:consumer stecken auf dem launischen DDR4 fest und die industrie verbraut bereits 4te revision DDR6 mit einem X xD
Ist das ein Witz oder ernst gemeint? Du überliest wohl das G! Bitte nicht die Versionierung von DDR RAM und GDDR RAM durcheinander bringen! Das sind nur Zahlen, eine Benamung!
L
Lübke82
Gast
??? Bei Samsung wird die GPU gefertigt. Bei Micron der Speicher. Worauf willst du da jetzt warten? Außer du meinst die 3070, da ist wohl vieles möglich.boika schrieb:Nvidia hat doch ihre Karten mit Samsung Chips präsentiert, ich werde versuchen Samsung zu bekommen.
Zuletzt bearbeitet von einem Moderator:
Jake Grafton
Lieutenant
- Registriert
- März 2002
- Beiträge
- 731
Vor 2021 können sie ja nicht kommen. Nur vor 2021 wäre "schneller als ich glaube".Steini1990 schrieb:Es ist eigentlich so gut wie fix das in absehbarer Zeit die neuen RTX 3000 Karten mit doppeltem Speicher kommen werden. Wird vermutlich schneller passieren als viele glauben.
Haldi
Admiral
- Registriert
- Feb. 2009
- Beiträge
- 9.746
Wieso?Satan666 schrieb:Freue mich aufs Übertakten, sollte ja einiges möglich sein.
Das ist brandneuer RAM der erst gerade hergestellt wird.
Kann gut sein das der bereits mit dem absoluten Limit betrieben wird.
Viel schlimmer der Speicher Controller. Der jetzt anstatt 2 4 states auslesen muss. Wie viel OC der verkraftet ist unmöglich vorraus zu sehen.
Aber ja. Freuen auf übertaktungs Tests zu ich mich auch.
Hat nVidia schon gut gemacht mit ihren G-Sync Monitoren! Tu ihnen den gefallen und Kauf eine 3090!johnieboy schrieb:Wenn AMD Big Navi gut wird mit 16GB müsste ich aber auch meinen Acer X34 upgraden, weil der der nur Gsync kann und ohne Sync will ich auch nicht mehr spielen müssen.
Dann könnte ich aber genau so gut auch die 3090 nehmen, weil man für Big Navi + guten Monitor auch auf 1500€ kommen würde
Hättest du von Anfang an ein bischen Weitsicht gehabt und ein Monitor mit Free-Sync der G-Sync kompatibel ist gekauft hättest du das Problem heute nicht.
Joa GDDR6X mit PAM4 ist technisch sehr interessant. Ich hoffe anandtech macht einen Deep Dive review davon.Bigeagle schrieb:Oder nimmt man da nun höhere Fehlerraten hin weil es meistens sowieso nur einzelne abweichende Pixel, oder verzerrte Meshes sind und Profis ja sowieso ecc haben?
So ein paar Fragen stellen sich da schon wenn so eine mächtige Veränderung Einzug hält.
Die Frage ist ja ob DDR6? (DDR5 wird momentan in Datenzentren verwendet und DDR6 war noch nicht spezifiziert oder?) auch auf PAM4 setzen wird und ob EEC überhaupt so leicht möglich ist.
johnieboy
Commodore
- Registriert
- Juni 2007
- Beiträge
- 4.421
Haldi schrieb:Hat nVidia schon gut gemacht mit ihren G-Sync Monitoren! Tu ihnen den gefallen und Kauf eine 3090!
Hättest du von Anfang an ein bischen Weitsicht gehabt und ein Monitor mit Free-Sync der G-Sync kompatibel ist gekauft hättest du das Problem heute nicht.
Ja, ist schon blöd das ich 2015 nicht die Weitsicht hatte nen Monitor mit dem 2019 eingeführten G-Sync compatible zu kaufen
Wenn man mal wieder keine Ahnung hat.....
M
matty2580
Gast
Bestimmt wird GDDR6X wieder exklusiv für Nvidia produziert werden, so wie damals GDDR5X bei Pascal.
Bei den großen Mengen die Nvidia abnimmt lohnt sich das auch für beide Seiten.
Bei den großen Mengen die Nvidia abnimmt lohnt sich das auch für beide Seiten.
brezelbieber
Ensign
- Registriert
- Jan. 2019
- Beiträge
- 155
Die Frage die sich aktuell Stellt ist...
Wieviel Speicher braucht 4K?
Reichen die 10 von der 3080 oder doch lieber warten?
Greez
Wieviel Speicher braucht 4K?
Reichen die 10 von der 3080 oder doch lieber warten?
Greez
Die selbe Frage habe ich mir auch schon gestellt.
Ich habe bis jetzt nur ein mal für ein Spiel aufgerüstet (Witcher 3) und für Cyberpunk werde ich es noch einmal tun.
Am Ende bleibt mir nur zu hoffen das 10GB reichen, oder in den sauren Apfel zu beißen und 1500€ auszugeben. Eine Strix 3080 mit 20GB kostet bestimmt auch 1000€. Da kann ich auch gleich zur 3090 greifen.
Man kann sich ja auch einfach mal was unvernünftiges gönnen. Beim Auto interessiert das auch niemand wie viel das kostet. Was da für Geld verbrannt wird...
AMD müsste schon echt überzeugen damit die in Frage kommen.
Ich habe bis jetzt nur ein mal für ein Spiel aufgerüstet (Witcher 3) und für Cyberpunk werde ich es noch einmal tun.
Am Ende bleibt mir nur zu hoffen das 10GB reichen, oder in den sauren Apfel zu beißen und 1500€ auszugeben. Eine Strix 3080 mit 20GB kostet bestimmt auch 1000€. Da kann ich auch gleich zur 3090 greifen.
Man kann sich ja auch einfach mal was unvernünftiges gönnen. Beim Auto interessiert das auch niemand wie viel das kostet. Was da für Geld verbrannt wird...
AMD müsste schon echt überzeugen damit die in Frage kommen.
@Volker
Bei 50 % mehr Bandbreite wäre das ein deutlich erhöhten Energiebedarf.
Und PAM4 heißt, dass sie nun quasi QDR statt DDR fahren?
Das passt nicht zur Grafik, die 15 % weniger Enerige pro übertragenem Bit angibt.Dennoch sollen die Chips bei 50 Prozent mehr Bandbreite weniger Energie verbrauchen.
Bei 50 % mehr Bandbreite wäre das ein deutlich erhöhten Energiebedarf.
Und PAM4 heißt, dass sie nun quasi QDR statt DDR fahren?
Haldi schrieb:Joa GDDR6X mit PAM4 ist technisch sehr interessant. Ich hoffe anandtech macht einen Deep Dive review davon.
Schon längst geschehen.
https://www.anandtech.com/show/1597...g-for-higher-rates-coming-to-nvidias-rtx-3090
eyedexe schrieb:Ich glaube ganz so lange wird man nicht warten müssen
Die RTX 3070 setzt auf GDDR6, die kann auch schon früher mit 16GB kommen.... nämlich als AMD-Konter
Ich persönlich glaube nicht, dass die AMD-Karte die RTX3080 schlagen wird von der Leistung. Einfach deswegen, weil AMD sich wie alle Jahre zuvor an die maximalen 300W halten wird, während Nvidia diese ganz klar überschreitet mit der RTX 3080. Ich glaube auch nicht, dass AMD so viel efizienter ist, dass die mit 300 Watt eine 320W-Karte von Nvidia schlagen können. Schon gar nicht mit GDDR6 und 512Bit-Interface, der einiges an Strohm verbraucht... Daher wird es für Nvidia reichen die AMD-Karte mit einer RTX 3070TI 16 GB GDDR6 zu kontern. Die RTX 3080 mit 20 GB GDDR6X kommt dann nächstes Jahr, wenn die größeren GDDR6X-Modulle verfügbar sind. Klar könnte man auch weitere Chips auf der Rückseite verbauen, aber das würde den Preis und die Verlustleistung noch weiter in die Höhe treiben und das hat Nvidia mit der RTX 3090 bereits im Sortiment..
Eine SSD mit MLC/TLC oder gar QLC wird langsamer. Der RAM hier wird mit dem vierfachsignal schneller. Das ist schon ein Unterschied bei der Bewertung durch den Konsumenten.Bigeagle schrieb:Wundert mich ja, dass sich noch keiner über den 'MLC RAM' beschwert hat ^^
Auch sind einem die Daten auf einer SSD doch wichtiger, als die Daten im Grafikspeicher, wo dann irgendwo ein Pixelfehler auf dem Bilschirm im schlimmsten Fall auftaucht...
Zuletzt bearbeitet:
Hayda Ministral
Banned
- Registriert
- Nov. 2017
- Beiträge
- 7.835
"Das passende Speicherinterface" hat übrigens schon auch die Radeon Instinct MI100.
Für mich interessant: Wie hoch ist denn die Leistungsaufnahme des Speichers dabei? Also wenn man wirklich herstellerseitig das Interface so auslegt und maximal ausnutzt? Als HBM rauskam wurde das ja auch damit begründet dass [G]DDRx irgendwann in naher Zukunft gegen eine Wand laufen wird weil die TPD zu sehr steigt. War das nur Marketing?
Für mich interessant: Wie hoch ist denn die Leistungsaufnahme des Speichers dabei? Also wenn man wirklich herstellerseitig das Interface so auslegt und maximal ausnutzt? Als HBM rauskam wurde das ja auch damit begründet dass [G]DDRx irgendwann in naher Zukunft gegen eine Wand laufen wird weil die TPD zu sehr steigt. War das nur Marketing?
brezelbieber
Ensign
- Registriert
- Jan. 2019
- Beiträge
- 155
HBM2
HBM2 vs GDDR6
Soweit ich das verstehe müssten zu viele Verbindungen bei HBM2 geschaffen werden was die Architektur überlasten würde.
Hayda Ministral schrieb:"Das passende Speicherinterface" hat übrigens schon auch die Radeon Instinct MI100.
HBM2 vs GDDR6
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Hayda Ministral
Banned
- Registriert
- Nov. 2017
- Beiträge
- 7.835
Zu viele Verbindungen? Uh? Hast Du schon bei AMD angerufen um sie darauf hin zu weisen dass ihre MI100 nicht funktionieren kann?
Zum Video: Nice. Bei 10:00 - GDDR6x braucht drei bis viermal so viel elektrische Leistung. (was mein Focus beim Betrachten war, der Rest war so einigermaßen bekannt)
Zum Video: Nice. Bei 10:00 - GDDR6x braucht drei bis viermal so viel elektrische Leistung. (was mein Focus beim Betrachten war, der Rest war so einigermaßen bekannt)
Haldi
Admiral
- Registriert
- Feb. 2009
- Beiträge
- 9.746
Naja die 19-21 sind das Theoretisch spezifizierte Limit.Satan666 schrieb:Steht doch im Text das der RAM sehr moderat betrieben wird, 19-21 sind möglich und mit 19,5 wird er betrieben. Also am Limit ist da gar nichts, oder meinst du das anders?
Kann gut sein das die erste Generation Speicher Controller oder die Chips selbst gar nicht so schnell arbeiten werden können.
Aber das ist im voraus immer sehr schwer zu erraten.
Ergänzung ()
Danke für den Link. Hab den verpasst.xexex schrieb:
Aber ist eben nur eine Technische Erklärung ohne Praxis versuche. Sagen sie auch selbst.
"At any rate, as this is a market overview rather than a technical deep dive, the details on GDDR6X are slim."
Zuletzt bearbeitet:
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.566
brezelbieber schrieb:Die Frage die sich aktuell Stellt ist...
Wieviel Speicher braucht 4K?
Reichen die 10 von der 3080 oder doch lieber warten?
Greez
Kommt auf das Spiel an. Ich hab ne 1080 und hatte bis jetzt noch keine Probleme. Glaub mit Divinity 2 hatte ich mal 7,6 oder 7,8 GB mit div. Mods.
Ich halte 10 GB allerdings für etwas wenig im Jahr 2020, vor allem wenn man sie in UHD nutzen will. Aber gut ich kauf auch eine 3090 daher habe ich das Problem erst mal nicht.
Ähnliche Themen
- Antworten
- 232
- Aufrufe
- 45.088