News Grafikspeicher GDDR7: Micron legt Grundstein für 1,5 TB/s auf Grafikkarten

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.387
  • Gefällt mir
Reaktionen: flo.murr, Benjamin_Blume, ChrisMK72 und 5 andere
Und vermutlich werden die Kartenpreise damit nur einen weg kennen: 🚀
 
  • Gefällt mir
Reaktionen: LeckerRK, xXBobbyXx, Peacemaker1337 und 10 andere
Hi,

ich lese immer nur "sparsamer", am Ende brauchen die Systeme und Komponenten aber trotzdem absolut betrachtet immer mehr Strom, da natürlich mehr Leistung gefordert wird.

Mich würde ein Rechner interessieren, die die gleiche Leistung wie eine aktuelle Maschine hat, aber in Summe deutlich weniger Strom verbraucht. Stromrechnung, Größe, Lautstärke, Kühlung - alle Aspekte wäre da durchaus interessant finde ich!

Fände ich mal richtig interessant so einen Ansatz.

VG,
Mad
 
  • Gefällt mir
Reaktionen: Gelöscht, Mondgesang, M11E und 12 andere
Khaotik schrieb:
Und vermutlich werden die Kartenpreise damit nur einen weg kennen: 🚀
Unti schrieb:
Keine Sorge, das wären sie auch mit GDDR6X.
Das ist richtig und ich würde sogar sagen: Stärker. GDDR6X basiert, wie GDDR6, noch auf DDR4 und langsam aber sicher wird dessen Produktion heruntergefahren. Und die Anpassungen von GDDR6X gegenüber GDDR6 sind kein Kinderspiel, sondern sorgen für hohe Anforderungen, während GDDR7 mit deutlich mehr Fingerspitzengefühl gebaut ist. Entsprechend sorgt GDDR7 eher für preisliche Entspannung.
Madman1209 schrieb:
ich lese immer nur "sparsamer", am Ende brauchen die Systeme und Komponenten aber trotzdem absolut betrachtet immer mehr Strom, da natürlich mehr Leistung gefordert wird.

Mich würde ein Rechner interessieren, die die gleiche Leistung wie eine aktuelle Maschine hat, aber in Summe deutlich weniger Strom verbraucht. Stromrechnung, Größe, Lautstärke, Kühlung - alle Aspekte wäre da durchaus interessant finde ich!
Kein Problem, such dir einfach einen Vergleichswert deiner Wahl heraus und guck dann in den nächsten Jahren. Also entscheide dich jetzt, welche Performance dir reichen würde und dann reden wir darüber in zwei Jahren noch einmal.

Für die Vergangenheit ist das problemlos möglich. Mein Lieblingsartikel für eine entsprechende Basis ist dieser...
https://www.pcgameshardware.de/Gefo...st-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/4
Der hat natürlich auch noch einige Schwächen für eine solche Betrachtung, zum Beispiel benutzt er für so ein Szenario nicht die passende CPU, den 7800X3D. Und außerdem wird nicht ergründet, wie die einzelnen Karten performen würden, wenn sie alle auf das naheliegende Powerlimit 2080ti / 2 fixiert würden.
 
  • Gefällt mir
Reaktionen: Yosup und Flutefox
onkel_axel schrieb:
Sollte für die nächste Konsolen Generation interessant werden.
40GB and 320bit
Das stelle ich mir ebenfalls interessant vor.
Eine PS6 wird dann einiges leisten müssen.
Dazu noch ein paar passende Spiele und das Ding wird sich top verkaufen.
Wenn die 2027 kommt, dann wird man auch noch GTA 6 darauf releasen mit verbesserter Grafik etc.
 
Madman1209 schrieb:
Fände ich mal richtig interessant so einen Ansatz.

Da bin ich zu 100% bei dir, aber der Markt will es scheinbar nicht. Am Ende ist man da bei den OEMs vmtl. am besten aufgehoben, die sich bei Mainboards zb. schon komplett auf 12V eingeschossen haben etc.
 
Khaotik schrieb:
Und vermutlich werden die Kartenpreise damit nur einen weg kennen: 🚀
Die Frage ist ja immer, was ist billiger: Mehr Cache / breiteres Speicherinterface auf dem Chip oder der schnellere Speicher. AMD sagt ersteres, NV letzteres.

Zuletzt bei der 7900GRE hat man ja gesehen, dass die Speichergeschwindigkeit nicht ganz unwichtig ist. Ist wie bei Speichermenge: Ich zahle lieber etwas mehr, damit das Speichersystem insgesamt meine teure GPU nicht ausbremst.

Und am Ende werden auch in der neuen Gen wieder alle NV kaufen und "niemand" die von der Architektur her kostengünstig designten AMDs oder die (zugegebenermassen mit miesen Treibern geschlagenen) P/L-Sieger von Intel. Da das Teuerste gekauft wird, werden die GPUs auch weiter teurer. Ganz einfache Marktwirtschaft.
 
@Madman1209
1717589245761.png

https://www.tomshardware.com/news/improving-nvidia-rtx-4090-efficiency-through-power-limiting

Kauf dir eine 4090 und limitiere sie auf 50%. Da verlierst du ca 30% Performance, sparst aber 225 Watt.
Bei 1h/Tag und 40 Cent / kWh wären das knapp 33€ im Jahr.
 
  • Gefällt mir
Reaktionen: Zockmock, schneeland und Roi-Danton
DerRico schrieb:
Die Frage ist ja immer, was ist billiger: Mehr Cache / breiteres Speicherinterface auf dem Chip oder der schnellere Speicher. AMD sagt ersteres, NV letzteres.
Das kann man so nicht sagen, denn Nvidia hat ja den Cache mit RTX4000 stark vergrößert.
Ergänzung ()

S.Kara schrieb:
Kauf dir eine 4090 und limitiere sie auf 50%. Da verlierst du ca 30% Performance, sparst aber 225 Watt.
Bei 1h/Tag und 40 Cent / kWh wären das knapp 33€ im Jahr.
Muss noch nicht mal so stark sein. Ein Limit auf 300W und man verliert maximal 10% Leistung, meist eher nur 5%.

Mein gesamter PC mit 5800X3D und 4090 verbraucht weniger als eine Stock 4090.
Ich liege unter 400W mit dem PC und zocke mit 4k 120FPS als Ziel.
Mit 1440p 120FPS als Ziel würde ich komplett unter 300W liegen.
Dabei kann man tatsächlich DLSS nutzen um Strom zu sparen!
 
  • Gefällt mir
Reaktionen: lynx007
Flutefox schrieb:
Da bin ich zu 100% bei dir, aber der Markt will es scheinbar nicht. Am Ende ist man da bei den OEMs vmtl. am besten aufgehoben, die sich bei Mainboards zb. schon komplett auf 12V eingeschossen haben etc.
Es geht im Endeffekt ja auch um das Ziel der Leistungssteigerung bei bei unterproportional steigendem Energieverbrauch. Wie sonst wollen wir (die Menschheit) sonst technisch weiterkommen. Minimaler Energieverbrauch bei gleicher Leistung ist auf Dauer ein Rückschritt imo.
 
Madman1209 schrieb:
Hi,

ich lese immer nur "sparsamer", am Ende brauchen die Systeme und Komponenten aber trotzdem absolut betrachtet immer mehr Strom, da natürlich mehr Leistung gefordert wird.
Naja. Ein Intel Core 2 Quad kann einem NUC von heute nicht das Wasser reichen und wir reden von einer CPU vs. Gesamtes System.

Also eigentlich schon "sparsamer". Oder man nehme ein NUC von vor 3 Jahren vs. Heute - auch "sparsamer" oder Leistungsstärker bei gleichem Verbrauch.
 
@Madman1209
häh? gibts doch. Du kaufst in neueren Generation statt einer 2080 einfach eine 4070 und bekommst mehr Leistung für weniger Energie.
 
  • Gefällt mir
Reaktionen: Pro_Bro, Zarlak, ETI1120 und eine weitere Person
zittrig schrieb:
Minimaler Energieverbrauch bei gleicher Leistung ist auf Dauer ein Rückschritt imo.
Das war eigentlich immer der Bereich der Mittelklassekarten der nächsten Generation - niedriger Verbrauch und Lautstärke bei nahezu Highendleistung der Vorgeneration
 
  • Gefällt mir
Reaktionen: lynx007 und M11E
Madman1209 schrieb:
Mich würde ein Rechner interessieren, die die gleiche Leistung wie eine aktuelle Maschine hat, aber in Summe deutlich weniger Strom verbraucht.
Welche Leistung soll er denn haben? Denn im Prinzip kannst du jedes Jahr genau das bekommen, gleiche Leistung für weniger Stromverbrauch, oder eben mehr Leistung bei gleichem Stromverbrauch, oder eben noch mal mehr Leistung zu mehr Stromverbrauch.

Heute kannst du mit einer iGPU Leistung erreichen von Karten der vorvorvorletzen Generation. Und das zu einem Bruchteil des Stromverbrauchs.

Du musst halt jedes Jahr aufrüsten um die Effizienz mitzunehmen. Macht nur keinen Sinn.
 
  • Gefällt mir
Reaktionen: medsommer
CDLABSRadonP... schrieb:
Und die Anpassungen von GDDR6X gegenüber GDDR6 sind kein Kinderspiel, sondern sorgen für hohe Anforderungen, während GDDR7 mit deutlich mehr Fingerspitzengefühl gebaut ist. Entsprechend sorgt GDDR7 eher für preisliche Entspannung.
bei den Herstellern vielleicht, aber ganz sicher nicht bei uns Endkunden ....
 
  • Gefällt mir
Reaktionen: Slim.Shady
Ich benutze eine 6800XT die noch sehr genügsam ist wenn ich z.B. bei meinen 4K Monitor den FPS auf 60HZ limtiere und das Power Limit und die Spannung etwas reduziere dann benötigt die Karte ca. 70 bis 80 Watt und die Lüfter drehen mit 700 Umdrehungen pro Minute häufig stehen die Lüfter sogar. Selbst mit der geringen Abwärme komme ich im Winter in meinem sehr kleinen Gaming Raum auf 26° Zimmertemperatur. Da will ich mir nicht ausmahlen wenn die GPU 400W verschlingt und dann noch eine Intel CPU mit 150W benötigt.
 
  • Gefällt mir
Reaktionen: MichaG
Zurück
Oben