Plastikman schrieb:
Man sollte wirklich mehr darauf hinweisen, dass die Effizienz durch den wenigen VRAM erkauft wird. Meiner Meinung nach wird das zu wenig betont. Effizienz wird übermäßig positiv bewertet gegenüber dem VRAM. VRam frisst aber eben viel Strom.
Kann ja gar nicht, wie uns
@KlaraElfer erst erklärt hat!
KlaraElfer schrieb:
Smartcom5 schrieb:
Eine ganze Menge!
Deswegen versucht ja nVidia immer wieder höchst erfolgreich mit verringerter Speicher- und damit Leistungsaufnahme künstlich die Effizienz klein zu rechnen – bedauerlicherweise oftmals mit großem Erfolg.
Das hat gar nichts damit zu tun. Verdoppelung des Speichers bei gleichem Interface kostet nur innerhalb der Messungenauigkeit mehr Strom und erhöht den Verwaltungsaufwand der GPU.
Per se kostet mehr V-ram aber nichts. Heißt, die 1660 Ti könnte auch 12GB haben und der Verbrauch bliebe identisch.
Würde ein Mehr an VRAM jedoch wie von ihm hier behauptet
nicht mit signifikantem Mehrverbrauch einhergehen, hätte man HBM als GDDRx Alternative gar nicht erst entwickelt. Die verhältnismäßig hohe Leistungsaufnahme von GDDR5 ist einer
der Hauptgründe, weswegen HBM überhaupt existiert – um eben den Stromverbrauch von VRAM zu reduzieren.
Entsprechend unmittelbar vergleichbare Beispiele wären da etwa die
RX 480, welche mit 4- wie auch 8 GByte VRAM daherkamen – allerdings muß man hier präzise zwischen den Custom-After-Launch 4GByte-Reviews mit tatsächlich nur 4 GByte und den Presse-Karten unterscheiden, welche lediglich
per BIOS 4 GByte an VRam deaktiviert hatten und ansonsten physikalisch 8 GByte auf dem PCB nutzten (welcher dann auch
per Soft-mod freizuschalten ist).
Stromverbrauch von GDDR5 Grund für HBM-Entwicklung
GDDR5 hat und verursacht signifikante Stromaufnahme (im einzelnen deren Controller…), deswegen schrieb selbst AnandTech seinerzeit im Vergleichartikel zwischen GDDR5 und HBM ja nicht ohne Grund, daß (laut AMDs eigener Aussage) bei der Stromaufnahme beispielsweise einer
R9 290X bei einer TDP von 250W zwischen etwa 37,5W und 50W auf den Speicher an und für sich entfallen. 15–20% des Gesamtverbrauchsbudgets also.
„The current GDDR5 power consumption situation is such that by AMD’s estimate 15-20% of Radeon R9 290X’s (250W TDP) power consumption is for memory. This being even after the company went with a wider, slower 512-bit GDDR5 memory bus clocked at 5GHz as to better contain power consumption. So using a further, faster, higher power drain memory standard would only serve to exacerbate that problem.“
— Ryan Smith,
AnandTech, 19. Mai 2015 · „
AMD Dives Deep On High Bandwidth Memory - What Will HBM Bring AMD?“
GDDR6 35% weniger Leistunsgaufnahme
Zwar setzt die
GTX 1660 Ti mit GDDR6 statt GDDR5 auf vergleichsweise sparsameren Speicher, allerdings trägt dieser mit 'nur' um 35% verringerter Leistungsaufnahme trotzdem noch signifikant zur Gesamt-TDP bei. In diesem Falle wären das bei einer R9 290X noch immer 24,36W–32,5W –
unübertaktet und innerhalb der Referenz-Frequenzen wohlgemerkt, macht noch immer 9–10% der Gesamt-TDP. Entsprechende Zahlen kamen seinerzeit direkt von Samsung, wurden also nicht redaktionell ermittelt und dürften damit ziemlich präzise der Wahrheit entsprechen.
Ergo kann man selbst den Stromverbrauch von GDDR6
nicht als praktisch nicht existent abtun, wenn er im besten Fall mit bestmöglichen Presse-Zahlen (Spec-sheets geben stets das Optimum an) ohne Overcklocking bereits minimum 10% des Gesamtverbrauchs einer entsprechenden Karte ausmacht. Warum sich dieses dämliche Gerücht seit Jahren so hartnäckig hält, daß größere VRAM-Austattungen
nicht zur erhöhten Leistungsaufnahme eine Grafikkarte beitragen, verstehe Wer will … Es ist und bleibt schlicht Nonsense.
deo schrieb:
Wie kann es sein, dass 2GB mehr RAM in der Spitze zu über 80 Watt Mehrverbrauch führen können? Der RAM müsste ja verglühen.
Sagt doch Keiner. Ist vielmehr die Kombination aus besserer Fertigung (16 vs 12nm)
mit kleinerem Speicherausbau.
Fertigung und geringer VRam-Ausbau verbessert Effizienz
Es bleibt zumindest für mich dabei, daß die verbesserte Effizienz der
GTX 1660 Ti zum größten Teil aus der kleineren Fertigung herrührt und obendrein mit geringer Speicherausstattung gegenüber der
GTX 1070 mit bloß 6 statt 8 GByte und damit kleinerem Speicher-Interface (192 statt 256 Bit; 8×32 Bit statt 6×) künstlich geschönt wird.
Hätte nVidia die
GTX 1070 auch mit 6 GByte herausgebracht, sähe man, wie sehr der verringerte VRAM-Ausbau mitsamt kleinerem Speicher-Interface und damit einem um zwei DRAM-Controllern kastriertes PCB um den entsprechenden Faktor weniger Stromaufnahme aufzeigt.
Custom-Designs der GTX 1660 Ti mit 8 GByte unwahrscheinlich
Weil dies aber nVidia seit Jahren bewußt nicht tut,
um eben diesen Umstand der unmittelbaren Vergleichbarkeit gezielt zu verschleiern, fällt es nur den Wenigsten auf. … und dies dürfte auch einer der Gründe sein, weswegen die
GTX 1660 Ti wahrscheinlich niemals mit 8 GByte erscheinen wird. Denn dann sähe man ja, daß ein nicht unerheblicher Teil der TDP aus der zuvor kleineren Konfiguration des Speicher-Interfaces mit bloß 6 statt 8 GByte herrührte.
In diesem Sinne
Smartcom