... darauf deutet ein
Tweet von kopite7kimi hin, der 400 Watt Leistungsaufnahme als nicht ausreichend nennt. Aktuell ist mit der
GeForce RTX 3090 (Test) und der
GeForce RTX 3080 Ti (Test) bei 350 Watt Schluss, bei der GeForce RTX 2000 lag die Ti mit 250 Watt in Front (alle Angaben betreffen die Referenz).
Das geht gar nicht, auch wenn fuer mich RTX 4080Ti oder 4090 Modelle aus Prinzip (wegen ganz mauem Preis-Leistungsverhaeltnis) sowieso nicht in Frage kaemen.
Wenn eine RTX 4080 an der 400W Grenze kratzt, faende ich das sehr bedenklich, zumal ich mir vor nicht langer Zeit ein 850W Seasonic Netzteil fuer den kommenden PC zugelegt habe, welches ich sicherlich nicht an der Kotzgrenze mit schlechter Effizienz und mit dann vergleichsweise hoher Lautstaerke nutzen moechte.
Eigentlich finde ich GPUs oberhalb von 250W schon genzwertig und mehr als 400W fuer eine Gaming-Grafikkarte waeren fuer mich wirklich sehr schwer zu rechtfertigen (was Abwaerme und Umwelt angeht), egal wie viel Leistung das Teil dann hat.
Ich wuerde auch eine RX 6800XT oder eine RTX 3080 wohl undervolten, wenn ich eine haette, zumal mir schon die Abwaerme meiner alten Gigabyte GTX 670 OC damals gereicht hat und die verbrauchte gerade einmal 170W unter Volllast.
Wenn dann kommende Lovelace 70er Karten ueber 300W liegen werden, auch wenn diese ausreichend Speicherausbau (also mindestens 12 GB, besser noch 16GB) mitbringen wuerden (was man bei nVidia ja grundsaetzlich im Voraus anzweifeln sollte), haette ich damit auch schon ein gewisses Problem (besonders bei effizienztechnisch verhunzten 70erTi Modellen, wie der aktuellen RTX 3070Ti), aber Geruechten zufolge, sollen RDNA3 Gegenstuecke von AMD/RTG zwar sparsamer (aber vermutlich nicht viel sparsamer) ausfallen, wobei die RX 6700XT und RX 6800 Modelle jetzt schon auch nicht gerade super sparsam sind.
Naja, warten wir es ab und es ist schon erstaunlich wie all die ehemaligen Effizienzler hier mittlerweile verstummt sind, die nVidia immer fuer den Verbrauch abgefeiert haben und bei denen letzterer wichtiger als alles andere bei einer GPU schien.
Schon komisch wie sich die Zeiten aendern, wenn Leute nicht ansatzweise glaubhaft die Effizienz abfeiern koennen, weil die Entwicklung beider Chiphersteller da eher in die falsche Richtung geht und nur noch Rohleistung (mit der Brechstange, wenn noetig) zu zaehlen scheint.
Gute/vernuenftige Kuehlloesungen/-designs werden dadurch auch kostspieliger und natuerlich wichtiger in Zukunft ...