Oh Man 🤦♀️
Prisoner.o.Time schrieb:
Ich finde es auch mittlerweile einfach nur noch lächerlich. Das mit der gedrehten Platine hat schon was, aber WTF 600W?! Mein Ganzer PC braucht unter last gerade mal 100W. Und hier braucht alleine die GPU schon das 6x fache.
Eagle-PsyX- schrieb:
Das ist zum Fremdschämen. Irgendwann stecke ich den Kaltstecker direkt in die GPU. Effizienzsteigerung wäre Mal wesentlich wichtiger als Maximalleistung.
175 Watt max bleibt meine Voraussetzung ;-)
Hier werden immer zig Sachen durch den Raum geworfen und noch mit Stammtischparolen garniert, das hält man echt nicht mehr aus.
eine 4090(Ti) ist High End. Damit ist gemeint man betreibt das Leistungstechnische Maximum, eben das "obere Ende" was aktuell technisch möglich ist. Eine Ti nach der 4090 kommt einfach, weil zu Beginn des Produktionsprozesses der Vollausbau des monolitischen Chips oft noch nicht in nennenswerter Menge hergestellt werden kann, was nach Optimierungen nach einiger Zeit dann geht. Ob das jetzt ein halbes Jahr später der Fall ist oder ob der Zeitpunkt jetzt Marketing Kalkül ist, ist offen und auch die News hier ist erstmal nur ein Gerücht.
Die Effizienz der aktuellen Karten ist deutlich höher, als die jeweilige Vorgängergeneration. Effizienz ist immer ein relatives Verhältnis zwischen Leistung und Verbrauch und trifft nie eine Aussage über absolute Zahlen.
Die Effizienz einer 4090 ist sogar drastisch besser als bisherige Karten, nicht nur ein üblicher Schritt von ein paar Prozent:
https://www.computerbase.de/2022-10...3/#abschnitt_energieeffizienz_im_werkszustand
Im direkten Vergleich zu einer 3090Ti (die von Werk die gleiche maximale Leistungsaufnahme von 450W hat, wie die 4090) ist die 4090 sogar mal eben ~50% schneller.
Auch bedeutet die TDP eine maximale Leistungsaufnahme und hat mit einer "normalen Anwendungslast" recht wenig zu tun.
Wenn ich zuhause Diablo 4 auf 3440x1440 mit 100Hz@HDR und 10bit spiele, dabei alle Regler Anschlag rechts habe, braucht der PC noch keine 300W in Summe. Nach Verlusten im Netzteil, inklusive Verbrauch von Mainboard, Festplatte und eben auch CPU.
Würde ich die 105W max TDP der CPU und die 450W max der GPU und halt was da sonst noch so mit ~50W zusammenzähle und 10% Verlust vom Netzteil draufaddiere, komme ich bei ganz anderen Werten raus, als die Realität benötigt.
Dabei könnte ich, wenn ich wollte sogar noch optimieren und den Verbrauch noch deutlich senken:
https://www.computerbase.de/2022-10...rtx_4090_vs_rtx_3090_ti_bei_450_350__300_watt
Wenn ihr weniger Verbrauchen wollt, nehmt halt eine kleinere Karte, die auch eher im Sweet Spot betrieben wird aber dabei trotzdem immer noch schneller ist, als jede ältere Generation.
Jedesmal das Geheule das die High End Karten ein Atomkraftwerk brauchen ist weder lustig, noch ein innovativer Spruch. Das ist einfach nur Internet trolling.