News GeForce RTX 3090 Ti Suprim X: MSI nennt 480 Watt TDP und empfiehlt 1.000-Watt-Netzteil

JaKno schrieb:
In letzter Zeit sieht man immer mehr Brechstange Hardware. Wie wäre es mal wieder mit Effizienzsteigerung?
Ich bin mir nicht sicher, ob ein guter Teil dieser Entwicklung bei Nvidia daherkommt, weil AMD einen leistungsfähigen Herausforderer abgeliefert hat? Die Effizienzgewinne in der Fertigung haben beide sicher der Leistung zu Liebe geopfert. Ich meine, Nvidia wird für diese Grafikkarte und Leistung durch die Bank gefeiert. Ob Wolfgang hier mal harte Worte in Richtung Nvidia sendet? Ich glaube eher nicht, sondern mit einem Schulterzucken wird das hingenommen. Der Markt lechzt nach Leistung.
 
  • Gefällt mir
Reaktionen: Nellsoon
RaptorTP schrieb:
Ich habe aber auch viele vorher ein 550-650W empfohlen. ZACK ! und auf einmal machte Ampere uns einen Strich durch die Rechnung.
Ja, so gehts mir auch, allen Kumpels hab ich 500-600W verbaut, jetzt komme ich ins Schwitzen, wie auch bald die Netzteile :D
 
  • Gefällt mir
Reaktionen: NMA, Onkel Föhn, Xes und eine weitere Person
Leute, was los?

Den Energieversorger gluecklich zu machen und bei Frau genau das Gegenteil zu bewirken, hat ehemals zu CrossFire/SLI Zeiten auch nicht wirklich zur Sache getan.

Hauptsache Leistung, war doch das Motto!?

Ade du schoene Zeit! :-)

Gruss Fred.
 
3faltigkeit schrieb:
Könnte mir vorstellen, dass mit etwas Takt wegnehmen und UV die Leistungsaufnahme ordentlich nach unten geht und sich die Leistungseinbußen in Grenzen halten.
Im Prinzip haben alle Ampere Karten da sehr viel Potenzial. Meine Karte hat im Schnitt über 0,1V Undervolting drin, taktet circa gleichschnell bis 50Mhz mehr und verbraucht eher um 250W rum anstatt am 350W Limit zu kleben.

https://www.computerbase.de/forum/t...erclocking-undervolting-sammelthread.1974056/
 
  • Gefällt mir
Reaktionen: Pro_Bro und 3faltigkeit
Tornavida schrieb:
Da kann die Karte Leistung noch und nöcher haben,auf 480W TDP hätte ich kein Bock.
Das ist das Problem verglichen mit einer 3080Ti wird der Performance Zuwachs lächerlich sein bei dem Verbrauch .
Wird halt wie ne Zitrone ausgequetscht die 3000ner Serie .
Würden da bei 480W 25% draufkommen an Leistung dann wäre das ja noch okay.
 
Zuletzt bearbeitet:
hahaqp schrieb:
Ich hol schonmal Popcorn für die ganzen generischen Kommentare "Umweltschutz" "wann wird endlich reguliert" "pervers" "krank" etc. etc. etc. von Leuten die überhaupt nicht die Zielgruppe des Produkts darstellen.
Nu übertreib mal nicht. ;)

PC Gaming ist nicht erst seit gestern ein teures Vergnügen. Das hier ist nur die neue Spitze des Eisbergs.

2015 habe ich mich endgültig vom Gaming PC verabschiedet. Schon damals war mir das ständige Aufrüsten einfach zu kostspielig geworden. Und jetzt bei den rasant steigenden Strompreisen erst recht.

Was diese Grafikkarte rein für sich betrachtet an Strom zieht, dafür kann ich mein ganzes Setup mit PS5, 55" 4K TV und AV Receiver locker betreiben sowie in der ganzen Wohnung das Licht brennen lassen. Nur heizen kann mein Setup nicht so gut. Allerdings auch keine Spiele ultimativ gut darstellen.

Wer sich sein Hobby soviel Geld kosten lässt, dem sei sein Hobby unumwunden gegönnt. Ich würde bzw. werde den Teufel tun und jemanden dafür verurteilen.
 
  • Gefällt mir
Reaktionen: DaVinz
bigfudge13 schrieb:
Ja, so gehts mir auch, allen Kumpels hab ich 500-600W verbaut, jetzt komme ich ins Schwitzen, wie auch bald die Netzteile :D
Wen juckt es? Als ob alle deine Kumpels sich ne 3090TI kaufen.
Und selbst wenn: Wer sich ne GPU für 3k€ kauft hat auch das Kleingeld für ein neues 90€ Netzteil.
 
  • Gefällt mir
Reaktionen: iron_monkey, fox40phil und Newbie_9000
Das war mit einem Augenzwinkern gemeint ;)
 
Hmm - mein Case hat noch einen 5 1/2" Laufwerksschacht. Mit etwas Bastelarbeit lässt sich da bestimmt eine Warmhalteplatte für Pizzaschnitten einbauen. Wäre echt eine Überlegung wert, sich diese Grafikkarte einzubauen obwohl man für das Geld über Jahre sich Pizza frisch anliefern lassen könnte.
 
  • Gefällt mir
Reaktionen: NMA, Fighter1993 und Onkel Föhn
Hab auf meiner 3090ftw3 das 500 Watt bios laufen und die Karte zieht so im schnitt 480 Watt.
Wo soll das ganze noch hinführen?!?!?
Da ist nicht mehr viel da von wegen neue Generation -> mehr Leistung und geringerer Verbrauch.... So wie früher halt, da waren die neuen Gens immer echt toll
 
  • Gefällt mir
Reaktionen: olligo
Erinnert mich irgendwie an die Pentium 4- "Endzeit", wo Intel mehr Leistung nur noch durch mehr Stromverbrauch aus den Dingern rausprügeln konnte und die CPUs dann 130W ohne OC verbraten haben..Damals utopisch viel.. Oder die letzten FXe von AMD mit 5 GHz und 220W. Das Ende der Nvidia-Architektur scheint sich anzukündigen - hoffentlich gibts bald was richtig Neues mit wesentlich mehr Effizienz..
 
  • Gefällt mir
Reaktionen: Nellsoon
Hier kann man mal schauen wie sich das ganze entwickelt hat:

Riva128 - kein Kühler, ~4W
TNT - passiver Kühler, ~10W
TNT2 Ultra - aktiv 40mm, ~15W
Geforce256 DDR - aktiv 40mm, ~18W
Geforce 2 Ultra - aktiv 40mm, ~10W
Geforce 3 Ti 500 - aktiv 40mm, ~20W
Geforce 4 Ti 4600 - aktiv 40mm, ~25W
Geforce FX 5950 Ultra - aktiv Dualslot/kleiner Kühlblock, ~75W
Geforce 6800 Ultra - aktiv Dualslot/kleiner Kühlblock, ~81W
Geforce 7900 GTX - aktiv Dualslot/großer Kühlblock, ~85W
Geforce 8800 Ultra - aktiv Dualslot/großer Kühlblock, ~186W
Geforce 9800 GTX - aktiv Dualslot/großer Kühlblock, ~120W
Geforce GTX 285 - aktiv Dualslot/großer Kühlblock, ~204W
Geforce GTX 480 - aktiv Dualslot/großer Kühlblock, ~250W
Geforce GTX 580 - aktiv Dualslot/großer Kühlblock, ~244W
Geforce GTX 680 - aktiv Dualslot/großer Kühlblock, ~195W
Geforce GTX 780 Ti - aktiv Dualslot/großer Kühlblock, ~250W
Geforce GTX 980 Ti - aktiv Dualslot/großer Kühlblock, ~250W
Geforce GTX 1080 Ti - aktiv Dualslot/großer Kühlblock, ~250W
Geforce RTX 2080 Ti - aktiv Dualslot/großer Kühlblock, ~260W
Geforce GTX 3090 Ti - aktiv Tripleslot/großer Kühlblock, ~450W
 
  • Gefällt mir
Reaktionen: DefconDev, Nellsoon, Sturmflut92 und 23 andere
bigdaniel schrieb:
Geforce FX 5950 Ultra - aktiv Dualslot/kleiner Kühlblock, ~75W

Geforce GTX 3090 Ti - aktiv Tripleslot/großer Kühlblock, ~450W
Besonders, wenn man alt genug ist um sich noch daran zu erinnern, wie sehr man sich um die "Energieschleuder" der FX-Reihe lustig gemacht hat.

Und heute würde man Notebook-GPUs mit der TDP als beschnittene Variante belachen :freak:
 
  • Gefällt mir
Reaktionen: Nellsoon, iron_monkey und DaVinz
Wenn Nvidia mit der neuen Gen 40xx den Verbrauch auf 400-500w hieft, will ich aber auch +30% reale Gamingleistung sehen im direkten Vergleich zur 3090ti in 4k.
 
Meine 3090 Suprim X zieht lt Afterburner beim Zocken 400-420W (diese Werte sehe ich gerade in AC Odyssey).
Aber von diesem Extreme Modus höre ich gerade das erste mal.
Gleich mal testen^^
 
Th3ri0n schrieb:
Wenn Nvidia mit der neuen Gen 40xx den Verbrauch auf 400-500w hieft, will ich aber auch +30% reale Gamingleistung sehen im direkten Vergleich zur 3090ti in 4k.
Du weißt doch, die Rede ist von 50-100% XD
 
Ich bin ja mal auf die ersten Benchmarks gespannt, ob sich das auch entsprechend leistungsmässig bemerkbar macht. Werden sicher weniger als 10% performance gain sein.....
 
Es steht einfach zu befürchten, daß wenn Spiele mit fotorealistischer Grafik mit RT in 4k und vielen Frames die Karten so viel Leistung verbraten müssen. Ich habe keine Hoffnung, dass der Trend leistungsstarke Grafikkarten mit weniger Verbrauch in nächster Zeit sich realisieren lassen. Aber ich möge mich täuschen.
 
Recharging schrieb:
Ich nehme an, es wird wieder um die kurzfristigen Spannungsspitzen gehen, die schon bei Ampere diesen Puffer notwendig gemacht haben.

Ja, das meinte ich ja mit Schlamperei. Entweder bügelt man das auf der Platine mit einer anderen Konstruktion aus, oder sorgt im Treiber dafür.
 
  • Gefällt mir
Reaktionen: Recharging
Zurück
Oben