News GeForce RTX 3080: EVGA lässt die FTW3 Ultra mit 450-Watt-BIOS von der Leine

Vexz schrieb:
Ich hätte lieber eine "EVGA RTX 3080 FTW3 Ultra sparsam" mit 300W oder weniger beim Stromverbrauch. :D
Du kannst dir eine x-beliebige Karte kaufen und das Powertarget bei 300W festlegen, das ist doch kein Ding.
 
Creeping.Death schrieb:
Wenn man hier im Forum regelmäßig mitliest und bedenkt, wie oft Leute ankündigen, ... dann gönnt mir bitte ein Schmunzeln darüber, wie man sich hier über die Steigerung des (maximalen) Gesamtverbrauchs um rund 18% echauffiert :)
Die meisten hier im Forum hat das einfach schlichtweg vorher nicht interessiert, was ihr System zieht.
Da wurde wie selbstverständlich das Powerlimit und überhaupt alles erhöht, was der Afterburner hergibt, die CPU schön übertaktet (sieht man ja hier an den AMD und Intel Signaturen) und dann wurde einfach alles laufen gelassen.

Jetzt schreibt man es halt dazu, was das Ding so verbraucht und einigen wird klar, dass ein PC im High- End Sektor zur Energieschleuder wird.
Gut, dass sich dafür ein Bewusstsein aufbaut - schlecht, weil man jetzt tatsächlich (wie in unserer Gesellschaft inzwischen üblich) in eine übertriebene Gegenreaktion und Dauerempörung inkl. Stigmatisierung verfällt.

Man kann das ganze ja auch mal so sehen, dass man mit Ampere mal eben eine um 70% höhere Transistorzahl befeuern muss. Dafür hält sich der Strommehrverbrauch zu Turing tatsächlich in einem engen Rahmen.

Oder wenn man bedenkt, dass Leute sich unbedingt die 3090 statt der 3080 holen möchten und dafür rund 700 EUR mehr bezahlen. Für diesen Aufpreis bekommt man rund 2500 kWh Strom...
Das zudem.

Vielleicht fängt der eine oder andere, der hier anfängt von Verboten zu sprechen, jetzt mal kritisch an zu prüfen, wo nach Priorität die höchsten Umweltsünden entstehen und wie er diese eindämmen kann.

Dann wird einigen hier vielleicht ein Licht aufgehen, welchen Stellenwert sein Computersystem im Gesamtverbrauchsverhältnis einnimmt und wo tatsächlich Verbote sinnvoll sein könnten und sogar den Erfindungsgeist und die Wirtschaft wieder beflügeln würden (z.B. keine PKWs mehr über 1 Tonne Leergewicht).

Just my 2 cents
 
  • Gefällt mir
Reaktionen: Toni_himbeere, McFritte, Herdware und eine weitere Person
Man hätte also doch ein 1000W Netzteil holen sollen, v.A. wenn man auf nVidia und Intel setzt. 🙄

Mal eine ernste Frage am Rande an alle, die kein Verständnis für die Aufregung haben.
Wie kühlt Ihr euer 500-600W Gaming-Setup im Sommer?
Ich habe Schwierigkeiten 350W leise zu halten...
 
  • Gefällt mir
Reaktionen: Slainer
Dann darf ich nur noch im Sommer bei vollstem Sonnenschein zocken wenn meine mini PV Anlage ihre 550W abwirft :D
 
@owned139
Ich finde es ok ein Produkt für den Massenmarkt (3080) und ein Produkt mit der Brechstange für maximale Leistung (3090) zu bringen.
...aber ich versteh es nicht warum bei der 3080 ebenfalls die Power Brechstange ausgepackt wurde.

Aber ich versteh schon was du meinst:
Die 3080/3090 Brechstange heißt normalerweise Asus Strix... und nicht eben schon Refernzdesign/Referenztakt.
Der 3090 Markt wird aber sowieso schon klein genug sein was meiner Meinung nach die Brechstange (nicht rechtfertigt, aber) zumindest nachvollziehbar macht.
 
.Sentinel. schrieb:
Die meisten hier im Forum hat das einfach schlichtweg vorher nicht interessiert, was ihr System zieht.
Da wurde wie selbstverständlich das Powerlimit und überhaupt alles erhöht, was der Afterburner hergibt, die CPU schön übertaktet (sieht man ja hier an den AMD und Intel Signaturen) und dann wurde einfach alles laufen gelassen.

Juckt mich tatsächlich echt nicht. Ich heize mit Strom :-D
(Solaranlage aufm Dach)
 
Kapier ich eh nicht.

Da jammern sich die Leute Magengeschwüre wegen den 320W stock und dann schreien alle nach Modellen mit noch mehr Powerlimit um mit 40% Extraverbrauch nochmal 10% Leistung rauskitzeln. Na herzlichen Glühstrumpf.

Ökologisch und ökonomisch dümmer geht's nimmer.
 
Faust2011 schrieb:
Unabhängig von der Kühlmethode (ob Luft oder Wasser) finde ich das nicht nur extrem, sondern einfach nur schlecht. Insbesondere die Mehrperformance und die Effizienz sind doch die 450 Watt überhaupt nicht wert.

Das muss am Ende jeder selbst wissen. Dem einen sind 3% Leistung 100 Watt Mehrverbrauch wert, dem anderen nicht.

Das die Effizienz grauenhaft ist, ist logisch. Wenn es denjenigen nicht stört, warum nicht. Manchen ist der Blick aufs Meer im Hotel auch 50€ die Nacht mehr wert, obwohl es das gleiche Zimmer auch zum Hinterhof raus günstiger gibt.

Faust2011 schrieb:
Ich hoffe, dass in Zukunft die 250 Watt wieder die Norm wird für die Spitzenmodelle einer Generation. Aber selbst bei AMD wird für die nächste Generation auch mit viel höheren TDP/Watt-Zahlen spekuliert, leider :(

Ich denke in der Oberklasse wird mittelfristig 300 Watt die Norm sein. Ist es bei AMD faktisch ja schon seit Jahren und nun eben auch bei Nvidia. In meinen Augen auch weniger Schlimm, denn die Mittelklasse wird weiterhin im unteren Bereich liegen und jeder kann ja selbst im treiber festlegen, was er verbrauchen möchte und als TDP Limit möchte. Wer eine 3080 mit 250 Watt will, stellt halt das TDP Limit so ein.

Ich finde es okay, wenn Karten ab Werk am sinnvollen Limit agieren, solange man nicht ganz auf die Effizienz pfeift.
 
  • Gefällt mir
Reaktionen: Faust2011
wern001 schrieb:
ich schätze mal zwischen 380 und 450 Watt ist der unterschied 200 FPS zu 210 FPS.
Der unterschied ist bedeutungslos

Auch wenn du natürlich Recht hast, aber man sollte das Gesamtsystem betrachten.
Wenn der PC, dank MoBo, CPU, HDD, AIO und RGB ohnhin schon 700W zieht, dann sind 10% erhöhter Verbrauch für 5% mehr Fps besser als die vorher suggerierte 18% mehr Verbrauch. Eine Grafikkarte arbeitet ja nicht im luftleeren Raum

Das gleiche gilt ja auch für Geld und PC Kauf.
Ein GPU Upgrade von 300 auf 400€ für 10% mehr FPS sieht auf dem Papier schlecht aus, aber beim Gesamtsystem von 1000 auf 1100€ entspricht das dann 10% mehr FPS bei 10% mehr Kosten.
 
Man hat doch bereits in dem sehr ausführlichen Test von Computerbase gesehen, wie extrem ineffizient die übertakteten Varianten einer RTX 3080 gegenüber der Founders Edition arbeiten und wie stark die Effizienz der Karten im Verhältnis ansteigt, wenn man ihr Powerlimit etwas weiter unten ansetzt.

Diese Karte zeigt eindeutig, dass die Evolution der Menschheit nicht selten wieder rückwärts verläuft.
 
Jetzt weiß ich endlich warum es Gehäuse mit Platz für 2 Netzteile gibt.

Egal wie gut die 3XXX sind, da muss doch irgendwann jemand was dazu sagen. Wenn das so weitergeht haben wir von der EU bald eine Vorgabe das der Rechner nur noch 150 W verbrauchen darf. Oder alternativ durch die Bundesregierung ein Verbot von solchen GPU-S kommt, da die Stromversorgung ja zur nationalen Sicherheit gezählt werden soll und damit ein Verbot gerechtfertigt werden kann.
 
SirSilent schrieb:
Außer dem Deutschen spricht übrigens fast niemand auf der Welt von Energieverschwendung. Das liegt vor allen Dingen daran, daß wir die höchsten Strompreisen der Welt zahlen, und das mit Abstand.
Ja, weil die Preise nirgends die wahren Kosten widerspiegeln. Z.B. billige Atomenergie, dass ich nicht lache.
 
Geil, die Heizperiode beginnt auch gerade. Passt! 🔥
 
Shoryuken94 schrieb:
Ich denke in der Oberklasse wird mittelfristig 300 Watt die Norm sein.

Hoffentlich nicht :o

Shoryuken94 schrieb:
Ist es bei AMD faktisch ja schon seit Jahren und nun eben auch bei Nvidia.

Bei AMD hatte das meiner Meinung nach 2 Gründe:

1) Sie hatten die Chipstreuung nicht so gut im Griff wie Nvidia. Deshalb wurden alle Chips immer mit extra viel Vcore ausgeliefert, damit jedes Exemplar sicher und stabil lief. Nvidia hingegen konnte per Firmware/Software recht früh bereits ihre Chips einer Linie individuell ansteuern.

2) AMD war immer hintendran in den letzten Generationen: Der 290X musste die GTX 780 einholen, Fury X musste sich mit der GTX 980 Ti auseinander setzen und Vega mit der GTX 1080 Ti. Und jedes Mal hat es nicht gereicht allein mit der Architektur und einem Betrieb am Sweetspot. Also hat AMD die Holzhammermethode gefahren und noch das letzte Quentchen rausgeholt... zu Lasten von vernünftigen Watt-Zahlen bei der Leistungsaufnahme.
 
  • Gefällt mir
Reaktionen: Emsch und russianinvasion
milliardo schrieb:
Da jammern sich die Leute Magengeschwüre wegen den 320W stock und dann schreien alle nach Modellen mit noch mehr Powerlimit...

Ich glaube nicht, dass das die selben Leute sind. 😉
 
  • Gefällt mir
Reaktionen: Toni_himbeere
Mal gucken ob JaysTwoCent and GamerNexus damit was anfangen können.

Verstehe hier die argumentation nicht, dass OC nichts bringen würde / nur unter viel Mehr Energieverbrauch... darum gehts ja.
 
Ich muss sagen, das hat nichts mehr mit einer brutal schnellen Karte zu tun. Es muss doch immer die Kuns sein, das beste aus Leistung und Verbrauch rauszuholen, wie bei einem Auto. Ich denke man pfeift im Moment auf den Verbrauch.
 
SirSilent schrieb:
Außer dem Deutschen spricht übrigens fast niemand auf der Welt von Energieverschwendung. Das liegt vor allen Dingen daran, daß wir die höchsten Strompreisen der Welt zahlen, und das mit Abstand.

Hm... bei allem Respekt. Diese Aufassung ist schlicht nicht richtig. Und Anlass der Diskussionen sind auch nicht hohe Strompreise.
 
  • Gefällt mir
Reaktionen: Muuhh
Wenn ich da lese das Big Navi rund 240W hat, dann kann man das schon als Öko-GPU bezeichnen!
Wahrscheinlich gibt es bei der EVGA dann noch eine Vattenfall-Edition, mit 2 Jahre günstigeren Stromtarif :D

Ich hab meine Asus 3080 TUF undervoltet, die EVGA wird trotz 450W kaum 10% rausholen-Nein,Danke! Das einzige was für die EVGA spricht ist das die einen guten Service haben! Den hat man aber auch bei der XC3!
 
Zurück
Oben