News GeForce RTX 3080: EVGA lässt die FTW3 Ultra mit 450-Watt-BIOS von der Leine

Summerbreeze schrieb:
Aber ich seh schon, mit dieser Meinung dürfte ich hier ziemlich Einsam sein.

Nicht unbedingt. Wir sind uns da wohl näher, als es den Anschein hat.

Ich finde den hohen Energieverbrauch der 30er (schon in Stock und erst Recht mit OC) auch alles andere als toll.
Nur halt weniger, weil ich mir große Sorgen mache, was der Verbrauch für Auswirkungen auf das Klima oder die begrenzten Ressourcen des Planeten hat. Dafür sind PC-Gamer und OC-Hobbyisten doch eine zu kleine Nische mit zu wenig Anteil am Gesamtkuchen.
Meine Sorgen sind eher praktischer Natur, was die Möglichkeiten angeht, solche Karten noch vernünftig und leise zu Kühlen (da geht es ja auch um Gehäusebelüftung usw.) und dass man sich halt auch nicht alle 3-4 Jahre ein neues Netzteil kaufen will.

Es ist ja durchaus richtig, dass man sich um die Umwelt Sorgen macht. Ich habe in meinem Maschinenabustudium damals auch extra ein zusätzliches Semester "Umweltgerechtes Konstruieren" eingelegt (heutzutage gibt es dafür sicher coolere Bezeichnungen), damit ich lerne, wie ich die Schneise der Verwüstung minimieren kann, die ich als Konstrukteur unweigerlich in der Natur anrichte.
Aber dabei lernt man halt auch, seine eigene Energie und Ressourcen da zu investieren, wo man damit den größten Effekt erzielen kann. Ob eine exotische OC-Enthusiasten-Karte im seltenen Volllastbetrieb 100W mehr oder weniger verbraucht, davon wird unser Planet nicht gerettet oder untergehen. Da gibt es ganz andere Dinge, auf die man sich konzentrieren sollte.
Deswegen soll man den PClern ihr Hobby ruhig gönnen. 🙂
 
  • Gefällt mir
Reaktionen: .Sentinel., Emsch und Müslimann
Zeit für einen neuen peinlichen Gehäusesticker

2000: Intel inside
2010: Umbrella Corporation
2020: Sorry Greta
 
  • Gefällt mir
Reaktionen: milliardo
2020 war/ist in vielen Punkt echt anstrengend. Bis auf Ryzen Zen 3 kann ich mich bisher nicht entsinnen innovative Sachen in der Hardwarewelt gesehen zu haben. Nvidia rundet es nun mit "viel hilft viel?" ab? 450W, das hatten früher high end Systeme und man bekommt damit mMn eine Leitung die immer noch gerade so im 4K Bereich ok ist, aber wenn man wirklich mal Details bei aktuellen Titeln aufdreht dann sind wir schnell wieder bei 60 FPS. Na schauen wir mal was AMD dieses Jahr noch bringt im GPU Sektor. Ich denke aber, auch eher nur Durchschnitt zu mehr Verbrauch und Geld.
 
An alle GraKa Hersteller mit Dual Bios, bringt doch bitte mal ein angepasstes Silent Bios welches die Leistungsaufnahme auf ~280W für die 3080 und eines mit ~300W für die 3090 minimiert.
Würde sicherlich gut angenommen werden......und all zu aufwendig is es wohl auch nicht.
 
  • Gefällt mir
Reaktionen: .Sentinel., cookie_dent und basti1896
Wichtig ist eher der Gesamtverbrauch aller Nutzer weltweit zusammen. Die Massenteile müssen sparsam/effizient sein.
Es stört mich nicht wenn nur 100 Autofahrer weltweit mit dem SUV 1km zum Bäckerei fahren. Bei 100mio SUV Autofahrer ist das eine ganz ganz andere Sache.
Wir wissen dass die PS5 sowie die xBox im dreistelligen Millionenbereich Käufer/Nutzer haben wird, da muss der Stromverbrauch sehr stark berücksichtigt werden.
PS2 (25Watt) : 155 Millionen Käufer
PS4pro (160W): 115 Mio.

Die PS2 hätte ruhig 700 Mio Nutzer haben können, die PS4pro wäre im Gesamtverbrauch trotzdem vorne.

Die Spielebranche im PC-Segment muss auf die Menüs bzw im Hintergrund des Spiels einen 60fps-limit einbauen. Es ist wirklich dass krass ein PC 250W verballert weil ein Spiel 1std im Hintergrund bzw. im Menü ist. Mit dem 60fps-limit verbraucht mein PC 85W.
 
Zuletzt bearbeitet:
Man muss sich hier vor allem mal klar machen das beim 4k Gaming und Ultra Settings hier wohl 100% Last anliegen werden und das ist dann schon echt krank, da wir noch nicht mal vom Gesamtsystem + Monitor sprechen.
Selbst bei 2-3h Gaming die Woche ist das bei der Stromrechnung deutlich spürbar.
Würden wir hier nicht 30 Cent pro kwh bezahlen wäre das eine andere Geschichte, aber in Anbetracht dieser Tatsache ist das wirklich krank.
Früher haben selbst ohne Stromsparmodi Grafikkarten und CPUs im Bereich 20-30 Watt verbraucht ^^

Aber immerhin findet sich selbst in einem Enthusiast PC Forum eine Grenze und vor allem ein Konsens darüber das es krank ist, auch wenn einzelnen das dennoch egal sein wird und es voll durchziehen.

Ich würde bei der Rechnung jedenfalls nicht nur die Anschaffung einkalkulieren, sondern was ich da über 2-3 Jahre hin weg an Stromverbrauch habe.
Ich merke es selbst bei meinem in die Jahre gekommenen PC, habe bei aktuellen Games 100% Last anliegen auf der GPU und der Rest röhdelt auch ziemlich heftig, komme aber auf kaum mehr als 400 Watt fürs gesamte System ^^
 
Herdware schrieb:
Undervolting ist nicht das selbe wie ein Powertarget. Das sind zwei paar Schuhe.
...kann man hingegen den Sweetspot finden, bei dem man ein Optimum an Effizienz erreicht.
Es kommt halt auf den Moni an, ob ein "schmales PT" reicht.
Für 4k60Hz ohne Gsync wirds halt oft knapp.(in den 3090-Threads wüschen sich die meisten User mehr PT>390W)
Man darf net vergessen, das die 3080@450W sehr nah an die 3090nonOC rankommen soll/muss in 4k.
ASUS RTX 3080 OC Strix Review | Test Setup and Clock Speeds | GPU & Displays | OC3D Review
(leider kein OCenmit max PT getestet; evtl. sind ältere 3080/90 noch mit dem alten schnelleren Treiber)

Könnte mir gut vorstellen, das 4k60Hz@Vsync mit so nem hohem PT=450W sehr smooth läuft und
avg. gar net soviel verbraucht. Trotzdem kann man ja mal schauen, ob bei einer GPU-Load von <90%
die 2055...2100MHz mit einem mue weniger Spannung stabil sind.(Chipabhängig)
Was auf jeden Fall besser geht ist Vram-OCing, weil der Mehrverbrauch die GPU net ausbremst.

Die 450W wird man ja nur in wenigen Games kurz als Spitzen erreichen.= NICHTS worüber man diskutieren müsste.

Also steht man am 4k-TV vor der Wahl:
billige Graka mit 2x 8pin + neuer Gsync-TV
teure Graka mit 3x 8pin + alter nonGS-TV
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Gr33nHulk schrieb:
Fakt ist mit der nächsten Konsolengeneration, damit also ab nächstem Jahr wird das stetig weiter ansteigen und die Situation immer weiter verschlechtern.
Warum sollte es ab da stetig ansteigen? Der VRAM der Konsolen steht fest für diese Generation.
 
Strom soll bald 40ct pro kwh kosten , in großstädten aufjedenfall ... Mega teuer die neuen technik sachen...

Da wünsche ich mir ja fast noch bei Mutti wohnen zu können O.o

Hoffe das diese neuen karten , die es nicht zu kaufen gibt, bald kaufen gibt , bevor die neuen karten kommen ^^
 
Porky Pig schrieb:
in welchen Spielen geht´s denn drüber? müssen ja eine Menge sein, bei diesem 20GB hype.

Kaputtmodded Skyrim
HZD
Division 2
FS2020

Angeblich auch ARK. Alles 4k max.

Dabei nie vergessen: Texturen runter = Sofortiger Tod durch Augenkrebs.
 
  • Gefällt mir
Reaktionen: McFritte
milliardo schrieb:
Dabei nie vergessen: Texturen runter = Sofortiger Tod durch Augenkrebs.
Man könnte auch den Schatten oder die Reflexionen runterstellen, die eine Stufe unter Max eh realistischer aussehen :D
 
sicher kann es einem egal sein 3. Weltproblem usw. aber technisch gesehen ist es einfach öde, Nvidia wechselt zu Samsung und hauen so ein Zeug aufm Markt ja die Leistung ist da, der Preis ist ok aber der Verbrauch und die Abwärme stoßen auf.

Zusatz:
bin dafür wir machen künftig echt einen Undervoltingschwanzvergleich finde ich in diesem Fall echt interessant
 
@SV3N:

Mal die Bitte an die Redaktion weiterleiten einen Test mit einer UV-Karte gegen eine Karte mit 450-480W zu erstellen. Wie viel Mehrperformance bekommt der User von mir aus mit 200W mehr (280W UV vs. 480W OC).
 
  • Gefällt mir
Reaktionen: Emsch, Sammy2k8, cookie_dent und 2 andere
Was die Karte fuer (Extrem-)Overclocker noch mehr disqualiziert als der absurde Verbrauch ist jedoch die Luftkuehlung.

Eine 450W Karte mit Luftkuehlung ist m.M.n eine wahrhaftige Luftnummer bzw. grober Unsinn, aber gut, EVGA kann das auch als Machbarkeitsstudie oder Sammlerprodukt anpreisen/vermarkten, denn Sinn macht es von vorne bis hinten leider nicht.

Ich hoffe dann schon, das bei Aorus/Gigabyte oder MSI wenigstens jeweilige wassergekuehlte WaterForce oder SeaHawk Modellreihen fuer solche OC-Enthusiastenansaetze in Frage kommen, aber warten wir es an, was dort und von Zotac, ASUS, Gainward, usw. fuer dieses spezielle Publikum noch produziert wird.
 
zivilist schrieb:
Echt krank. Nee sorry Strom ist mittlerweile so teuer geworden
Passt doch,nächstes Jahr wird Strom erheblich teurer und dann bin ich mal gespannt was so auf einige zukommt. Ich bin mir ziemlich sicher wenn es so weiter geht das ein verbot auf solche Grafikkarten kommen wird.
 
Zuletzt bearbeitet:
iamyvo schrieb:
Warum sollte es ab da stetig ansteigen? Der VRAM der Konsolen steht fest für diese Generation.

Ich weiß zwar nicht was er dazu denkt, aber antworte mal was ich dazu meine.
Am PC braucht man wegen schlechterer Anpassung meist bessere Hardware als die Konsolen und nur die wenigsten haben derzeit auch nur im Ansatz solch einen PC stehen, mal ganz abgesehen von den Kosten.
Dazu kommt, wer Enthusiast Settings anlegen möchte, der braucht nochmal mehr Leistung. Daher werden die Anforderungen in dem Bereich gewaltig steigen.
Man sieht es schon bei den Current Gen Games, schau dir nur mal die Ports von Death Stranding, Horizon und wie sie alle heißen an, da sind die Anforderungen an die Hardware schon mehr als hoch genug unter den normalen PS4 Settings und die Enthusiast Stufe fordert meist aktuelle High-End Rechner. So ein Horizon klatscht dir den VRAM voll. Und das ist nicht Next-Gen...
 
iamyvo schrieb:
Warum sollte es ab da stetig ansteigen? Der VRAM der Konsolen steht fest für diese Generation.
Der momentane Verbrauch wird stetig steigen, unter anderem weil mit der neuen Konsolengenration Entwickler breit gefächert mehr VRAM zur Verfügung haben. Und eben genau weil wir nun als Basis 16GB vorgeben und nicht mehr 8GB VRAM im Vergleich zur alten Konsolengeneration, wird auch der Durschnittsverbrauch am PC steigen.......und wie gehabt werden die Verbrauchswerte am PC sogar teilweise über oder sehr nahe an den 16GB liegen (bessere/höhere Texturen, Mod Community, schlechte Ports etc.).

Heute kann man schon ohne Probleme die 10GB sprengen, noch nicht oft, aber eben ab nächstem Jahr deutlich ansteigend. Das wird jeder mit 8GB/10GB merken und AMD Käufer der kommenden Generation bzw. RTX 3xxx Käufer der Karten mit 16GB oder 20GB nicht.
Es ist doch wie immer! Keine Ahnung warum man auf einmal so tut als gäbe es diese "Problematik" nicht schon seit etlichen Jahren. Wir befinden uns auch nicht im VRAM Krieg und es wird auch keine weiteren Grafikkarten Generationen benötigen bis man das deutlich merkt, der Wechsel ist halt nun einmal jetzt und die Hersteller reagieren darauf........zum Glück diesmal schneller wie es noch zu den 4GB VRAM Zeiten der Fall war, das hatte sich viel zu lang gezogen!

Die Rohleistung einer RTX 3080 mit nur 10GB VRAM zu "verschwenden" war einfach nur "first come first serve" Strategie. Das heißt nicht das dies eine 3080 obsolet macht, aber deren reine Leistung wird in sehr naher Zukunft einfach unnötig abgeschwächt (siehe damals GTX 780 Ti bzw. GTX 980 (Ti) Thematik).....und das bessert Nvidia ja auch nun sofort aus.


PS: iron mike hat es schon etwas früher aufgegriffen
 
Zuletzt bearbeitet:
Marcel55 schrieb:
Du kannst dir eine x-beliebige Karte kaufen und das Powertarget bei 300W festlegen, das ist doch kein Ding.
Aber nur wieder mit einem extra Tool, das dauerhaft im Hintergrund laufen muss. Nein, danke. Da hätte ich lieber ein VBIOS, das ich flashen kann. ;)
 
Zurück
Oben