News GeForce RTX 3080: EVGA lässt die FTW3 Ultra mit 450-Watt-BIOS von der Leine

Wie viel Mehrleistung erhält man eigentlich durch die 20% Mehrverbrauch? 5%?
 
  • Gefällt mir
Reaktionen: Heschel
7hyrael schrieb:
Tolle Glaskugel! Wo bekomm ich die?

Bei redgamingtech, notanapplefan, ...
Die von AMD veröffentlichen Benchmarks und Infos zur Architektur reichen aber auch schon aus, um eine schnelle RX 6800 erwarten zu können.
 
Herdware schrieb:
Es hat nichts mit "whatabout" zu tun, wenn man die Verhältnisse aufzeigt.

Ja und nein. Jede (Effizienz) Verbesserung ist an und für sich wünschenswert, das in Relation zu anderen, größeren Problemen zu sehen, mag ganz interessant sein, ändert aber letztendlich nichts daran, dass auch kleine Verbesserungen immer noch Verbesserungen sind.

Herdware schrieb:
Diskussionen mit Scheuklappen und sturem Blick auf ein Detail, ohne auch nur einen Ansatz von Bemühen, mal über den Tellerrand zu schauen, führen absolut nirgendwo hin.

Ist natürlich wahr; aber über den Tellerrand zu schauen ändert ja nichts daran, dass auf meinem Teller immer noch Chaos herrscht.
Hier ist eben auf den ersten Blick recht ersichtlich, dass eine Entwicklung in die falsche Richtung geht. Auch wenn bei genauerer Betrachtung natürlich klar ist, dass die 450 Watt nicht immer anliegen. Trotzdem ist es mMn durchaus richtig mit dem Finger auf solche Dinge zu zeigen.
Kinderarbeit in Kobalt Minen im Kongo kann man als Einzelperson nicht so direkt kritisieren/beeinflussen, wie z.B. NVidia/EVEGA hier. Oder um auf ein anderes Feld einzugehen, z.B. seinen eigenen (Rind-) Fleischkonsum.

Herdware schrieb:
Da gibt es nämlich auch beim Thema PC ganz andere Brocken, als den Volllastverbrauch einzelner Komponenten. Nur kann man sich da halt nicht einfach ohne jeden Zusammenhang eine einzelne Zahl rauspicken und darauf herum reiten.

Stimmt, aber wenn man allein hier im Thread sieht, dass eine Handvoll Leute sich nur wegen der GPU auch ne neue PSU gekauft haben, sieht man, dass durchaus ein gewisser Rattenschwanz an der GPU hängt.
 
  • Gefällt mir
Reaktionen: Vigilant und Herdware
cookie_dent schrieb:
Wie viel Mehrleistung erhält man eigentlich durch die 20% Mehrverbrauch? 5%?

Bei gleicher TDP leistet Ampere circa 25% mehr als Turing. Hat Computerbase selbst getestet.
Nvidia hat sich aber dazu entschlossen für wenige Prozentpunkte noch mal 50 Watt mehr aus der Steckdose zu holen.
 
GroMag schrieb:
Willst du weniger verbrauchen, senke einfach das PowerTarget, denn das macht genau das.

Ich gehen mal nicht auf den übertrieben patzigen Teil der Antwort ein. Aber ich denke @Fraggball hat Recht.
Undervolting ist nicht das selbe wie ein Powertarget. Das sind zwei paar Schuhe.

Ich bin ehrlich gesagt auch nicht tief genug in der Materie, um genau zu sagen, was die exakten Maßnahmen sind, die der Grafiktreiber unternimmt, um das Powertarget einzuhalten (ganz genau wissen das wohl nur ein paar Experten bei Nvidia und AMD), aber ich bin ziemlich sicher, dass ein wesentlicher Teil ist, einfach die (Boost-)Taktfrequenzen zu deckeln, sobald ein bestimmter Verbrauch überschritten wird. Natürlich geht dann mit dem Takt auch die Spannung runter und dadurch wird die Karte sparsamer, aber sie verliert auch an an Leistung. Die Effizienz wird also nicht unbedingt besser.

Mit einem richtig gewählten Spannungs-Offset kann man aber weiter die selben Taktraten (oder sogar bessere) erreichen und trotzdem den Verbrauch reduzieren.

Ab Werk ist die Spannung von GPUs und CPUs vom Hersteller meist wesentlich höher eingestellt, als sie sein müsste, um Schwankungen in der Qualität zu kompensieren und eine gewisse Lebensdauer zu garantieren. Wenn man da gezielt selbst Hand anlegt, kann man hingegen den Sweetspot finden, bei dem man ein Optimum an Effizienz erreicht.
 
  • Gefällt mir
Reaktionen: Fraggball
Die sollten lieber mal ein paar Karten von der Leine lassen 😛
 
  • Gefällt mir
Reaktionen: UNDERESTIMATED
Warum reicht kein 550w Netzteil aus für eine 3080, 5950x, 64 gb, drei ssd, eine Platte aus?
 
v_ossi schrieb:
Wer jeden Sonntag mit seinem SUV einen Kilometer zum Bäcker fährt, ist (sehr wahrscheinlich) absolut betrachtet der größere Umweltsünder. Das macht das erhöhte Power Target aber nicht weniger daneben.
Wir haben nunmal einen kontinuierlichen Anstieg an Stromverbrauch in den Systemen.
Das ist der Taktung und der Transistorenzahl bzw. Chipfläche geschuldet und ist physikalisch nur in Grenzen einzudämmen.

Man muss sich zwischen Leistung und Stromersparnis entscheiden, kann es aber vergessen sich hier überhaupt als PC- Gamer oder auch Konsolennutzer hinzustellen und zu schwadronieren, wie sich das alles in Sachen Stromverbrauch falsch entwickelt und es dann trotzdem nutzen.

Da fehlt es mir ein wenig an Realismus und entsprechender Konsequenz.

Somit hat das, was ich geschrieben habe mit whataboutism nichts zu tun, bleibt der Bezugspunkt (Umwelt schonen) der gleiche und beschreibt einen Weg, den Umstand bezüglich dessen man sich Sorgen macht effizient zu verbessern.

Wer hier die Umwelt schützen will, kann sich eine 3080 Karte holen, das Powertarget nach Wunsch einbremsen (z.B. 250 Watt) und kann trotzdem noch schneller als mit der Vorgängergeneration (2080TI) spielen.

Oder man nimmt die Freude an der Karte als Ansporn, einfach 10-20 Liter Sprit auf ein Jahr gesehen zu sparen und hat dann überdurchschnittlich mehr für die Umwelt getan, als dass man ihr mit Einsatz der Karte geschadet hätte.

Ampere benötigt entgegen dessen, wie hier die (vorgänger-) Grafikkarten oft eingesetzt werden/wurden eben nicht deutlich mehr Strom, oder verbraucht im entgegengesetzten Szenario wie die Karten hier eingesetzt werden auch mal deutlich weniger.

Auch wenns hier noch so oft geleugnet wird, ist Ampere im Vergleich zu Turing spürbar effizienter geworden.
Ne 1080TI ROG Strix OC hat, ohne dass man sie geprügelt hat, schon offiziell 360Watt gesoffen.

Damals hat kein Hahn danach gekräht.

Wie gesagt- Eine schöne Entwicklung, dass die Umwelt in den Fokus vieler Menschen gerät.
Mir fehlt hier ein wenig das "Mitdenken" und die Bewertung mit einem gesunden Augenmaß, wenn man sich über den Verbrauch echauffiert... zumal die Grafikkarten für den Anstieg der Rechenleistung, den wir über 20 Jahren zu verbauchen haben, verbrauchstechnisch vom Megawattbereich hier in den 3- Stelligen Wattbereich gedrückt wurden.
 
Zuletzt bearbeitet:
Vielleicht steigen wir dank Nvidia und Intel schneller in der Kardaschow-Skala auf 1,0 xD

Nee mal im ernst, die Effizienz sinkt, dass ist das einzige, was mit dem Bios passiert.
 
Wenn mal die Heizung ausfällt, dann startet man einfach seinen Rechner :evillol:

Hab leider keine RTX 3090, aber wenn mal meine Heizung ersetzt werden müsste, wäre das eine mögliche Alternative ;)
 
eLw00d schrieb:
Bei gleicher TDP leistet Ampere circa 25% mehr als Turing. Hat Computerbase selbst getestet.
Nvidia hat sich aber dazu entschlossen für wenige Prozentpunkte noch mal 50 Watt mehr aus der Steckdose zu holen.

Schon klar, ich meinte aber die Leistungssteigerung im Verhältnis zum 380Watt BIOS.
 
Herdware schrieb:
Um etwas die Panik zu dämpfen, dass der Volllastverbrauch solcher Enthusiasten-OC-Grafikkarten das Ökosystem unseres Planeten im Alleingang zerstören könnte:

Die meisten anderen Hobbys und Freizeitaktivitäten verbraten doch wesentlich mehr Energie, als PC-Gaming oder gelegentliche OC-Experimente. Um es z.B. für die Freunde von motorisierten Fahrzeugen etwas ins Verhältnis zu setzen: 1PS sind ca. 735W.
Wenn das nächste mal also ein Moped (bis zu 4PS!) an einem vorbei rauscht, kann man sich ausrechnen, wie viele 3080er man dafür bis zum Erbrechen übertakten könnte.
Schon klar. Die Masse machts halt.
Was wäre aber wenn jetzt alle so denken und anstatt 4PS Moped nur noch die dicken Brummer fahren?

Es geht doch schlicht darum, das es so nicht weiter gehen kann. Man selbst zeigt einfach mit dem Finger auf den bösen Nachbarn und meint: Erst wenn der was macht, mache ich auch was.
So funktioniert das aber leider nicht.
Wenn jeder etwas beisteuert auf das er / sie ohne Not verzichten kann. Dann wäre schon ein gutes Stück gewonnen. Nach mir die Sintflut finde ich nicht so Prall.
Ich für meinen Teil versuche jedenfalls so viel unnötigen Energieverbrauch wie möglich zu vermeiden.
Wenn man mal durch das Sauerland fährt, (Jetzt kommt mir bloß nicht mit dem angeblich unnötigen dafür fälligen Energieverbrauch, man kann ja auch Rad fahren) da sieht man Kilometerweit nur braune abgestorbene Wälder, sofern sie noch nicht abgeholzt sind. Die Harvester kommen mit dem Fällen nicht hinterher, obwohl die einen Baum in 2 Minuten komplett zerlegen.
Da finde ich solche Karten einfach das falsche Signal.
Im besten Fall sollten jene, welche wenigstens ein bisschen Umweltgewissen haben solche Hersteller ganz meiden. Vielleicht kommt das dann mal bei denen an nicht mehr so einen Wahnsinn zu produzieren.
Und Wahnsinn finde ich es schon, für potenziell 5-7% schnellere Bilder, welche eigentlich schon schnell genug sein sollten, bis zu 100W zusätzlich zu verbrennen.
Aber ich seh schon, mit dieser Meinung dürfte ich hier ziemlich Einsam sein.
 
floq0r schrieb:
Das heißt aber nicht, dass ich nie sparsam unterwegs sein möchte ;) Gerade hier macht ein Eco-Modus auch am meisten aus. Der Vergleich zieht aber sowieso schlecht, weil sich der Idle-Verbrauch zwischen schnell und langsamen Grafikkarten kaum unterscheidet, während das bei Verbrennungsmotoren ganz anders aussieht.

Richtig, genauso wie ich bei einer schnellen Grafikkarte auch das Powerbudget senken kann, wenn ich das phasenweise möchte. ;)

Zumal es um den Regelbetrieb ging. Und doch. Auch leistungsstarke Fahrzeuge liegen bei langsamer Fahrt nicht so stark im verbrauch über leistungsschwächeren. Kraft kommt eben von Kraftstoff und wenn ich wenig Kraft abfordre, dann liegt auch der verbrauch niedriger. Der teilweise Mehrverbrauch der hier entsteht stammt von Reibungsverlusten aus mehr Zylindern und Auslegungsentscheidungen beim Motor. Ein Sportmotor ist konzeptionell meist anders ausgelegt, als ein Brot und Butter Motor. Aber wenn ich konstant mit 100 durch die Gegend fahre, kann ich auch mit einem 500 PS Fahrzeug ähnlich sparsam unterwegs sein wie mit einem 100 PS Fahrzeug. Auf der anderen Seite ind kleine Motoren oftmals im ineffizienten Bereich unterwegs. ich hatte mal einen Peugeot mit brüllenden 82 PS Saugbenziner. Den konnte man zwischen 4,5 und 13 Litern bewegen. Auf der Autobahn bei zügiger Fahrt (so zügig es mit 82 PS halt geht) Bewegt man sich fix bei 8-10 Litern.

Merke ich im Kleinen selbst. Wenn ich aus unserem Fahrzeugpool einen 150PS Golf mit 4 Zylinder Turbobenziner nehme, fährt der sich auch nicht groß sparsamer bei langsamer fahrt, als mein Privatfahrzeug mit 4 Zylinder Turbobenziner und über 300PS. Wenn ich zum Vorankommen nur konstant 50PS abrufe, dann brauch ich auch nicht viel mehr Kraftstoff, wenn Fahrzeuggewicht, Rollwiderstand etc. ähnlich sind.

Problematisch ist eher, dass man mit schnelleren Fahrzeugen meist auch anders fährt und sehr starke Fahrzeuge schon bei niedrigen Drehzahlen extreme Leistungen haben. Aber du kannst auch ein Fahrzeug deutlich jenseits der 800PS und aufgeladenem V8 im Schnitt mit 10,x Litern fahren. Hab ich schon selbst erprobt. :)

Aber jetzt wirds ziemlich OT.

Also zum Thema, ja ein ECO Modus kann Sinn machen, wenn ich den ab und an nutze. Nur kaufe ich keinen V8 um ständig im Ecomodus rumzujuckeln um die letzten 100ml Sprit zu sparen. Das gleiche bei Grafikkarten. Ich kaufe keine High End Karte zum Stromsparen, auch wenn ich natürlich jederzeit das powerlimit senken kann, weil ich im Sommer vielleicht nur 200 Watt in die Luft blasen möchte.
 
Ehrlich gesagt gucke ich diese RTX 30XX Berichte nur noch beiläufig ein. Ist auf absehbare Zeit ja eh nicht verfügbar.
 
Und ich hab schon ab und wann Skrupel bei meiner 2060 Super von EVGA die 40 Watt extra aufzudrehen. ^^

Kam auch per Bios Update von 175 -> 215 Watt. Aber solange die mit 175 Watt schnell genug ist dreh ich die Stromzufuhr erstmal nicht soweit auf. Das gute ist das EVGA diese Möglichkeit überhaupt nachgereicht hat und das man die Garantie behält wenn man das Bios einspielt.
 
Gr33nHulk schrieb:
Hat ja nichts mit Hype zu tun, wie damals bei 4GB/6GB VRAM fängt es halt nun an immer mal zu wenig zu werden mit 8GB/10GB. Damals hat es nur jeder verstanden und von solchen Modellen abgeraten, macht man das Heute wird dem auf einmal widersprochen........Fakt ist mit der nächsten Konsolengeneration, damit also ab nächstem Jahr wird das stetig weiter ansteigen und die Situation immer weiter verschlechtern.

Es ist halt wieder die Zeit um VRAM zu verdoppeln.....die 10GB sind nicht empfehlenswert, NVIDIA und auch AMD würden sonst auch kaum so schnell so weit hoch gehen.
Ich habe zwar keine Glaskugel aber ich behaupte einfach mal bis solche Speichermengen relevant sind, sind wir zwei Grafikartengeneratioen weiter.
Die Hersteller nutzen das jetzt aus um sich noch mehr voneinander abzugrenzen.
Erst hatten wir den Krieg der Kerne und jetzt den Krieg des VRAM...
 
Die Leistung dieser Karten ist ja echt heftig aber der Verbrauch einfach nur noch krank. Dennoch werden diese Karten mehr als genug Abnehmer finden, daher ist es Nvidia egal wie viel Power die Karten aus der Steckdose ziehen.
 
Die neuen BIOS-Versionen tragen die Kennung 94.02.24.48.88 und ersetzen das BIOS mit der Kennung 94.02.26.80.2C.

Die Version 94.02.24.xxxx ersetzt also die Version 94.02.26...... also ein Downgrade?

Muss man nicht verstehen.
 
Zurück
Oben