News GeForce RTX 3090: EVGA entfesselt die FTW3 Ultra mit 500-Watt-BIOS

Watt kost' die Welt, wa?
Mir wären die Watt egal, aber da ich erst ein neues Netzteil gekauft habe und dieses mit der 3090 hoffnungslos überfordert ist und auch eine 3080 kaum bewältigt, hoffe ich auf AMD, oder evtl eine 3070.
 
  • Gefällt mir
Reaktionen: Mcr-King
PietVanOwl schrieb:

Aber nur bei einem guten Board, denn 60Watt ist der PCIe (Offiziell) alles darüber kann muss aber nicht. ;)
 
SV3N schrieb:
[...]Seid ihr jetzt alle doof?[...]

Objektiv betrachtet, ja.

Subjektiv betrachtet, nein.
Denn wie wir alle wissen: "Time enjoyed wasting is not wasted time" - Napoleon, vermutlich.

Sehe das hier aber auch kritischer, weil es eben nicht nur ein lustiges Hobby ist, sondern Peak Kapitalismus auf Kosten Unwissender* und/oder der Umwelt**.

*Mehr Watt bringen ja irgendwann einfach nicht mehr fps. Da wäre Werks UV die bessere Lösung.

**Absolut betrachtet wohl zu vernachlässigen, aber mMn einfach nicht mehr zeitgemäß.
 
  • Gefällt mir
Reaktionen: Ernie75, SVΞN und Mcr-King
Das ist lächerlich bis verrückt.
Fernseher, Kühlschränke, Staubsauger, alles wird effizienter. GPU Herstellern ist es schei*egal... Kannste echt nur mit dem Kopf schütteln. :pcangry:
 
  • Gefällt mir
Reaktionen: v_ossi, Ernie75 und Mcr-King
Die 3xxx-Karten hätten unglaublich gut sein können, wären sie von TSMC in 7nm(+) gefertigt worden. Die 8nm von Samsung sind technisch leider nur aufgewertete 10nm, weshalb sie leider eine Generation zurückliegen. Durch TSMC hätte man aus den 350 Watt der 3090 locker ~220-250 Watt machen können und dann viel mehr Spielraum gehabt, halbwegs effiziente OC-Karten zu verkaufen. Aber 500 Watt sind einfach jenseits von Gut und Böse. Dafür muss das schon echt ein hartes Hobby sein!
 
  • Gefällt mir
Reaktionen: Mcr-King
Verstehe ich nicht.
Eigentlich müsste solche Produkte die Presse in der Luft zerreißen.
Passt überhaupt nicht in das aktuelle Weltbild. Total traurig das die Boardpartner diese Leistungsmonster nochmal auf die Spitze treiben.
 
  • Gefällt mir
Reaktionen: Mcr-King, GERmaximus und Mr.Scott
Das ist EVGA, exklusiver nvidia Partner, die dürfen das und wenn sie wollten, könnten sie noch wie Apple auf ihre Produkte Green IT drauf kleben und die Hardware wäre wirklich grün.🤪

Ich halte es zwar auch nicht für sinnvoll, aber ja, es ist und bleibt für mich übersetzt ein Enhanced Voodoo Graphics Adapter und alles was Voodoo sein darf, darf auch noch ein externes Ampere Netzteil spendiert bekommen. 😁
 
  • Gefällt mir
Reaktionen: Mcr-King und lex30
die Frage ist doch, verkraftet eine 390W Karte mit der selben hardware einfach 500W? Für solche Spielchen braucht man wirklich MLC only. Ich kenne jemand der ne Schandmod bei seiner 3090 gemacht hat und er sagt alles über 400W bringt so gut wie keine mehr frames...scheinbar skaliert der Ampere Chip extrem schlecht bei mehr Mhz. Und overclocking vom Speicher frist wahnsinnig Strom und bringt die Karte schön zum glühen. 1900-2000 Mhz sind dauerhaft real...
 
  • Gefällt mir
Reaktionen: Mcr-King
Dai6oro schrieb:
Sehe ich anders. Ein Bugatti bringt die 1000PS auf die Straße OOTB. Das geht mit der Karte nicht. Bei der Kühllösung schon mal gar nicht. Und mal Hand aufs Herz. Jemand der mit LN2 hantiert kauft sich keine Karten, die bekommt er doch gestellt. Imo ist das reines Marketing, das MöchtegernOCler anlocken soll, die zahlen eh für alles.

Ich will nichts sagen, aber der Bugatti hat irgendwas um die 400-500PS reine Verlustleistung an Wärme. Ich habe mal eine Reportage über Bugatti gesehen und dort wurde gesagt, dass das Aggregat ca. 2000PS (Chiron) hat, allerdings "nur" 1500PS tatsächlich genutzt werden können, da der Rest einfach "verpufft".

Bei Autos benötigt Du auch exponentiell mehr Leistung ab einer bestimmten Geschwindigkeit.

Für 240 Km/h reichen Dir 200PS, für 250 Km/h reichen Dir 220PS, für 260Km/h sind es dann schon 250-260PS und für 270Km/h 300PS+. Für 30 Km/h mehr, benötigst Du schon 33% mehr Leistung.

Bei Ampere und vielen anderen Karten ist es ähnlich.

Nochmal, dieses Bios ist nur für Benchmark Rekorde released. Ohne LN2 bekommt man die 500W eh kaum abgeführt.

Warum regen sich so viele über solch ein Bios auf?

Ich habe einen Strommesser an meinem Netzteil. Unter Last (99% GPU Load; 30-40% CPU Load (FS2020)) zieht mein System, inkl. 4x16GB Sticks und 3x140mm + 6x 120mm Lüfter ca. 440-480W.

Ich sehe das Problem also so rein gar nicht. Das ist doch total ok. Mein Netzteil wirft dabei nichtmals den Lüfter an.

Ich glaube das hier viele total übertreiben was den Verbrauch im Alltag angeht.

Ich muss allerdings sagen, dass die Karte im Idle relativ viel Strom verbraucht mit 18-23W.

Wenn ich wirklich gar nichts am Rechner mache und einfach auf dem Desktop bin, zieht er sich ca. 80-85W im Idle.

Ryzen Balanced Plan ist akiviert. Das finde ich schon viel und habe auch keine Ahnung wie ich das in Richtung 60W bekommen könnte.
 
  • Gefällt mir
Reaktionen: Scheitel
Also bei manchen hier kommts mir so vor, als werden sie gezwungen solche Karten zu kaufen 🤔

Frage stellt sich mir dabei, wieviel man damit rausholen kann, das es sich lohnt....🤔🤷‍♂️
 
MiniM3 schrieb:
Passt überhaupt nicht in das aktuelle Weltbild.
100% Luxussteuer drauf und die Leute haben einen Beitrag für eine bessere Welt geleistet.
 
  • Gefällt mir
Reaktionen: Mcr-King
500 Watt alleine für die Grafikkarte...
s031.gif


Effizienz aus der Hölle. Stromversorger lacht, Planet weint.
 
  • Gefällt mir
Reaktionen: Mcr-King und Ernie75
Puh...
Also was ich jetzt völlig wertfrei denke ist, daß sie gedacht haben "Watt Volt ihr" und dann dieses Monstrum geschraubt haben.
Sie hätten einfach mal vorher fragen sollen...

Ich meine... Natürlich kann man den Rechner im Winter auf die Terrasse stellen um den Garten eisfrei zu halten... Muss man aber nicht...

Ich wiederhole mich gerne: Netzteile für über 750, besser über 650 Watt für einen PC werde ich im Leben nicht kaufen. Damit erübrigt sich alles andere.
Passt nicht in die Zeit und für mich bedeutet Fortschritt mittlerweile mehr Leistung bei weniger Verbrauch.
Zu 500W bei ner Graka: Was. Für. Ein. Blödsinn. Nur meine persönliche, ganz unbescheidene Meinung.

Ehrlich, mich macht das wütend.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cr@zed^
@SV3N

EVGA veröffentlicht für die RTX 3080/90 FTW3 Ultra nur ein neues BIOS Update ( OC, +50 Watt auf die TDP ).
Deshalb finde ich die Überschriften etwas übertrieben formuliert ( Sensationsmeldung ) und amüsant :daumen:

GeForce RTX 3080: EVGA lässt die FTW3 Ultra mit 450-Watt-BIOS von der Leine
GeForce RTX 3090: EVGA entfesselt die FTW3 Ultra mit 500-Watt-BIOS
 
  • Gefällt mir
Reaktionen: Mcr-King, Ernie75 und SVΞN
Toprallog schrieb:
Fernseher, Kühlschränke, Staubsauger, alles wird effizienter. GPU Herstellern ist es schei*egal...
Naja, das stimmt ja so nicht ganz. Die 3080/3090 sind effizienter als alle bisherigen Grafikkarten, die Effizienz ist also durchaus gestiegen. Aber die Leistung halt noch mehr. Und von deinem Kühlschrank oder Staubsauger erwartest du halt nicht, dass er jedes Jahr leistungsfähiger wird, um auch in den neusten Spielen und in 4K mit mindestens 60 FPS Staub zu saugen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeusTheGod
@McFly76 danke für dein Feedback.

Wer mich kennt, weiß dass ich sowas zu schätzen weiß. Eine Sensationsmeldung wollte ich damit nicht andeuten, aber 450W für die 3080 und 500W für die 3090 sind dann doch eine Hausnummer, die auch eine solche Headline rechtfertigen.

Zumal Nvidia sich zuvor ja gerne auf seine Effizienz bezogen hat.

Zudem bin ich in jedem Thread zu einer von mir erstellten News selbst aktiv und ordne die Dinge entsprechend ein.

Daher glaube ich, dass das schon klar geht.
 
  • Gefällt mir
Reaktionen: PietVanOwl und Mcr-King
Toprallog schrieb:
Das ist lächerlich bis verrückt.
Fernseher, Kühlschränke, Staubsauger, alles wird effizienter. GPU Herstellern ist es schei*egal... Kannste echt nur mit dem Kopf schütteln. :pcangry:

Warum nur GPU? Ich finde die gesamte PC Welt ist verrückt geworden:
  • GPU: 1050Ti ist effizienter als 1600, 2000 und 3000 Serie
  • GPU: AMD hat irgendwann mit Windows 7 "Zerocore" aufgegeben (ungenutzte GPU = <1W). Warum? Und warum gibt es sowas nicht von Nvidia?
  • CPU: Intel hat die 10. Generation (10000) hoffnungslos übertaktet und jegliche Effizienz aufgegeben um zu AMD aufzuschließen.
  • Mainboard: AMD bringt einfach keinen sparsamen Desktop-Chipsatz auf den Markt. Entweder gibt es den mega sparsamen Laptop oder den hochgezüchteten X570 für Gamer.
  • Mainboard: Asrock bietet kein CEC 2019 (Asus und Gigabyte schon), hat aber früher mit die sparsamsten Boards gebaut. Warum?
  • SSD: 980 Pro ist super sparsam bei PCIe 3.0, schluckt aber bei PCIe 4.0 (höherer Verbrauch durch den Chipsatz noch nicht mitgemessen)
  • LED: Ja die Seuche gibt es schon länger, aber mittlerweile wird es immer schwerer etwas ohne zu bekommen (damit es keinen Strom dafür verschwendet)
  • Netzteile: Wo bleibt das modulare SFX/ATX 350Watt Platinum Netzteil? Muss ich mir jetzt ein Supermicro PWS-350-1H kaufen? Aber Hauptsache die großen Netzteile werden immer größer
  • 10G LAN: Eine aktive, aber nicht belastete Verbindung verbraucht 3W (plus die 3W vom Controller). Hat da jemand sowas wie Standby vergessen?
  • WLAN: Haufenweise Mesh APs für die Steckdose in der Wohnung verteilen und jeder haut mal eben 5W und mehr raus, aber Hauptsache die EU hat im letzten Jahrzehnt (?) 10x geringere Strahlenwerte verabschiedet.

Dank FALD bewegen wir uns auch bei Monitoren und Fernsehern rückwärts was den Verbrauch anbelangt.

Nur DDR5 scheint sparsamer zu werden. Yeaaahh ^^
 
  • Gefällt mir
Reaktionen: McFly76, v_ossi, Toprallog und 3 andere
Zurück
Oben