Oh wie Jung er damals noch warghecko schrieb:Fermi all over again.
Anhang anzeigen 982042
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 3090: EVGA entfesselt die FTW3 Ultra mit 500-Watt-BIOS
- Ersteller SVΞN
- Erstellt am
- Zur News: GeForce RTX 3090: EVGA entfesselt die FTW3 Ultra mit 500-Watt-BIOS
C
Cr@zed^
Gast
Watt kost' die Welt, wa?
Mir wären die Watt egal, aber da ich erst ein neues Netzteil gekauft habe und dieses mit der 3090 hoffnungslos überfordert ist und auch eine 3080 kaum bewältigt, hoffe ich auf AMD, oder evtl eine 3070.
Mir wären die Watt egal, aber da ich erst ein neues Netzteil gekauft habe und dieses mit der 3090 hoffnungslos überfordert ist und auch eine 3080 kaum bewältigt, hoffe ich auf AMD, oder evtl eine 3070.
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.174
PietVanOwl schrieb:75W über PCIe,
Aber nur bei einem guten Board, denn 60Watt ist der PCIe (Offiziell) alles darüber kann muss aber nicht.
v_ossi
Commodore
- Registriert
- Juni 2011
- Beiträge
- 4.791
SV3N schrieb:[...]Seid ihr jetzt alle doof?[...]
Objektiv betrachtet, ja.
Subjektiv betrachtet, nein.
Denn wie wir alle wissen: "Time enjoyed wasting is not wasted time" - Napoleon, vermutlich.
Sehe das hier aber auch kritischer, weil es eben nicht nur ein lustiges Hobby ist, sondern Peak Kapitalismus auf Kosten Unwissender* und/oder der Umwelt**.
*Mehr Watt bringen ja irgendwann einfach nicht mehr fps. Da wäre Werks UV die bessere Lösung.
**Absolut betrachtet wohl zu vernachlässigen, aber mMn einfach nicht mehr zeitgemäß.
SaschaHa
Commodore
- Registriert
- Nov. 2007
- Beiträge
- 4.681
Die 3xxx-Karten hätten unglaublich gut sein können, wären sie von TSMC in 7nm(+) gefertigt worden. Die 8nm von Samsung sind technisch leider nur aufgewertete 10nm, weshalb sie leider eine Generation zurückliegen. Durch TSMC hätte man aus den 350 Watt der 3090 locker ~220-250 Watt machen können und dann viel mehr Spielraum gehabt, halbwegs effiziente OC-Karten zu verkaufen. Aber 500 Watt sind einfach jenseits von Gut und Böse. Dafür muss das schon echt ein hartes Hobby sein!
!!!Kenny!!!
Cadet 4th Year
- Registriert
- Nov. 2011
- Beiträge
- 96
😳😬 Bissl übertrieben übernehmen die auch die Stromrechnung
Der Nachbar
Vice Admiral
- Registriert
- Aug. 2007
- Beiträge
- 6.995
Das ist EVGA, exklusiver nvidia Partner, die dürfen das und wenn sie wollten, könnten sie noch wie Apple auf ihre Produkte Green IT drauf kleben und die Hardware wäre wirklich grün.🤪
Ich halte es zwar auch nicht für sinnvoll, aber ja, es ist und bleibt für mich übersetzt ein Enhanced Voodoo Graphics Adapter und alles was Voodoo sein darf, darf auch noch ein externes Ampere Netzteil spendiert bekommen. 😁
Ich halte es zwar auch nicht für sinnvoll, aber ja, es ist und bleibt für mich übersetzt ein Enhanced Voodoo Graphics Adapter und alles was Voodoo sein darf, darf auch noch ein externes Ampere Netzteil spendiert bekommen. 😁
ronin7
Cadet 4th Year
- Registriert
- Okt. 2004
- Beiträge
- 107
die Frage ist doch, verkraftet eine 390W Karte mit der selben hardware einfach 500W? Für solche Spielchen braucht man wirklich MLC only. Ich kenne jemand der ne Schandmod bei seiner 3090 gemacht hat und er sagt alles über 400W bringt so gut wie keine mehr frames...scheinbar skaliert der Ampere Chip extrem schlecht bei mehr Mhz. Und overclocking vom Speicher frist wahnsinnig Strom und bringt die Karte schön zum glühen. 1900-2000 Mhz sind dauerhaft real...
t3chn0
Fleet Admiral
- Registriert
- Okt. 2003
- Beiträge
- 10.246
Dai6oro schrieb:Sehe ich anders. Ein Bugatti bringt die 1000PS auf die Straße OOTB. Das geht mit der Karte nicht. Bei der Kühllösung schon mal gar nicht. Und mal Hand aufs Herz. Jemand der mit LN2 hantiert kauft sich keine Karten, die bekommt er doch gestellt. Imo ist das reines Marketing, das MöchtegernOCler anlocken soll, die zahlen eh für alles.
Ich will nichts sagen, aber der Bugatti hat irgendwas um die 400-500PS reine Verlustleistung an Wärme. Ich habe mal eine Reportage über Bugatti gesehen und dort wurde gesagt, dass das Aggregat ca. 2000PS (Chiron) hat, allerdings "nur" 1500PS tatsächlich genutzt werden können, da der Rest einfach "verpufft".
Bei Autos benötigt Du auch exponentiell mehr Leistung ab einer bestimmten Geschwindigkeit.
Für 240 Km/h reichen Dir 200PS, für 250 Km/h reichen Dir 220PS, für 260Km/h sind es dann schon 250-260PS und für 270Km/h 300PS+. Für 30 Km/h mehr, benötigst Du schon 33% mehr Leistung.
Bei Ampere und vielen anderen Karten ist es ähnlich.
Nochmal, dieses Bios ist nur für Benchmark Rekorde released. Ohne LN2 bekommt man die 500W eh kaum abgeführt.
Warum regen sich so viele über solch ein Bios auf?
Ich habe einen Strommesser an meinem Netzteil. Unter Last (99% GPU Load; 30-40% CPU Load (FS2020)) zieht mein System, inkl. 4x16GB Sticks und 3x140mm + 6x 120mm Lüfter ca. 440-480W.
Ich sehe das Problem also so rein gar nicht. Das ist doch total ok. Mein Netzteil wirft dabei nichtmals den Lüfter an.
Ich glaube das hier viele total übertreiben was den Verbrauch im Alltag angeht.
Ich muss allerdings sagen, dass die Karte im Idle relativ viel Strom verbraucht mit 18-23W.
Wenn ich wirklich gar nichts am Rechner mache und einfach auf dem Desktop bin, zieht er sich ca. 80-85W im Idle.
Ryzen Balanced Plan ist akiviert. Das finde ich schon viel und habe auch keine Ahnung wie ich das in Richtung 60W bekommen könnte.
deo
Fleet Admiral
- Registriert
- Okt. 2005
- Beiträge
- 13.445
100% Luxussteuer drauf und die Leute haben einen Beitrag für eine bessere Welt geleistet.MiniM3 schrieb:Passt überhaupt nicht in das aktuelle Weltbild.
Don Sanchez
Commander
- Registriert
- Apr. 2008
- Beiträge
- 2.277
500 Watt alleine für die Grafikkarte...
Effizienz aus der Hölle. Stromversorger lacht, Planet weint.
Effizienz aus der Hölle. Stromversorger lacht, Planet weint.
Puh...
Also was ich jetzt völlig wertfrei denke ist, daß sie gedacht haben "Watt Volt ihr" und dann dieses Monstrum geschraubt haben.
Sie hätten einfach mal vorher fragen sollen...
Ich meine... Natürlich kann man den Rechner im Winter auf die Terrasse stellen um den Garten eisfrei zu halten... Muss man aber nicht...
Ich wiederhole mich gerne: Netzteile für über 750, besser über 650 Watt für einen PC werde ich im Leben nicht kaufen. Damit erübrigt sich alles andere.
Passt nicht in die Zeit und für mich bedeutet Fortschritt mittlerweile mehr Leistung bei weniger Verbrauch.
Zu 500W bei ner Graka: Was. Für. Ein. Blödsinn. Nur meine persönliche, ganz unbescheidene Meinung.
Ehrlich, mich macht das wütend.
Also was ich jetzt völlig wertfrei denke ist, daß sie gedacht haben "Watt Volt ihr" und dann dieses Monstrum geschraubt haben.
Sie hätten einfach mal vorher fragen sollen...
Ich meine... Natürlich kann man den Rechner im Winter auf die Terrasse stellen um den Garten eisfrei zu halten... Muss man aber nicht...
Ich wiederhole mich gerne: Netzteile für über 750, besser über 650 Watt für einen PC werde ich im Leben nicht kaufen. Damit erübrigt sich alles andere.
Passt nicht in die Zeit und für mich bedeutet Fortschritt mittlerweile mehr Leistung bei weniger Verbrauch.
Zu 500W bei ner Graka: Was. Für. Ein. Blödsinn. Nur meine persönliche, ganz unbescheidene Meinung.
Ehrlich, mich macht das wütend.
Zuletzt bearbeitet:
McFly76
Lt. Commander
- Registriert
- Jan. 2014
- Beiträge
- 1.465
@SV3N
EVGA veröffentlicht für die RTX 3080/90 FTW3 Ultra nur ein neues BIOS Update ( OC, +50 Watt auf die TDP ).
Deshalb finde ich die Überschriften etwas übertrieben formuliert ( Sensationsmeldung ) und amüsant
GeForce RTX 3080: EVGA lässt die FTW3 Ultra mit 450-Watt-BIOS von der Leine
GeForce RTX 3090: EVGA entfesselt die FTW3 Ultra mit 500-Watt-BIOS
EVGA veröffentlicht für die RTX 3080/90 FTW3 Ultra nur ein neues BIOS Update ( OC, +50 Watt auf die TDP ).
Deshalb finde ich die Überschriften etwas übertrieben formuliert ( Sensationsmeldung ) und amüsant
GeForce RTX 3080: EVGA lässt die FTW3 Ultra mit 450-Watt-BIOS von der Leine
GeForce RTX 3090: EVGA entfesselt die FTW3 Ultra mit 500-Watt-BIOS
Don Sanchez
Commander
- Registriert
- Apr. 2008
- Beiträge
- 2.277
Naja, das stimmt ja so nicht ganz. Die 3080/3090 sind effizienter als alle bisherigen Grafikkarten, die Effizienz ist also durchaus gestiegen. Aber die Leistung halt noch mehr. Und von deinem Kühlschrank oder Staubsauger erwartest du halt nicht, dass er jedes Jahr leistungsfähiger wird, um auch in den neusten Spielen und in 4K mit mindestens 60 FPS Staub zu saugen...Toprallog schrieb:Fernseher, Kühlschränke, Staubsauger, alles wird effizienter. GPU Herstellern ist es schei*egal...
Zuletzt bearbeitet:
- Registriert
- Juni 2007
- Beiträge
- 22.952
@McFly76 danke für dein Feedback.
Wer mich kennt, weiß dass ich sowas zu schätzen weiß. Eine Sensationsmeldung wollte ich damit nicht andeuten, aber 450W für die 3080 und 500W für die 3090 sind dann doch eine Hausnummer, die auch eine solche Headline rechtfertigen.
Zumal Nvidia sich zuvor ja gerne auf seine Effizienz bezogen hat.
Zudem bin ich in jedem Thread zu einer von mir erstellten News selbst aktiv und ordne die Dinge entsprechend ein.
Daher glaube ich, dass das schon klar geht.
Wer mich kennt, weiß dass ich sowas zu schätzen weiß. Eine Sensationsmeldung wollte ich damit nicht andeuten, aber 450W für die 3080 und 500W für die 3090 sind dann doch eine Hausnummer, die auch eine solche Headline rechtfertigen.
Zumal Nvidia sich zuvor ja gerne auf seine Effizienz bezogen hat.
Zudem bin ich in jedem Thread zu einer von mir erstellten News selbst aktiv und ordne die Dinge entsprechend ein.
Daher glaube ich, dass das schon klar geht.
mgutt
Commander
- Registriert
- März 2009
- Beiträge
- 2.051
Toprallog schrieb:Das ist lächerlich bis verrückt.
Fernseher, Kühlschränke, Staubsauger, alles wird effizienter. GPU Herstellern ist es schei*egal... Kannste echt nur mit dem Kopf schütteln.
Warum nur GPU? Ich finde die gesamte PC Welt ist verrückt geworden:
- GPU: 1050Ti ist effizienter als 1600, 2000 und 3000 Serie
- GPU: AMD hat irgendwann mit Windows 7 "Zerocore" aufgegeben (ungenutzte GPU = <1W). Warum? Und warum gibt es sowas nicht von Nvidia?
- CPU: Intel hat die 10. Generation (10000) hoffnungslos übertaktet und jegliche Effizienz aufgegeben um zu AMD aufzuschließen.
- Mainboard: AMD bringt einfach keinen sparsamen Desktop-Chipsatz auf den Markt. Entweder gibt es den mega sparsamen Laptop oder den hochgezüchteten X570 für Gamer.
- Mainboard: Asrock bietet kein CEC 2019 (Asus und Gigabyte schon), hat aber früher mit die sparsamsten Boards gebaut. Warum?
- SSD: 980 Pro ist super sparsam bei PCIe 3.0, schluckt aber bei PCIe 4.0 (höherer Verbrauch durch den Chipsatz noch nicht mitgemessen)
- LED: Ja die Seuche gibt es schon länger, aber mittlerweile wird es immer schwerer etwas ohne zu bekommen (damit es keinen Strom dafür verschwendet)
- Netzteile: Wo bleibt das modulare SFX/ATX 350Watt Platinum Netzteil? Muss ich mir jetzt ein Supermicro PWS-350-1H kaufen? Aber Hauptsache die großen Netzteile werden immer größer
- 10G LAN: Eine aktive, aber nicht belastete Verbindung verbraucht 3W (plus die 3W vom Controller). Hat da jemand sowas wie Standby vergessen?
- WLAN: Haufenweise Mesh APs für die Steckdose in der Wohnung verteilen und jeder haut mal eben 5W und mehr raus, aber Hauptsache die EU hat im letzten Jahrzehnt (?) 10x geringere Strahlenwerte verabschiedet.
Dank FALD bewegen wir uns auch bei Monitoren und Fernsehern rückwärts was den Verbrauch anbelangt.
Nur DDR5 scheint sparsamer zu werden. Yeaaahh ^^
Ähnliche Themen
- Antworten
- 25
- Aufrufe
- 3.238
- Antworten
- 328
- Aufrufe
- 44.473