News GeForce RTX 3090: EVGA entfesselt die FTW3 Ultra mit 500-Watt-BIOS

SKu schrieb:
Sehe da nicht wirklich ein Problem.
Wie hoch war der Vcore der Ampere? Um die 1V?
Also ich seh da schon ein Problem, wenn 500A durch 628 mm² Silizium fließen. Sei es nun thermische Belastung, Elektronenmigration oder schlicht die Angst, dass bei einem Kurzschluss in der Nähe des Chips mir heißes Kupfer in die Wade gestanzt wird.

Fermi all over again.
grill.jpeg
 
  • Gefällt mir
Reaktionen: Prophetic, Yesman9277, ArrakisSand und 7 andere
Für mich sind sowas reine Machbarkeitsstudien. Oder Marketing-Stunts. In diesem Fall beides.
 
  • Gefällt mir
Reaktionen: Yesman9277 und simosh
Die bekommt aber sicher kein A+++ :D
Das ist für Leute, die sich um Performance pro Watt keine Gedanken machen (müssen).
 
  • Gefällt mir
Reaktionen: SirSilent
@Unti

hier ist es wieder wie mit anderen Prestigeobjekten. Muss man haben wenn man wer sein will. Und unabdingbar, bereits in Full HD. Wie kann man auch mit weniger spielen. Ist nicht State of the Art und so...:p

Ich finde es bedauerlich das hier eine Entwicklung stattfindet die allen widerspricht was wir die letzten Jahre gesehen haben. Da war vorher von Leistungs- und Effektivitätsteigerung die Rede siehe Maxwell -> Pascal. Die neuen Karten sind auch schneller geworden und gemessen gewiss auch effektiver. Aber der Preis ist nicht vertretbar (Energie und Anschaffung). Haben die 80iger Karten um die knapp 200 Watt gelegen schlägt das hier dem Fass den Boden aus. Und keine kritischen Stimmen... Alle klatschen fein Beifall. Das geht direkt an die Fachpresse, also auch an CB. "Musst Dir halt nen 1 KW Netzteil einbauen" heißt es. Oder am besten gleich 1200 Watt.

Das was Intel und Nvidia hier seit über einem Jahr abliefern gehört reguliert. Da sollte die EU mal eingreifen. Aber man sieht es wird gekauft. Und das scheinbar in vollen Zügen. Also dürfen dann auch gerne die Pole schmelzen. Was soll der Geiz, Wasser für Alle ! Aber dann war es wieder keiner :p

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: pakichaggi, Ernie75, ComputerJunge und 3 andere
Währenddessen bei Gamers Nexus: "We are not doing gaming benchmarks on these partner cards anymore, because it's irrelevant. You're within 1-2 fps almost every single time....doesn't matter. The extra 50W the extra 60W it doesn't really change much for gaming numbers."
 
  • Gefällt mir
Reaktionen: etoo, J3rs3y, dister1 und 14 andere
Auswüchse gibt es immer. Was die Masse benutzt, ist ausschlaggebend und da werden GTX1660 vorherrschen und die sind sehr sparsam bei ansprechender Leistung.
 
  • Gefällt mir
Reaktionen: NMA, PS828 und Holzinternet
Der Nutzen dürfte im Vergleich zum 450W Bios gegen Null gehen. Ich kann mir nicht vorstellen das der Takt noch höher geht nur weil man von 450W max. auf 500W max. hoch geht. Nutzt doch höchstens was wenn man die unter Ln2 setzt und mal ein Run macht. Da hat K|ngp|n die Meßlatte aber schon echt hoch gelegt. MFG Piet
 
Was soll das??
Vielleicht meint EVGA gut und sie wissen dass der Winter sehr kalt wird also sparen wir uns das Heizen, es reicht wenn eine EVGA 3090 in den Rechner steckt...
Seitentür ab und schon ist die ganze Wohnung geheizt.
 
Zuletzt bearbeitet von einem Moderator:
Nachtspeicherheizungen kommen zurück. 20x 3090er und entsprechende Speichermasse, fertig ist die Hochleistungs-Elektroheizung.
Auf den Karten kann ja F@H oder sowas laufen, dann hat die Wissenschaft immerhin einen Mehrwert davon - und der Kunde hat eine warme Wohnung. :D

Im Ernst, langsam wirds irre. Selbst wenn diese Karten nicht der Massenmarkt sind und die meisten Karten irgendwo im Bereich 50-150 W liegen dürften, finde ich das Signal dahinter schon irgendwo bedenklich. Selbst mein alter Retro-PC aus 2011/2012 verbraucht komplett trotz OC von CPU/GPU "nur" 350 W im Gaming. Und das ist mir schon viel zu viel, nicht wegen den Stromkosten, sondern wegen der Hitze im schallgedämmten Case. Aber leise isses...
 
Brailee schrieb:
Was ein Schwachsinn, 450 Watt waren schon lächerlich was soll das denn jetzt.

schwachsinn fuer normalos die 1080p zocken und 3dmark nicht mal kennen.

3090 und solche karten sind an enthusiasten gedacht. die interessiert stromverbrauch und abwaerme nicht.

dass das in den horizont so mancher hier nicht passt, ist zum smh.
 
  • Gefällt mir
Reaktionen: lex30
Ich wollte schon immer eine Sauna haben.

Geldbörse fängt an zu schwitzen
 
  • Gefällt mir
Reaktionen: The_Jensie
Mal sehen was die RTX 4000er Serie zeigt in Sachen Stromverbrauch. So ne Wattschleuder kommt mir nit ins Haus können sie ihren Rotz behalten. Und wieder Geld gespart ole ole :D
 
  • Gefällt mir
Reaktionen: poly123
Ich freue mich auf alle Rechtfertigungen der Fanboys... 🤪 aber..aber... Nvidia darf das.
 
  • Gefällt mir
Reaktionen: The_Jensie
Trimipramin schrieb:
Wollte ja eigentlich eine 3080 20GB, aber nachdem diese wohl vorerst gecancelt wurde, wirds eben eine 3090 FTW3, ..sobald mal gut verfügbar.
Oha, dann wird AMD wohl doch nicht konkurenzfähig, vielleicht weiß Nvidia schon mehr.
 
Schokolade schrieb:
Das BIOS lässt sich nicht modifizieren und mit dem physischen Austausch der Shunts verlierst du deine Garantie,
Was bei professionellem OC völlig Wurscht ist.
 
  • Gefällt mir
Reaktionen: NMA und simosh
Mir viel zu heiß hier seit meiner 3080.
 
  • Gefällt mir
Reaktionen: shark808
Ich kann das gewhine bezüglich der hohen TDP echt nicht verstehen. Weint ihr dann auch, wenn ihr nen dicken V8 kauft und der dann 40-50Liter unter Volllast säuft? :freak:
Wo ist denn das Problem, dass ein Flaggschiff derart viel ziehen kann? Niemand muss es nutzen oder kaufen, wenn man es nicht will...

Vor vielen Jahren hatte ich auch mal ein Quad Sli aus 2 Nvidia GTX 295, wovon jede Karte eine TDP von 289Watt hatte, also 578 Watt.
Natürlich ist das Overkill, aber warum denn nicht?
1603310103524.png
 
  • Gefällt mir
Reaktionen: eselwald, ron89, Blackvoodoo und 2 andere
SirSilent schrieb:
Oha, dann wird AMD wohl doch nicht konkurenzfähig, vielleicht weiß Nvidia schon mehr.
Oder der Verbrauch bricht endgültig alle Rekorde. Wer weiß das schon...
Wenn AMD 3080er Leistung erreicht und das SI ausreicht, dürfte das schon ausreichen. Die Frage ist zudem auch, wie viele Ottonormalos mit solchen Karten DLSS wirklich dauerhaft nutzen.
 
Zum Thema Verbrauch... Mein "Antik" HEDT System zieht um die 300 Watt aus der Dose, unter Volllast ! Die CPU darf sich austoben bei einem Limit von 140 Watt bei 4,7 GHz Allcore wenn nötig. Bei 4.2 GHz sind es max. 110 Watt. Dazu die GTX 1660S mit 120 Watt (mit OC). Dann noch das Tingel nebenher wie SSDs und Kleinperipherie.

Das heißt wenn ich Simgaming mache unter VR (was gut geht mit der 1660S) zieh ich 300 Watt pro Stunde. Wenn ich da eine 3080 oder gar 3090 sehe in Verbindung mit den Intel CPU Wärmepumpen aka I9 dann kann ich nur den Kopf schütteln. Hier wird alles ausgepresst was geht, egal wieviel Saft da durchgeht. Falscher Ansatz. Sollte nicht sein, aber da sieht man was in unserer Gesellschaft wichtig ist. Kein Wunder das alles den Bach runter geht;)

Gruß
Holzinternet

EDIT:

@SV3N

Meine Kritik bezieht sich nicht auf dieses Modell allein. Eher auf die komplette Serie. Sei es 3080 wie auch 3090. 320 bzw 350 Watt Boardpower plus Spannungsspitzen sind nicht ökonomisch und schon gar nicht ökologisch vertretbar. Hier wird mit der Brechstange geknüppelt. Und die Presse findet das auch noch toll. Das verstehe ich nicht. In Verbindung mit einem i9 gehen da mal schnell 600 bis 700 Watt pro Stunde weg. Finde ich bedenklich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: poly123, Ernie75 und v_ossi
Zurück
Oben