Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGeForce RTX 3090 und 3080: Gainward Phantom GS mit bis zu 1.845 MHz bei 420 Watt
Ich bin mir nicht mehr 100% sicher bei wem das alles war. Auf jedenfall 1200 Watt, was ja eigentlich mehr als genug haben sollte, hatten Probleme mit der 3080 und 3090.
Was ansich einfach beeindruckend ist. Netzteile die eine 2080 Ti mit dickem OC locker wegstecken haben plötzlich Probleme.
Spielst du im Freien oder ist dein Raum klimatisiert? 1000w Abwärme würde man im Sommer in einem geschlossenen Raum normaler Größe nicht lange überleben.
nö, ich meinte nur: hätte man die entsprechende leistung, dann würde ich es probieren...
aber keine sorge, wenn laut igor schon eine 3080 lastspitzen bis knapp 500 w erzeugt, dann werde ich es mit meinem 600 w netzteil lieber keine einbauen... eher warte ich auf zen3 und was big navi im vergleich bringt, und klöppele dann einen neuen pc zusammen. mit mindestens 850 w netzteil nur mal zur sicherheit, wenn der trend wieder so aussieht.
ja, für länder wie USA mit billigem strom und klimaanlagen überall mag das ja gehen, aber hier wird's teuer.
Ergänzung ()
Caramelito schrieb:
Ich meine gelesen zu haben, dass da ein paar billige Kondensatoren oder so verbaut wurden und diese diese Spitzen nicht aushalten?
Igors Lab?
"Interessante" Verbrauchsentwicklung der Custom Karten. Eine Amp Extreme oder eine EVGA Kingpin Edition wird dann bei Lastspitzen bestimmt die Versorgersicherung des Energieversorgers auslösen, oder ? (//Sarkassmus)
Oder wir sehen bei Nvidia bei von denen supportete Spiele im Abspann den Text:
Deutsche Foren sind halt auch die einzigen wo man seitenweise Geheule zum Stromverbrauch lesen muss. Der Rest der Welt freut sich indessen über mehr Leistung. Jedem das seine.
Das Design finde ich richtig schön , nur warte ich auf die 3080ti.
Und bis da werden auch die Kinderkrankheiten raus sein.
Die Watt Zahlen gehen echt langsam durch die Decke, überlege auch schon ob mein 850w Platin NT reicht für das neue Sys.
420 Watt, da brauche ich mein derzeitiges Netzteil (450W) alleine schon für die Grafikkarte - Stromspitzen nicht einberechnet.
Na solange die Performance/Watt stimmt und man auch gerne bei 30° im Zimmer spielt ^^
Deutsche Foren sind halt auch die einzigen wo man seitenweise Geheule zum Stromverbrauch lesen muss. Der Rest der Welt freut sich indessen über mehr Leistung. Jedem das seine.
Deutschland ist halt das Land mit den fast höchsten Strompreisen weltweit. Und das einzige Land in dem der Strompreis auch in Zukunft unverhältnismäßig steigen wird. Also kann Mal schonmal heulen. Ich geb dir aber Recht. Das interessiert 99% der restlichen Welt überhaupt nicht, und das zurecht.
Ich weiß, ich weiß, wir sind hier in einem Hardware-Forum und eigentlich mixe ich jetzt "Politik" mit rein, welche hier wohl genauso wenig reingehört wie beim Sport - aber ich finde es immernoch erschreckend, wie sich viele (neben der eigentlichen Hardware-Diskussion bzgl. der Instabilität) eher über die StromKOSTEN oder zusätzlichen Investitionskosten (besseres Netzteil) aufregen, als über die zusätzliche Energieverschwendung bei kaum höherer Leistung... Fast ein 1:1-Deal an "Mehr-Peformance zu Mehr-Verlust"
Undervolten ist wohl der beste Weg, außer man will jedes % Leistung. Hab meine Gainward Phoenix 3080 auf 806 mv bei ca. 1800 MHz festgenagelt. In AC Odyssey als Beispiel komme ich dabei von 76 auf 71 FPS und der Verbrauch sinkt um knapp 100 Watt + die Karte wird ca. 15°C kühler. In Shadow of the Tomb Raider verliere ich ganze 2 FPS.
Endlich! Endlich muss man sich nicht mit BIOS-Flasherei rumschlagen, um Power Limit auszuhebeln ohne Garantie zu verlieren. Endlich kein Shunt-Mod. Endlich ein Hersteller, der mir nicht bevormundet, wie viel Strom meine Grafikkarte ziehen darf, weil man Bei 420 Watt schon von "keinem Power Limit" sprechen kann. Soweit alles schön und gut, wenn es da nicht ein "Aber" wäre: wird es für die Grafikkarte einen Wasserkühler Block geben?
Naja, der Verbrauch ist auch nicht anfechtbar
-Genausowenig wie die nicht Verfügbarkeit
Ich persönlich bin eigentlich mehr auf die 220W 3070 gespannt, die schneller als eine 2080Ti sein soll, wirklich besonders gespannt, wie das möglich sein wird. Vielleicht skaliert die auch einfach besser mit höheren Taktfrequenzen? Die angegeben 1700MHz Boost sind ja auch nur ein Pseudowert der immer überschritten wird bei den 3080/3090ern, vielleicht bei der 3070 deutlich mehr?
Irgendwie ist es amüsant, dass nun bei NVIDIA genau die Argumentation kommt, die damals auch bei AMD Polaris als auch Vega gekommen ist.
Ich sag da mal ganz frech das gleiche wie so mancher damals zu der Argumentation bei AMD: Das zählt nicht! Klar kann man die Hardware optimieren, wenn man weiß wie es geht, entscheidend für die meisten Nutzer sind aber die Stock-Einstellungen.
Nein, nicht wirklich ernst nehmen. Im Endeffekt stimmt es schon. Hier muss man sich schon die Frage stellen, warum NVIDIA nun genau so an die Kotzgrenze der Chips geht. Ich will hier aber keine Mutmaßungen zu RDNA2 ablassen um Erwartungen zu schüren.
Ja, in der Tat. Ich finde das auch "beeindruckend", wie Nvidia hier den Chip über die Verlustleistung hochprügelt (+ 50 Watt), um gerademal +4% Performance herauszuholen. Nvidia hatte bisher bei Maxwell, Pascall und Turing die Chips eher am Sweetspot zwischen Leistungsaufnahme und Performance betrieben, während AMD bei Hawaii, Fiji und Vega eher die Brechstange herausgeholt hatte.
du hast einen ähnlichen wie ich, aber glaube nicht, dass du bei Volllast gemessen hast. Im Gaming verbraucht meiner 250-280W, wenn ich die CPU parallel mit 100% belaste zB. mit heavyload, dann komme ich auf 340W. Aber gut, meine CPU auf 4,9GHz und die 1070Ti braucht wohl etwas mehr power als deine 1070er und das Powerlimit hab ich auch um 20% erhöht um 2000MHz Gamingclock zu erreichen.
Ich bin aber auch mittlerweile immer weiter weg von der 3080, eigentlich gut, dass ich sie nicht bestellen konnte, mal sehen was die 3070 wirklich schafft, so ne 500 Euro 2080Ti bei 220W, da sag ich nicht nein
Deutsche Foren sind halt auch die einzigen wo man seitenweise Geheule zum Stromverbrauch lesen muss. Der Rest der Welt freut sich indessen über mehr Leistung. Jedem das seine.
Ja, zumal dieses Geflenne „wir haben die höchsten Strompreise“ auch nicht stimmen dürfte, wenn man es ins Verhältnis mit dem Median-Nettoeinkommen setzt. Außerdem wird immer so getan, als ob die Kiste 24/7 unter GPU-Volllast laufen würde. Außer Miner macht das aber niemand. Wir reden hier von 6-7 h täglich bei vielleicht 50% Last, und das sind schon Schüler oder Arbeitslose (oder solche, die es bald werden wollen). Also lasst doch die Kirche mal wieder im Dorf.
Von mir aus die Abwärme die bei 400+Watt ensteht verschwindet aber nicht einfach oder löst sich wundersam in Luft auf wie die Coronaviren in den USA (laut Trump ...). So einen Rechner möchte ich nicht mit Luft kühlen müssen. Leise kann das kaum mehr sein.