News GeForce RTX 3080: EVGA lässt die FTW3 Ultra mit 450-Watt-BIOS von der Leine

Spätestens seit dieser Grafikkartengeneration sind wir an einem Punkt, wo FPS nur noch mit Watt eingekauft werden. Genau das richtige, wo alle Welt von der Energieverschwendung spricht. Ich werde persönlich niemals 450W für eine GPU durchbrezeln lassen, aber das sei ja jedem selbst freigestellt.
 
immer her damit, meine jetzige kommt oft auf 375w hoch.
wofür hab ich Strom? :p
 
  • Gefällt mir
Reaktionen: Fraggball
Herdware schrieb:
Früher dachte ich, dass 300W quasi das harte, physikalische Limit wären, das man mit einem Luftkühler an einer PCIe-Karte abführen kann, und dass deswegen die offiziellen Spezifikationen zur PCIe-Stromversorgung auch bei insgesamt 300W enden.
Aber wie wir sehen, ist da wohl doch noch reichlich (warme) Luft nach oben.
Ist ja nicht der Chip alleine, der da die 300W verbrät.
Das wird über mehrere Komponenten und eine große Fläche verteilt und ist somit kein Problem mehr.
 
Maxminator schrieb:
eigentlich muss NVIDIA eine CO2 Abgabe bei solchen Grafikkarten zahlen!
Was? Ich glaube du hast das falsch verstanden.
Strom ist gut, Strom ist sauber, Strom kommt aus der Steckdose. Jesus würde Strom verbrauchen.
Benzin und Öl sind die bösen.
 
  • Gefällt mir
Reaktionen: MurphysLaw, DDM_Reaper20, morb und eine weitere Person
Frag mich woher das ganze :heul: kommt?

Vorangehende Generationen wurden aufgrund der strikten, von Nvidia vorgegebenen power limits kritisiert - nun geht es in die andere Richtung und es passt anscheinend auch nicht?
 
downforze schrieb:
Genau das richtige, wo alle Welt von der Energieverschwendung spricht.
Außer dem Deutschen spricht übrigens fast niemand auf der Welt von Energieverschwendung. Das liegt vor allen Dingen daran, daß wir die höchsten Strompreisen der Welt zahlen, und das mit Abstand.
 
  • Gefällt mir
Reaktionen: Duffy Duck
MrWaYne schrieb:
immer her damit, meine jetzige kommt oft auf 375w hoch.
wofür hab ich Strom?
Bei der Ansage verstehe ich nicht warum du einen 3700x in deiner Signatur hast. Das widerspricht sich doch.
 
WakeX schrieb:
Vorangehende Generationen wurden aufgrund der strikten, von Nvidia vorgegebenen power limits kritisiert - nun geht es in die andere Richtung und es passt anscheinend auch nicht?

So eine Extrem-OC-Karte für eine optionale BIOS-Einstellung zu kritisieren finde ich auch unangebracht.

Aber die Kritik am generellen Verbrauch der 30er-Karten kann ich schon verstehen. Für Leute wie mich würden die mit ihren weit über 300W z.B. komplett außen vor sein, wenn ich mir jetzt eine neue Karte kaufen wollte.
Dafür reicht mein Netzteil nicht und ich müsste alle Lüfter an und in meinem Gehäuse höher (lauter) regeln, um mit der zusätzlichen Abwärme fertig zu werden. Das wäre es mir nicht wert.
Deshalb hoffe ich, dass zukünftige High End-Karten wieder deutlich genügsamer werden. Ansonsten sehe ich mich dann halt nur noch in der Mittelklasse um.
 
Durchbruch bei der Minireaktorforschung
 
  • Gefällt mir
Reaktionen: morb
Das interessante an der ganzen Sache ist doch die, dass fast jeder dachte (zumindest jeder NV Fanboi), NV könne mit ihrer jahrlangen Effizienzführung seit Maxwell/Pascal mit dem Sprung von 12nm -> 8nm einen weiteren enormen Verbrauchsvorteil ggü. AMD erkämpfen! :D

Und jetzt wurde ausnahmslos JEDER eines Besseren belehrt....die Mehrleistung geht zu einem extrem großen Anteil auf den Verbrauchsanstieg zurück.
Damit hat wohl niemand wirklich gerechnet. Was natürlich die Kehrseite der sonst guten Karte ist.
ABER da ja sehr gute Leistung vorhanden ist, wird jetzt eben der Nachteil extrem klein geredet, es sei nicht so schlimm.

Ich stehe auch auf Leistung und möchte so eine schnelle Karte haben, aber nicht zu jedem Preis....und damit meine ich nicht den des Geldes!
Daher hab ich auch die Finger von Vega64 gelassen.

Daher bin ich noch viel mehr auf die RX6900XT gespannt und ob sie das Gerücht der 250-300 Watt halten kann.
 
  • Gefällt mir
Reaktionen: Chismon
Faust2011 schrieb:
Das einzige ist vielleicht das Jagen nach Benchmarkrekorden. Aber solche Leute, die hier im Extrembereich unterwegs sind, haben eh ein Mod-BIOS.
Gerade für diejenigen ist es vermutlich ohenhin egal da sie mit separaten Spannungswandlern und dem Verfälschen der Strommesswerte zur Umgehung des Powerlimits arbeiten.
 
  • Gefällt mir
Reaktionen: Faust2011
Wow eine Computerbase News die genau 0 Personen betrifft, da die Grafikkarte so gut wie nicht existent ist.
 
PusteBlume0815 schrieb:
Kann man Ampere eigentlich für Kryptomining missbrauchen?

Die Miner betreiben doch die Karten nicht an der Kotzegrenze, sondern am Sweetspot zwischen Performance (Leistung) und Leistungsaufnahme. Und die liegt eher unterhalb der normalen TDP der Karten. Da hilft dann kein extremes OC-BIOS, wie hier von EVGA.
 
WakeX schrieb:
Vorangehende Generationen wurden aufgrund der strikten, von Nvidia vorgegebenen power limits kritisiert - nun geht es in die andere Richtung und es passt anscheinend auch nicht?
...und gleichzeitig wurden die AMD Karten als "Undervolting Wunder" bezeichnet.

Also für die 3090 find ich die Leistungsaufnahme auch ok. Ich übertakte selbst auch ungern und kauf lieber übertaktet ab Werk.
Aber warum bei der 3080 die Brechstange ausgepackt wurde versteh ich nicht. 50 Watt weniger und paar Prozent weniger Leistung hätte noch immer genug Spielraum für Partnerkarten wie Asus Strix usw. geboten.
 
Che-Tah schrieb:
Also für die 3090 find ich die Leistungsaufnahme auch ok. Ich übertakte selbst auch ungern und kauf lieber übertaktet ab Werk.
Aber warum bei der 3080 die Brechstange ausgepackt wurde versteh ich nicht. 50 Watt weniger und paar Prozent weniger Leistung hätte noch immer genug Spielraum für Partnerkarten wie Asus Strix usw. geboten.
Du findest die 3090 okay, aber die 3080 bezeichnest du als Brechstange?!
Der Chip der 3080 ist ein minimal beschnittener 3090 Chip.
 
Wenn ich in einem Jahr dann mal mein Wunschmodell habe, wird es definitiv untervoltet.
Die paar Prozente an Mehrleistung stehen in keiner Relation zum Verbrauch und zur Abwärme.
Da finde ich meine RTX 2070 wieder toll. 2GHz sind drin ohne signifikant den Verbrauch zu erhöhen.
 
estros schrieb:
Damit hat sie nun genug Power, um mit den anderen Topmodellen zu konkurrieren. Sehr schön.

wozu? weil die 3080 ja so bedürftig ist in sachen leistung? weil 80watt über der offitiellen tgp zuwenig energieineffizienz sind?
oder ist es mal wieder etwas für den "einzelfall-enthusiast", der es nicht ertragen kann dass seiner ein paar prozent kürzer ist als dass der anderen? (balken natürlich! :-p)

ich halte die entwicklung inzwischen für hochgradig fehlgeleitet; demnächst am besten direkt mit jeder graka ein 1kw netzteil mitliefern - bei preisen um 1000€ kann man das doch erwarten... :evillol:
 
Zurück
Oben