Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGeForce RTX 3080: EVGA lässt die FTW3 Ultra mit 450-Watt-BIOS von der Leine
Spätestens seit dieser Grafikkartengeneration sind wir an einem Punkt, wo FPS nur noch mit Watt eingekauft werden. Genau das richtige, wo alle Welt von der Energieverschwendung spricht. Ich werde persönlich niemals 450W für eine GPU durchbrezeln lassen, aber das sei ja jedem selbst freigestellt.
Früher dachte ich, dass 300W quasi das harte, physikalische Limit wären, das man mit einem Luftkühler an einer PCIe-Karte abführen kann, und dass deswegen die offiziellen Spezifikationen zur PCIe-Stromversorgung auch bei insgesamt 300W enden.
Aber wie wir sehen, ist da wohl doch noch reichlich (warme) Luft nach oben.
Ist ja nicht der Chip alleine, der da die 300W verbrät.
Das wird über mehrere Komponenten und eine große Fläche verteilt und ist somit kein Problem mehr.
Was? Ich glaube du hast das falsch verstanden.
Strom ist gut, Strom ist sauber, Strom kommt aus der Steckdose. Jesus würde Strom verbrauchen.
Benzin und Öl sind die bösen.
Vorangehende Generationen wurden aufgrund der strikten, von Nvidia vorgegebenen power limits kritisiert - nun geht es in die andere Richtung und es passt anscheinend auch nicht?
Außer dem Deutschen spricht übrigens fast niemand auf der Welt von Energieverschwendung. Das liegt vor allen Dingen daran, daß wir die höchsten Strompreisen der Welt zahlen, und das mit Abstand.
Vorangehende Generationen wurden aufgrund der strikten, von Nvidia vorgegebenen power limits kritisiert - nun geht es in die andere Richtung und es passt anscheinend auch nicht?
So eine Extrem-OC-Karte für eine optionale BIOS-Einstellung zu kritisieren finde ich auch unangebracht.
Aber die Kritik am generellen Verbrauch der 30er-Karten kann ich schon verstehen. Für Leute wie mich würden die mit ihren weit über 300W z.B. komplett außen vor sein, wenn ich mir jetzt eine neue Karte kaufen wollte.
Dafür reicht mein Netzteil nicht und ich müsste alle Lüfter an und in meinem Gehäuse höher (lauter) regeln, um mit der zusätzlichen Abwärme fertig zu werden. Das wäre es mir nicht wert.
Deshalb hoffe ich, dass zukünftige High End-Karten wieder deutlich genügsamer werden. Ansonsten sehe ich mich dann halt nur noch in der Mittelklasse um.
Das interessante an der ganzen Sache ist doch die, dass fast jeder dachte (zumindest jeder NV Fanboi), NV könne mit ihrer jahrlangen Effizienzführung seit Maxwell/Pascal mit dem Sprung von 12nm -> 8nm einen weiteren enormen Verbrauchsvorteil ggü. AMD erkämpfen!
Und jetzt wurde ausnahmslos JEDER eines Besseren belehrt....die Mehrleistung geht zu einem extrem großen Anteil auf den Verbrauchsanstieg zurück.
Damit hat wohl niemand wirklich gerechnet. Was natürlich die Kehrseite der sonst guten Karte ist.
ABER da ja sehr gute Leistung vorhanden ist, wird jetzt eben der Nachteil extrem klein geredet, es sei nicht so schlimm.
Ich stehe auch auf Leistung und möchte so eine schnelle Karte haben, aber nicht zu jedem Preis....und damit meine ich nicht den des Geldes!
Daher hab ich auch die Finger von Vega64 gelassen.
Daher bin ich noch viel mehr auf die RX6900XT gespannt und ob sie das Gerücht der 250-300 Watt halten kann.
Gerade für diejenigen ist es vermutlich ohenhin egal da sie mit separaten Spannungswandlern und dem Verfälschen der Strommesswerte zur Umgehung des Powerlimits arbeiten.
Die Miner betreiben doch die Karten nicht an der Kotzegrenze, sondern am Sweetspot zwischen Performance (Leistung) und Leistungsaufnahme. Und die liegt eher unterhalb der normalen TDP der Karten. Da hilft dann kein extremes OC-BIOS, wie hier von EVGA.
Vorangehende Generationen wurden aufgrund der strikten, von Nvidia vorgegebenen power limits kritisiert - nun geht es in die andere Richtung und es passt anscheinend auch nicht?
...und gleichzeitig wurden die AMD Karten als "Undervolting Wunder" bezeichnet.
Also für die 3090 find ich die Leistungsaufnahme auch ok. Ich übertakte selbst auch ungern und kauf lieber übertaktet ab Werk.
Aber warum bei der 3080 die Brechstange ausgepackt wurde versteh ich nicht. 50 Watt weniger und paar Prozent weniger Leistung hätte noch immer genug Spielraum für Partnerkarten wie Asus Strix usw. geboten.
Also für die 3090 find ich die Leistungsaufnahme auch ok. Ich übertakte selbst auch ungern und kauf lieber übertaktet ab Werk.
Aber warum bei der 3080 die Brechstange ausgepackt wurde versteh ich nicht. 50 Watt weniger und paar Prozent weniger Leistung hätte noch immer genug Spielraum für Partnerkarten wie Asus Strix usw. geboten.
Wenn ich in einem Jahr dann mal mein Wunschmodell habe, wird es definitiv untervoltet.
Die paar Prozente an Mehrleistung stehen in keiner Relation zum Verbrauch und zur Abwärme.
Da finde ich meine RTX 2070 wieder toll. 2GHz sind drin ohne signifikant den Verbrauch zu erhöhen.
wozu? weil die 3080 ja so bedürftig ist in sachen leistung? weil 80watt über der offitiellen tgp zuwenig energieineffizienz sind?
oder ist es mal wieder etwas für den "einzelfall-enthusiast", der es nicht ertragen kann dass seiner ein paar prozent kürzer ist als dass der anderen? (balken natürlich! :-p)
ich halte die entwicklung inzwischen für hochgradig fehlgeleitet; demnächst am besten direkt mit jeder graka ein 1kw netzteil mitliefern - bei preisen um 1000€ kann man das doch erwarten...