Mal nebenbei, wie kann man denn das Power Target einer Nvidia Karte verändern? Gibt es da im Treiber eine Einstellmöglichkeit? Vor allem wenn die RTX3080 mit einem Power Target von 270 Watt so effektiv arbeitet wie verhält sich dann akustisch das Kühlsystem?
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
- Ersteller Wolfgang
- Erstellt am
- Zum Test: GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
Doenereater
Cadet 4th Year
- Registriert
- Dez. 2019
- Beiträge
- 91
BeidesJohannes2002 schrieb:Playstation 5 oder rtx 3070? Ich kann mich irgendwie nicht entscheiden.
![Daumen hoch :daumen: :daumen:](/forum/styles/smilies/daumen.gif)
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.645
Nö- Es war nur ein Besipiel, dass ein "ich habe das Video mehrmals angahlten" inkl. Zahlenermittlung volständig in die Hose gehen kann.m.Kobold schrieb:Gewisse Leute wollten mehr sehen![]()
Diese Methodik ist keine saubere Messung und mit dieser Methodik lassen sich auch keine haltbaren Aussagen treffen.
Aber wie Du schon sagst- die Leute wollen nur sehen, was sie sehen wollen... Zudem habe ich den 60% Abstand zum ZeitpunktXY dokumentiert und als Beweis beigefügt, oder willst Du hier ernsthaft anzweifeln, dass in dem Screenshot der Abstand so groß war?
Heschel
Lt. Commander
- Registriert
- Feb. 2017
- Beiträge
- 1.158
v_ossi schrieb:Mit Samsungs 8nm hat man die 'günstigere' Option gewählt und die Effizienz leider nicht deutlich steigern können.
Bitte? 25 % Effizienssteigerung ggü. dem Vorgänger (2080ti mit 270W vs 3080 mit 270W) ist keine Verbesserung?
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
cruse
Fleet Admiral
- Registriert
- Sep. 2013
- Beiträge
- 13.920
https://de.msi.com/page/afterburnerFlorian1978 schrieb:Mal nebenbei, wie kann man denn das Power Target einer Nvidia Karte verändern? Gibt es da im Treiber eine Einstellmöglichkeit?
https://www.evga.com/precisionx1/
na leiser...Florian1978 schrieb:Vor allem wenn die RTX3080 mit einem Power Target von 270 Watt so effektiv arbeitet wie verhält sich dann akustisch das Kühlsystem?
Pixelkiller
Lieutenant
- Registriert
- Dez. 2010
- Beiträge
- 557
Ich warte erst mal die AMD Karten ab und entscheide dann.
Falls die AMD leistungstechnisch zu schwach hoffe ich auf eine 3080 mit Mehr vram, 10gb reichen zwar aktuell, aber sind mir für die Zukunft zu wenig.
Falls die AMD leistungstechnisch zu schwach hoffe ich auf eine 3080 mit Mehr vram, 10gb reichen zwar aktuell, aber sind mir für die Zukunft zu wenig.
Versteh die Aufregung nicht über den Verbrauch der Karten. Ich vergleiche es immer gerne mit Autos, hat man ein Auto mit 400PS verbaucht es auch mehr als einer mit 90PS. Irgendwoher muss die Leistung ja kommen, alle schreien immer nach mehr Grafikleistung, sehen es aber nicht ein das damit auch mehr Verbrauch einhergeht.
Die Effizienz wurde gesteigert und es ist massiv an der Leistung geschraubt wurden - also ist doch alles schick.
Die Effizienz wurde gesteigert und es ist massiv an der Leistung geschraubt wurden - also ist doch alles schick.
- Registriert
- Apr. 2001
- Beiträge
- 16.255
Phear schrieb:So ein 900€ 3080er Modell zu rechtfertigen wird schwer
Es sei denn, die 699 für die FE lösen sich im Lager schnell in Luft auf. Dass die Preise verfügbarer Custom Designs dieses Mal tendentiell erst einmal über UVP liegen werden, will ich mal nicht ausschließen.
Honkl
Lt. Commander
- Registriert
- Aug. 2005
- Beiträge
- 1.108
PS5 digital 2021 mit God of War und FF16 vorher gibts keinen wirklichen kaufgrund da keine richtig guten Launch TitelJohannes2002 schrieb:Playstation 5 oder rtx 3070? Ich kann mich irgendwie nicht entscheiden.
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
zig*zag
Lieutenant
- Registriert
- Mai 2004
- Beiträge
- 688
Jan schrieb:Es sei denn, die 699 für die FE lösen sich im Lager schnell in Luft auf. Dass die Preise verfügbarer Custom Designs dieses Mal tendentiell erst einmal über UVP liegen werden, will ich mal nicht ausschließen.
Dann werden sie evtl. zu Ladenhüter... ok vermutlich nicht
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.326
bei den FE kann ich mir das gut vorstellen. Aber überdenke eins. Nvidia setzt hier ja schon nen Preis an bei dem sie wissen dass die Karte weggehen wird wie Semmeln (warum sollte man das tun wenn man sich sicher sein kann dass die paar produzierten Karten gleich weg sind). Und die 10/ 8nm von Samsung sind nicht so gefragt wie TSMCs 7nm, also denke ich dass Nvidia hier deutlich mehr einkaufen konnte als bei den fetten Die der Last Gen.Jan schrieb:Es sei denn, die 699 für die FE lösen sich im Lager schnell in Luft auf.
Würde mich nicht wundern wenn wir einen vergleichsweise "gut bestückten" Launch sehen, wobei da der Kampfpreis natürlich entgegen wirkt.
Replay86
Lt. Commander
- Registriert
- Mai 2015
- Beiträge
- 2.045
So wird es wohl laufen. AMD deutlich leistungsschwächer aber dafür mehr Vram. AMD liegt Nvidia zwei Generationen hinterher. Da sollte man keine Wunder erwarten.Pixelkiller schrieb:Ich warte erst mal die AMD Karten ab und entscheide dann.
Falls die AMD leistungstechnisch zu schwach hoffe ich auf eine 3080 mit Mehr vram, 10gb reichen zwar aktuell, aber sind mir für die Zukunft zu wenig.
GerryB
Commodore
- Registriert
- Sep. 2016
- Beiträge
- 4.480
Es wird noch nachproduziert und so schlecht ist die FE net, eigentlich vom Kühler her überraschend gut.Jan schrieb:Es sei denn, die 699 für die FE lösen sich im Lager schnell in Luft auf. Dass die Preise verfügbarer Custom Designs dieses Mal tendentiell erst einmal über UVP liegen werden, will ich mal nicht ausschließen.
Eher würde ich mir die Customs verkneifen.(vor Allem falls billige Refs nur PL+9% haben dürfen)
Bekommt die 3080FE eigentlich vom Binning her die guten Chips? (damit PL+16 mit dem Kühler funzt)
(oder werden die Alle für die 3090 gebraucht)
Wird mal interessant, ob die User genauso gute Chips bekommen wie die Redakteure.
btw.
Bin mal gespannt Wieviele wg. Spulenfiepen retounieren.
(falls Diese kein Fps-Limit nutzen wollen/können)
Zuletzt bearbeitet:
W
Wadenbeisser
Gast
Dir ist aber schon klar das die 2080Ti von sich aus lediglich mit 250W und die 3080 mit 320W geführt wird, oder?Heschel schrieb:Bitte? 25 % Effizienssteigerung ggü. dem Vorgänger (2080ti mit 270W vs 3080 mit 270W) ist keine Verbesserung?
Damit wäre sie effizienter weil die alte Generation über und die neue untertaktet wird....welch Erkenntnis.
jemandanders
Commander
- Registriert
- Mai 2019
- Beiträge
- 2.978
Das ist die große Frage:Heschel schrieb:Das Problem liegt wohl daran, dass Nvidia die letzten Prozentpunkte an Leistungsplus sich teuer erkauft hat. Wie im Test mit 270W hätte vollkommen genügt.
Warum haben sie sich das angetan? Es wäre doch auch für die Custom Hersteller schön gewesen ihren Kunden diese 5% mit OC ab Werk verkaufen zu können.
Stand jetzt ist die 3080 eine runde Sache. Der (Leistungs)Sprung von der originalen 2080 aus gesehen ist richtig Toll.
Ist er aber immer noch Toll, wenn AMD seine Karten auf den Tisch gelegt hat?
Wenn man sich die letzten Jahre anschaut, darf man durchaus an AMD zweifeln.
Richte ich den Blick auf die Verbesserungen von RDNA1 und die angekündigten für Gen2 dürfte es durchaus eng werden.
Welches Gesamtpaket besser ist muss man mal schauen.
Zuletzt bearbeitet:
(Geändert)
WuuulF schrieb:Versteh die Aufregung nicht über den Verbrauch der Karten...
Die Effizienz wurde gesteigert und es ist massiv an der Leistung geschraubt wurden - also ist doch alles schick.
Im aktuellen Zustand hat die Karte bereits die höchste fps/W und gleichzeitig eine fps/€ wie die derzeitig schnellste AMD Karte 5700XT. Zusätzlich ist sie leiser und kühler. Die Luft beim zweiten Kühler reicht sogar noch aus, um die CPU und den RAM mitzukühlen (jedenfalls in dem Testsystem).
Was meinst du wie rund das Produkt mit 270W wäre? Gleichzeitig entledigt man sich dem größten Kritikpunkt (höherer absoluter Verbrauch). Aus meiner Sicht waren die 320W nicht notwendig. Cleverer wäre 270W Stock und über einen Schalter an Karte ein zweites "Performance"-BIOS mit 320W.
Edit: Dann noch bisschen mehr VRAM und man hätte alle Kritiker zum Schweigen gebracht. Aber naja... zuuuu gut darf die Karte dann nicht werden. NV will ja auch noch die 3090 verkaufen.
Zuletzt bearbeitet:
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.645
Und ich kann es nicht mehr hören, dass man aus dem Satz "Prozessor XY" reicht völlig aus eine Metrik für eine Messung machen will, die mit modernen Mitteln durchgeführt werden soll.Windell schrieb:Ich kann das langsam echt nicht mehr hören mit dem CPU Limit oder die Zen 2 CPUs seien zu langsam etc..
Es geht hier nicht um Zen oder Intel, sondern um die Minimierung eines Messfehlers.