Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Smartin schrieb:
Möchte nicht wissen, wie viele User ihre Netzteile jetzt rausschmeißen und neue Netzteile holen müssen. :mad: Nur um seinerzeit ein paar Eur gespart zu haben.

Man kauft ein kleineres Netzteil nicht zwingend um Geld zu sparen, sondern weil die größeren im Idle und niedrigen Lasten schlichtweg ineffizient arbeiten. Erst mit 80 Plus Titanium hat man sich dem angenommen, allerdings sind diese Netzteile auch 2-3x so teuer.
 
  • Gefällt mir
Reaktionen: Toni_himbeere
Absolute Brechstange mit dem Powerlimit. Trotzdem geil. :D

PogoPogo schrieb:
Läuft die 3080FE mit einem 550W Netzteil? Be Quiet Straight Power.
Gibt hier viele im Forum mit der PSU, einfach mal abwarten; Ich glaube es wird schnell Erfahrungsberichte geben, ob und wie gut das läuft. Ich geh ebenfalls davon aus, besonders wenn man das Powerlimit auf 270 Watt reduzieren kann.

Zumindest mir wären diese 4% Performance den "Aufpreis" von >100€ für ne neue PSU nicht wert.
Glub schrieb:
Also es reichen >750 Watt oder vielleicht auch weniger, wow, so much Informationsgehalt.
 
Wow wirklich beeindruckend!
Danke CB für den ausführlichen Test! Deswegen lieben wir euch!
Das Design der Karte gefällt mir auch ziemlich gut.. leider sind die Stromstecker immer im weg.

Hätte gerne meine Rx590 im FHD Benchmark im Vergleich gesehen ;)

Spannende Wochen kommen noch auf uns zu!
Nächstes Jahr gibt's sicher ein Upgrade!
 
edenjung schrieb:
komisch laut golem wird die CPu knapp 11 kelvin wärmer durch die 3080.
Kann aber auch am gehäuse liegen.

Fractal Design Define R6 - ist doch gedämmt und die Luft dürfte bei "Standard"-Gehäusen zum Teil auch nach oben entweichen?
Aber bin da kein Experte.
 
stevefrogs schrieb:
Nicht zu vergessen die ganzen Kaufberatungen wo man immer hören konnte "ach was, 500W reichen locker, was willst du denn mit einem 650W oder 750W Netzteil?" obwohl die Dinger nur ein paar Euro mehr kosten. Ich bin froh auf 650W gesetzt zu haben, reicht für einen 3080+Ryzen 3600, und für eine 3070 sowieso.
Selbst mit einem 600W NT reicht das noch aus mit einem Ryzen 7 wie bei mir :)
 
  • Gefällt mir
Reaktionen: stevefrogs
Horst_Koehler schrieb:
Das zweite was mir auffällt ist, dass die 3070 niemals die Durchschnittliche Leistung der 2080ti erreichen kann.
Sie wird sicher eher knapp über einer 2080S wiederfinden.
Wer die 2080ti also schon verramscht hat, war recht blöde.....
Naja wenn Ampere ähnlich skaliert wie Turing dann sollte der Abstand zwischen 3070 und 3080 ungefähr dem der 2080 Super und der 2080ti entsprechen (48% mehr Cuda Cores) und somit wäre sie bei ca. 79% deren Leistung und das wären wiederum 3-4% mehr Leistung als eine 2080ti.
(Ich hoffe die Rechnung war verständlich: 4K Abstand 2080 zu 2080ti beträgt 27% wenn Ampere jetzt ähnlich skaliert dann trifft das auch auf 3070 und 3080 zu)
 
Der Verbrauch hat schon Geschmäckle, wenn man dann auch noch daran denkt, daß man mal von 7nm EUV für diese GraKa-Generation ausgegangen ist.
 
HessenAyatollah schrieb:
Aber eins hat auch der Test gezeigt.... ich glaube niemals das eine 3070 schneller als eine 2080Ti ist oder gleich schnell!
Also sind 30% Abstand zwischen der 3070 und 3080 unwahrscheinlich? Zuletzt ging dieser Abstand noch als neue Generation durch.
 
31% schneller als die 2080ti bei 4k ist stark, aber man muss auch beachten, dass halt eben nur 5% mehr durch Overclocking möglich sind, wobei eine 2080ti ziemlich stark übertaktet werden kann und dann sind es eben um die 20% nur noch. So wie es gerade rumrumort wird mit AMD und Big Navi mit 2 - 2.2GHz Takt hört sich das meiner Meinung nach nach einem AMD Sieg an, zumindest im Vergleich zur 3080. Bin der Meinung eines anderen Nutzers hier, der auch meinte, dass die 3080 normalerweise die 3080ti und die 3090 normalerweise die Titan RTX gewesen wäre. Heißt Nvidia weiß auch, dass AMD sie dieses Mal entweder besiegt oder sehr sehr nahe kommt.
 
Wolfgang schrieb:
Warum Nvidia weitere 50 Watt TDP für die im Testparcours ermittelten vier Prozent Leistungsgewinn geopfert hat, wenn der Sprung in der Leistung doch auch ohne beachtlich ausgefallen wäre, bleibt vorerst offen.

Hmm - ich glaube fast, dass da NV doch ein wenig ahnt, wo AMD landen könnte...

Wolfgang schrieb:
Kein Zweifel besteht hingegen daran, dass die bisherigen Spitzenmodelle GeForce RTX 2080 Super und GeForce RTX 2080 Ti mit Markteinführung der GeForce RTX 3080 auf Anhieb obsolet geworden sind. Wer vorhatte, auf diese Grafikkarten zu wechseln, erhält mit dem Ampere-Modell ein deutlich überlegenes Nachfolgeprodukt zum niedrigeren Preis.

Hier muss man wohl einige Dinge jetzt in Kauf nehmen und sich eingestehen, dass Turing echt fiese Preise hatte und keine "Götterkarten" waren.

Tatsächlich ist es absolut nicht abwegig sich zu fragen, wofür man 500€ für eine gebrauchte 2080ti zahlen soll, wenn eine 699€ (also 200 mehr...) mit 20% mehr Leistung, mit Garantie ...neu da steht?!
Wenn ich eine 2080ti besäße, würde ich sie einfach behalten, da der damals veranschlagte Preis einfach, das muss man mal sagen - horrend war - tut mir Leid, ist so.

Geschlagen wird diese momentan durch die 3090, preislich ... diese hat aufgrund ihrer 24GB allerings noch einen wirklich produktiven Nutzen, gehe ich mal von aus, sodass die Käufer diese garantiert noch irgendwie wirtschaftlich relativieren können - im Gegensatz zu 1200+€-2080TI-Gamerkarten - was für mich dann die Quintessenz beherbergt:"Max Preis für eine Gamerkarte ->750"...gerade auch im Hinblick auf den brachialen Wertverlust bei Erscheinen des Nachfolgers, das hatte man mit ner 1080ti nicht!


Bei 2080S, 2080, 2070s... gibt es theoretisch auch keinen Grund zuzuschlagen, jedenfalls nicht, wenn man eh vor hat, ein Budget von 600+ auszugeben - da kratzt man gar nicht mal an der Leistung der 3080.

derin schrieb:
Man wundert sich wirklich warum NV solche Kampfpreise raushaut, hat AMD etwas in Petto?

Genauso wundert man sich über Leistung mit der Brechstange, die können doch nicht Angst vor AMD haben?

Die 370 Watt sind, bei max PL, schon echt ne Hausnummer - ich hab den Test auch sehr aufmerksam gelesen und nochmal ins Testsystem geschaut - Ihr @Wolfgang - nutzt ja auch zum Glück für mich den Noctua NH-D15S , was für mich einen guten Rückschluss auf mein System und die Hitze darin gibt.

Im Test selbst ist die Grafikkartenrückseite bei 74° - heftig! - und die Nähe zum Noctua NH-D15S macht mir doch recht Sorge, gerade in "warmen Zeiten", da befürchte ich nach ausgiebigen Sessions (mehr als die 30min Doom-test) schon, dass das ganze System recht "hitzig" wird.

Ich danke für den Test und für mich als RX580-Nutzer mit WQHD-144Hz Montior, wird das so oder so ein geiler Herbst/Winter - Gott, jetzt nur noch auf AMD warten und ich denke... das ist machbar und zwar unter 370Watt.
 
  • Gefällt mir
Reaktionen: David84
xexex schrieb:
Man kauft ein kleineres Netzteil nicht zwingend um Geld zu sparen, sondern weil die größeren im Idle und niedrigen Lasten schlichtweg ineffizient arbeiten. Erst mit 80 Plus Titanium hat man sich dem angenommen, allerdings sind diese Netzteile auch 2-3x so teuer.
Das ist doch theoretischer Natur. Selbst im Idle idealen Nutzungsbereich ist man bei 100W, wenn man nicht nur eine auf Effizienz "geprügelte Miniofficemühle" hat. Und da ist man selbst bei GoldNetzteilen oft schon im Effizienzbereich von um die 85 und mehr Prozent. Ob es dann nun das letzte Prozentchen sein muss um da vielleicht auf 88 oder 90 zu kommen, ich weiß nicht. Den Schaden haben die Leute jetzt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: psychotoxic und Mike_MTL
Tja ist jetzt nur die Frage ob man jetzt eine 3080 mit 10 GB kauft und in 2 Jahren bei der nächsten Generation wieder verkauft oder doch lieber auf eine vermutlich kommende Version mit 16 oder 20GB wartet und dann eine Generation ggf. überspringt.

Weiter bleibt dann noch die Frage offen ob ich mir ein neues Netzteil kaufen sollte. Bei der Leistungsaufnahme in Zusammenarbeit mit meinem i7 9700kdürften 580 Watt schon sehr knapp werden^^
 
nurfbold schrieb:
20% wären sogar eher Mau. 30% dürfen es schon sein. Dann wäre noch Platz für ne TI dazwischen.
Wenn auch das Preis/Leistungs-Verhältnis im Gegensatz zur 3080 dann immer noch äußerst schlecht wäre. :D
 
  • Gefällt mir
Reaktionen: nurfbold
Supermax2004 schrieb:
Und was, wenn man jetzt eine 3080 für 700 kauft und in 2-3 Jahren eine 4080, welche über 3090 liegen wird, für erneut 700 oder so? Billiger, mehr Leistung über 5 Jahre....

Wäre sinvoller da gebe ich dir recht, wobei ich mir vorstellen kann das es bei der 3080 bei dem ein oder andern Game knapp ist mit 4K ...aber das hängt wohl auch etwas mit den neuen Konsolen zusammen was da in Zukunft für Games auf uns warten...insgesamt Schlafe ich mit der 3900 ruhiger, und ob ich jetzt für den Kompletten PC mit LG CX48 OLED als Monitor 5000 oder 4300 Bezahle macht den Braten dann auch nicht mehr so Fett...aber freuen wir uns erstmal auf die Tests der 3090!
 
Danke für den ausführlichen Test. Eine weitere Messung zur Temperatur und Lautstärke der 3080FE bei reduziertem PowerTarget wäre aber wirklich sehr interessant.
 
Taxxor schrieb:
Die 3080 steht je nach Auflösung 90-100% über der 5700XT, also ist das Ziel für AMD schon mal sehr viel klarer geworden.

5700XT + 90-100% sind machbar
Sie steht 110% drüber in 4K. In Full HD und teilweise WQHD limitiert die CPU. Also muss AMD ca 110% Leistung dazu gewinnen Plus Raytracing, DLSS für um die 699€. Chipfläche wurde ja verdoppelt. Aber dann muss man die Effizienz deutlich Steigern damit der Stromverbrauch sinkt. Es wird nicht leicht. Ich gehe von 10% Weniger Leistung aus aber 16 GB Ram.
 
Hylou schrieb:
Nur das die Vega den Stromzähler zum explodieren gebracht hat bei völlig enttäuschende Leistung.
Die 3080 ist hungrig und hat gleichzeitig aber die Performance Krone auf (bis die 3090 erscheint)
Die Karte frißt @ Standard bereits mehr als deine stromzählerzerstörende Vega64 also ist der Strombedarf an sich irrelevant für dich?
 
  • Gefällt mir
Reaktionen: Crankson und Malustra
Zurück
Oben