Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Honkl schrieb:
Na komm, also sollte schon was vernünftiges sein und nicht selbst zugemüllt :)
Das ist wie in GTA V mit den Grafikmods, die halbieren deine FPS... aber das liegt eben auch gern mal daran weil es eben MODS sind und diese nicht von Profis entwickelt werden.

[Trotzdem finde ich geil das es sowas gibt, nicht falsch verstehen]

Ich spiele ja selber viel GTA RP und bei LuckyV habe ich 50-60 FPS, ohne AltV [also normaler SP] habe ich um die 80-100 FPS mit selben Settings


gstahl schrieb:
Ich hoffe, dass die 3080FE nicht innerhalb von 5 Sekunden ausverkauft ist heute :(

30 Sekunden :P
 
Tja, in absoluten Zahlen liefert NVidia eine beeindruckende Leistung ab, aber nachdem ich mir den Test jetzt in Ruhe durchgelesen und mit anderen Tests verglichen habe, bleiben doch einige offensichtliche Schwächen.

Mit Samsungs 8nm hat man die 'günstigere' Option gewählt und die Effizienz leider nicht deutlich steigern können.

Der VRAM, zwar nicht mein Steckenpferd, aber da hätte es gerade in Anbetracht der kommenden 16GB Konsolen schon etwas mehr sein dürfen. Die 70er Reihe mit 10GB, die 80er mit 12GB und die 90er(Ti) mit 16GB wären wünschenswert gewesen.

Gerade RTX und DLSS wirken hier aber endlich so, wie man es bei der 2000er Serie versprochen hat.

Trotzdem erwarte ich erst mit der 4000er Serie wieder 'runde' Produkte. Also 'endlich' mehr VRAM und durch EUV wieder deutlich effizienter.
 
snickii schrieb:
Allerdings denke ich das zwischen 3080 und 3090 20-25% liegen... dazwischen eine Ti naja.

Und genau diese etwa 25% waren all die Jahre jeweils der Abstand zwischen der entsprechenden 80er Karte und der Ti
Die 3090 ist das, was in der Vergangenheit immer die (x)x80 Ti gewesen ist.
 
  • Gefällt mir
Reaktionen: snickii
Tronx schrieb:
Ich hätte echt mal eine Frage an CB, warum wird 3440x1440 immer noch nicht angeboten? ...Hat jemand eine Seite wo es die Werte gibt?

Komisch, habe den 34" jetzt 1,5 Jahre und es gibt etliche versch. Modelle am Markt, die auch billig gekauft werden können, aber nur selten findet man Tests in 21:9 oder gar 32:9.
Hier war's interessant:
https://wccftech.com/review/nvidia-geforce-rtx-3080-10-gb-ampere-graphics-card-review/12/


Nun meine Euphorie wurde stark gedämpft, 2x 85mm Lüfter sollen 320 Watt beseitigen, no-na-ned möglich...also über 70°C nur auf der Backplate (passt als Kochstelle). Ja dann schauen wir uns die custom von Asus, Zotac, GB, EVGA an, da dort tlw. 3x100mm Lüfter und noch etwas größere verbaut sind...
 
Pixelkiller schrieb:
Wäre es AMD würde als Überschrift stehen
40% Leistung erkauft mit 40% höheren Verbrauch
Auch nur dann wenn es so stimmt. Wie man bei Ryzen sehen (oder besser lesen) konnte sind die Überschriften zu Nvidia vergleichbar. Da war schnell klar dass gerade mit Intel der Boden gewischt wird.
Das hat es bei AMD GraKas halt lange nicht mehr gegeben.


Ich frage mich allerdings was wohl die BoardpartInsgesamt finde ich es klasse dass Nvidia schon ab Werk die Karten auf maximale Leistung getrimmt hab. Warum soll man die Karten künstlich beschränken wenn sie es doch können?
Allerdings frage ich mich auch was wohl die Boardpartner von Nvidia gerade denken. Es gibt es nur wenig Spielraum für mehr Leistung und hochgetatete Karten waren immer ein gutes Verkaufsargument für die höheren Preise.
 
snickii schrieb:
Das ist wie in GTA V mit den Grafikmods, die halbieren deine FPS... aber das liegt eben auch gern mal daran weil es eben MODS sind und diese nicht von Profis entwickelt werden

Ich spiele ja selber viel GTA RP und bei LuckyV habe ich 50-60 FPS, ohne AltV [also normaler SP] habe ich um die 80-100 FPS mit selben Settings


Klar gibts da richtig guten scheiß aber das muss ja schon ne richtig gute Textur Mod sein um auch den Ram auszulasten.
Aber "normale" Spiele schaffen das zur Zeit eher nicht. Horizon Zero Dawn war na dran aber richtig gut Optimiert is das auch nicht :D
 
  • Gefällt mir
Reaktionen: cruse
Jake Grafton schrieb:
Jeder sollte Unterdruck benutzen. Dann brauch man auch keine Karte die halb rein und halb raus bläst.
Meiner Erfahrung eher Überdruck im Gehäuse denn es verhindert das sich an allen Ritzen Staub absetzt und wenn Slot Bleche mit Lüftungsschlitzen verbaut sind wird dort der Wärmestau unter der Grafikkarte mit rausgedrückt.
 
  • Gefällt mir
Reaktionen: Aduasen
hamju63 schrieb:
Die 3090 ist das, was in der Vergangenheit immer die (x)x80 Ti gewesen ist.
Kann gut sein aber der Aufpreis ist schon hart, aber relativ normal weil die Karte wohl auch die Titan ersetzen soll.
Dann ist es wie eine Mischung.

larz schrieb:
Ja entschuldigt, ich bekenne mich schuldig ^^
Nene, kommt immer auf einen selber an. Wenn du viel sowas spielst, reichen 10GB eben nicht. ;)
Zumal man auch nicht in die Zukunft schauen kann, vielleicht verbraucht CP2077 auch schon mehr in WQHD. xD
 
  • Gefällt mir
Reaktionen: TorgardGraufell und larz
Esenel schrieb:
Leider nur in der Basisausstattung.
Im Luxx können zwei in auch bei 2x16GB 4600 CL17 betreiben.
Sind dann fast 70k Copy :-D

Auch Snakeeyes hier ausm Forum hat nen schnelleren.

Aber er ist trotzdem ganz ok ;-)
Na wie sie sieht es aus 3090 nächste Woche. 😅
Ich kann zumindestens bei 8Kerne testen, hab extra noch nen Benchsetting für alle Fälle.^^
https://browser.geekbench.com/v4/cpu/15749628

P.S.
Ich hatte dir ja das Unify empfohlen P/L....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Esenel
Vexz schrieb:
Da kann man wohl nur spekulieren. Ich kann nur vermuten, dass sich NVIDIA gedacht hat, dass sie möglichst viel Leistung aus der Karte rauskitzeln zu wollen, um gegen AMD im Novemenber nicht abzustinken. Es gibt schließlich genügend Leute, die nicht auf die Leistungsaufnahme der Grafikkarten achten, sondern nur auf Spielebenchmarks. Für solche Leute zählt nur der längere Balken und der Preis.

Ja das stimmt, ich zähle im Grunde auch dazu, da bei mir sowieso ein WaKü Block drauf kommt.
Dennoch bleibt das Gefühl das NV das machen musste. Jetzt warte ich eben doch auf AMD und entscheide dann, dafür hat NV selbst gesorgt :D
 
v_ossi schrieb:
Mit Samsungs 8nm hat man die 'günstigere' Option gewählt und die Effizienz leider nicht deutlich steigern können.
zumal das eigentlich 10nm sind und nur 8nm genannt wird (10nm optimiert verkauft Samsung als 8nm)
 
  • Gefällt mir
Reaktionen: aldaric
hamju63 schrieb:
Und genau diese etwa 25% waren all die Jahre jeweils der Abstand zwischen der entsprechenden 80er Karte und der Ti
Die 3090 ist das, was in der Vergangenheit immer die (x)x80 Ti gewesen ist.

Es wird aber trotzdem eine 3080 Ti bzw. 3090 Ti Version kommen. Jensen hat sie bewusst aber noch nicht auf den Markt losgelassen. Viele 2080 Ti Besitzer greifen rein aus psychologischen Gründen schon zur 3090 weil man kein Vram Downgrade möchte. Zudem denken sich viele 1200€ vs. 1500€ ist jetzt auch nicht so dramatisch mehr und dann nochmal ~20% mehr Leistung dafür bekommen, warum nicht.

Die unterhalb der 2080 Ti greifen überwiegend zur 3080, weil einfach günstig und gut. nVidia hat hier in jedem Fall alles richtig gemacht und wird massiv Kohle verdienen. AMD wird es schwer haben nach der Ampere Bombe!
 
v_ossi schrieb:
Der VRAM, zwar nicht mein Steckenpferd, aber da hätte es gerade in Anbetracht der kommenden 16GB Konsolen schon etwas mehr sein dürfen. Die 70er Reihe mit 10GB, die 80er mit 12GB und die 90er(Ti) mit 16GB wären wünschenswert gewesen.
Da laut es laut Test in keinem Szenario Probleme mit 10GB VRAM gab, wo wäre da der Mehrwert?
Ich vermute dass man sich die Option für mehr VRAM noch offenhält und später noch eine stärkere Karte zwischen 3080 und 3090 zu platzieren.
 
  • Gefällt mir
Reaktionen: Heschel
Palomino schrieb:
Allerdings frage ich mich auch was wohl die Boardpartner von Nvidia gerade denken. Es gibt es nur wenig Spielraum für mehr Leistung und hochgetatete Karten waren immer ein gutes Verkaufsargument für die höheren Preise.
Beim Test heute wird man es in den ersten Zügen sehen. Ich persönlich würde bei den Karten eher von Übertakten absehen. UV scheint ja grundsätzlich deutlich intelligenter zu sein.
Die Boardpartner können nur von geringerer Lautstärke und etwas kühleren Temperaturen profitieren. Der Preis ist am Ende entscheidend. So ein 900€ 3080er Modell zu rechtfertigen wird schwer ;)

So oder so. Ich hätte bei einem Kauf permanent im Hinterkopf, dass mein Prozessor limitiert. Das muss man sich dann schönreden in dem man sich sagt, dass die Grafikkarte mit neueren CPUs vermutlich nochmal zulegt ;)
 
  • Gefällt mir
Reaktionen: Ziggystardust und Heschel
hamju63 schrieb:
Bisher war es in den vergangenen Generationen bei nVidia so, dass
eine 1080 in etwa die gleiche Leistung brachte, wie eine 980 Ti

Nö eine 1070 war bei geringerem Verbrauch schneller als eine 980Ti, hatte dabei deutlich weniger Verbrauch und 33% mehr Speicher.

Eine zwischen 980ti und 1080 war der Unterschied etwa so groß, wie zwischen 3080 und 2080Ti. Nur war auch da die 1080 viel sparsamer, nicht bis ans Äußerste ab Werk gestaktet und hatte 2GB mehr Speicher. Dazu noch OC Potential.

Daher enttäuscht die 3080 schon. 1GB weniger, zwar ein guten Stück schneller als die 2080Ti aber erkauft durch eine ebenfalls deutlich höhere Leistungsaufnahme. Besser als Turing, keine Frage. Aber insgesamt haben wir schon deutlich bessere und interessantere Generationssprünge gesehen.

Entwad enttäuscht bin ich bei der RT Leistung. Da hatte ich mir dann doch einen etwas größeren Sprung erhofft. Keine schlechten Karten, aber bei weitem nicht so gut wie angepriesen. Mal gucken, wie das in neueren Spielen aussieht. Der Test macht es aber leichter auf Big Navi zu warten um dann zu schauen, was man sich holt.
 
  • Gefällt mir
Reaktionen: DF86 und shoKuu
sofern man mit Wasser etwa die 2100 Mhz die man auch kurz als Boost bei ner kalten Karte halten kann wäre das für mich schon OC genug. Ich denke durch Wasser wird man auch mit UV bei bestehendem Leistungslimit bis 370W deutlich höhere Taktraten erreichen können.
Ergänzung ()

Shoryuken94 schrieb:
Nö eine 1070 war bei geringerem Verbrauch schneller als eine 980Ti...
OC zersägt eine 980 Ti OC eine 1070 OC auch heute noch :D


==> ist eine 1070 TI.
 
Zuletzt bearbeitet:
Playstation 5 oder rtx 3070? Ich kann mich irgendwie nicht entscheiden.
 
Vexz schrieb:
Da kann man wohl nur spekulieren. Ich kann nur vermuten, dass sich NVIDIA gedacht hat, dass sie möglichst viel Leistung aus der Karte rauskitzeln zu wollen, um gegen AMD im Novemenber nicht abzustinken. Es gibt schließlich genügend Leute, die nicht auf die Leistungsaufnahme der Grafikkarten achten, sondern nur auf Spielebenchmarks. Für solche Leute zählt nur der längere Balken und der Preis.
Jo,
Falls BN mit 275W genauso schnell ist wird wohl Mancher net mehr die 3080 mit PL80% betreiben.
(Man möchte ja net langsamer sein)

btw.
Ist natürlich Alles Quatsch, weil man mit nem vernünftigem Moni und Fps-Limit eigentlich am Meisten spart.
Vermutlich ist dann ne Kombination aus UVen+PL116% hinsichtlich der minFps am Sinnvollsten.
Wem es zu laut wird, der kann ja das Fps-Limit runternehmen. (Gsync bzw. Freesync sind eh zu empfehlen,
da ein oller 4k-60Hz-Moni net reicht bei den min Fps)
 
Zurück
Oben