Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Zotac2012 schrieb:
Danke CB für den Test!

Die Frage die ich mir natürlich jetzt stelle ist, wenn die RTX 3080 von Nvidia so ans Limit getrieben wurde, das kaum OC Potenzial vorhanden ist, lohnt sich dann überhaupt der Kauf einer dieser z.B. Zotac Amp Edition, oder Gigabyte Aorus Extreme / Master, oder EVGA FTW Ultra usw.? Oder wäre es dann nicht Sinnvoller auf die etwas günstigeren und fast gleichwertigen Customer Modelle zurückzugreifen?

Das ist ja das witzige - es gibt keine wirklich günstigen Custom Modelle - insbesondere günstigere als die FE.
Und das obwohl Nvidia selbst einen wohl sehr teuren Kühler verbaut.

Es ist halt Nvidias Marketing - nur die FE ist günstig und das bei wohl er schwacher Verfügbarkeit
 
  • Gefällt mir
Reaktionen: Zotac2012
edenjung schrieb:
Gibts noch nen Test mit einer 1070?
Meine 980ti ist ja in etwa so fix. Da möchte ich schon wissen wie viel schneller die ist.
Genau würde mich auch interessieren.

Ich hole mir aber eher die 3070/3060 oder das AMD Pendant.
Keine Lust nach Verkauf meiner Ti noch mehr als 300€ zu bezahlen.
 
  • Gefällt mir
Reaktionen: edenjung
edenjung schrieb:
Gibts noch nen Test mit einer 1070?
Meine 980ti ist ja in etwa so fix. Da möchte ich schon wissen wie viel schneller die ist.
Ich habe ja auch noch eine 4. Jahre alte GTX 1070 im Rechner, das Upgrade auf eine RTX 3080 lohnt definitiv! :daumen:

Ich muss auch nicht in jedem Game in UHD auf Ultra spielen, dann habe ich meine 60 FPS eigentlich immer, von daher kann ich endlich meinen UHD Monitor TV vollends ausnutzen.
 
Gute Karte, bisschen schlechter als erwartet und zu hoher Stromverbrauch, aber der Preis macht sehr viel gut bei der Karte und das ist ja schießlich das was sehr gewichtig ist. Preis in relation zu der Performance (in dem Bereich in dem man sich befindet)
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
snickii schrieb:
Der hat aber nur 10 Kerne und ist mir zu viel Heizung.
Ich nehme lieber 12 Kerne zum streamen.
Verstehe ich, aber war nicht die Qualität der NVENC Videos so gut, dass man praktisch keine CPU-Ressourcen mehr zum Streamen braucht? Dachte ich zumindest.
 
  • Gefällt mir
Reaktionen: .Sentinel.
acmilan1899 schrieb:
Für die 2080 TI User lohnt sich demnach ein sofortiger Umstieg eher nicht oder?

Das habe ich mit auch gerade gedacht. Da steht man irgendwie in der Mitte. Ich weiß nicht, ob man einen Umstieg auf eine 3080 merkt. Zumal ein Downgrade (das dumme Gefühl) von 11 GB auf 10 GB Speicher dabei ist.
 
thommy86 schrieb:
Ca 20 Fps mehr, hab etwas mehr gerechnet, bei der hochpreisung von 60 bis 80% schneller als die RTX 2080 ti
Wie "delusional" bist du denn?
Der Preis ist gleich, wie in den letzten Generationen auch. Die GTX 1080 hat 699€ gekostet, die GTX 2080 hat 699€ gekostet und jetzt so ein guter Leistungsschub zur 2080 und du heulst dass sie nicht 60-80% schneller als eine 2080 Ti ist, die 1200€ gekostet hat? LOL
 
Esenel schrieb:
Nö. Weil alle blindlings auf Zen2 umgesattelt haben und nun im CPU Bottleneck hängen :hammer_alt:
Ich spiele gelegentlich Dragon Age Origins, dafür reicht mein Zen2 dicke....
 
Ein super Start in die neue Nvidia GPU Generation, danke für diese umfangreichen Tests.

Etwas ernüchtert muss ich sagen, dass auch die 3080 keine 1440p/144 GPU ist und übergreifend 4K/60 mit Puffer noch oben ist das, leider, auch nicht.

Die wenigen Übertaktungspotenziale sind schade, evtl. geht unter Wasser noch etwas mehr?
Stark übertaktete 2080Ti reduzieren, je nach Game, den Abstand zur 3080 auf nur noch 20-25 %-
Nunja.

Die Aussage, dass 10 GB VRAM immer reichen, ja so eine Überraschung 😁

Mal sehen, was eine 3090 hier noch on top pushen kann an fps nächste Woche.
 
  • Gefällt mir
Reaktionen: David84
schöner test, besonders der teil mit den anwendungen interessiert mich.

würde aber noch gerne wissen mit welcher CPU getestet wurde?

gibt es einen unterschied in der leistung zwischen intel CPU da nur PCIe 3.0
vs amd CPU da PCIe 4.0
?
 
acmilan1899 schrieb:
Für die 2080 TI User lohnt sich demnach ein sofortiger Umstieg eher nicht oder?

Interessant wird es nochmal bei kommende Spiele wie z. B. Cyberpunk 2077 oder BF6.
Ich sehe jetzt keine Notwendigkeit meine gutgehende wassergekühlte 2080ti gegen eine 3080 zu tauschen.
Interessant ist für mich imho die 3080 in wqhd nur, wenn ich sie via Powerlimit auf ca. 270 Watt
drosseln würde, da sie mir dann tatsächlich was zählbares außer hohen Mehrverbrauch liefern würde.

Fährst du auf DLSS und RT bei 4k komplett ab und kannst die ti für einen guten Preis an den Mann bringen - go for it

Just my 2 cents...
 
  • Gefällt mir
Reaktionen: Laphonso
Gefällt mir.. leider brauche ich mit meinem i7 6700k da gar nicht drüber nachdenken .. da muss erstmal n neuer Unterbau her
 
320 Watt.... ich erinnere mich an den AMD aufschrei, hier keiner ?
Also ich warte dann doch auf AMD und schaue was die auf die Straße bringen
 
  • Gefällt mir
Reaktionen: Crankson, Nicop, Rock Lee und 13 andere
Danke für den Anno Bench.
Das erste Mal das ich sage "Shut ups and take my Money."
Für mich ist das eine gute Steigerung von der 1070 in 1440p.
 
Bin ich hier eigentlich der einzige, der enttäuscht ist? Zugegeben, ich habe den CB Artikel nicht gelesen, sondern nur Igors Review geschaut, der hatte folgendes rausgearbeitet.

Mehrleistung zur 2080 ti in 10 getesteten Spielen

FHD 17%
WQHD 18.5%
UHD 22%

Und dafür zieht die Karte auch noch so viel mehr aus der Dose!? Ich erinnere mich noch an ein 1,9x Watt/Performance Versprechen.

Edit: Natürlich für den Preis immer noch eine super Leistung, aber Performancetechnisch hat sich nicht viel getan.
 
  • Gefällt mir
Reaktionen: Hardwarious, JJJT, CableGuy82 und 5 andere
Test fertig gelesen. Fazit: Ein beeindruckender Leistungssprung. Da die RTX 3080 bereits eine GTX 1080 derart vernichtet, muss die entsprechende Frage gegenüber meiner GTX 1070 natürlich gar nicht mehr gestellt werden. Ich werde dennoch auf den RDNA2-Vergleich warten, aber alles in allem ist die RTX 3080 FE ein heißer Kandidat für den Ersatz meiner aktuellen Grafikkarte. Ich finde den Leistungssprung in WQHD, wobei ich erstmal bleiben werde, mehr als lohnenswert.

Ich finde es jedoch fragwürdig, dass Nvidia die Strombrechstange in diesem Maße ausgepackt hat. So fällt der Effizienzgewinn im Fabrikzustand meiner Meinung nach ziemlich enttäuschend aus. Da sich im Test ja zeigt, dass sich die letzten 50 Watt außerdem nur bedingt lohnen, halte ich diese Entscheidung für umso weniger sinnvoll.

Auf der Habenseite steht aber, durchaus ähnlich wie erwartet, der Kühler. Das Konstrukt sieht edel aus und ist recht stark. Den provozierten Kabelsalat finde ich dagegen weniger geschickt. Sicher kein Beinbruch, aber ein unnötiger Schönheitsfehler.

Alles in allem: Schöne Vorlage, Nvidia. Nicht perfekt, aber der wichtigste Aspekt, die Leistung, passt super!

Incident schrieb:
Bin ich hier eigentlich der einzige, der enttäuscht ist? Zugegeben, ich habe den CB Artikel nicht gelesen, sondern nur Igors Review geschaut, der hatte folgendes rausgearbeitet.

Mehrleistung zur 2080 ti in 10 getesteten Spielen

FHD 17%
WQHD 18.5%
UHD 22%

Und dafür zieht die Karte auch noch so viel mehr aus der Dose!? Ich erinnere mich noch an ein 1,9x Watt/Performance Versprechen.

Das Fazit im CB-Test sieht leistungsmäßig deeeeeeutlich anders aus. Du solltest vllt mehr als eine Quelle heranziehen. Werde ich auch noch tun.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
@CrustiCroc
Was heisst hier Pseudo 7nm Prozess?
Willst du behaupten , dass die Zen2 und der kommeden 3er nicht 7nm sind? :confused_alt:
Radeon VII und Navi als 7nm Chips sind also Fake - na denn.
Viel Spaß in der Blase dann noch.

Ansonsten schöner Test CB - danke dafür , das meiste war schon bekannt.
 
Zuletzt bearbeitet:
Don Sanchez schrieb:
ModellUVP zum MarktstartMarktstart
GeForce RTX 2080 FE849 Euro19. September 2018
GeForce GTX 1080 FE789 Euro17. Mai 2016
GeForce RTX 3080 FE699 Euro17. September 2020

Dass die 3080 so vergleichsweise günstig ist, kann doch eigentlich nur bedeuten, dass Nvidia Informationen über die Leistung von AMDs bald erscheinenden Grafikkarten hat, und diese diesmal auch im High-End Bereich konkurrenzfähig sind und Nvidia deshalb die Preise zum Marktstart senken musste, oder?

Nein das ist Quatsch, da Nvidia damals die 80er die Top Modelle waren.
Zudem waren die Verkäufe bei Turing einfach enttäuschend
 
mal schauen was die Treiberoptimierung noch in Zukunft rausholen kann? ich werde noch warten bis die 3080 16GB erscheint
 
Zurück
Oben