Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

15% Wie merke ich das in Maya oder c4d beim Rendern? Das Thema ist etwas komplexer....
Lustig wird Textur-vorschau in Quixel bevor man in Unreal 5 rendert.... da wird ES spannend.
DA würde mir MEHR RAM in einer normalen 3070ger weit mehr bringen. Aber es ist wie beim
Filmen ich rede bei der Black Magic Cam von Dynamic, HInze Heinz von Pixxel...
 
MiaSanMiaaa schrieb:
Eigentlich auch nicht richtig, da mit einer Intel CPU ganz andere Werte rausgekommen wären, was die FPS und somit auch am Ende die Effizienz angeht.
Ich sehe auch keine Verbrauchswerte für 1440p.

Sollte CB die Perf/Watt komplett mit den 4K Verbräuchen aber jeweils den 4K, 1440p und 1080p FPS Werten berechnet haben?

Aber da es in 4K auch nur 10% sind ändert sich hier wohl nicht so viel.
 
PogoPogo schrieb:
Läuft die 3080FE mit einem 550W Netzteil? Be Quiet Straight Power.
Es gibt ein Igors Lab Video dazu - er empfiehlt eher ab 650W, aber besser was im 700W+ Bereich (aber 1000W müssen es nicht sein ;) )
 
Also das mit den 8704 ALUs ist wirklich irritierend, denn tatsächlich ist es so:

Die 2080Ti hat:
4352 FP32 ALUs
4352 INT32 ALUs

GPU-Z gibt an: 4352 Unified Shaders.


Die 3080 hat:
8704 FP32 ALUs
4352 INT32 ALUs

GPU-Z gibt an: 8704 Unified Shaders.


Also in GPU-Z wird die Hälfte der Informationen unterschlagen. Und dann wundert man sich natürlich, wieso der Leistungszuwachs bei anscheinend "doppelt so hoher Shaderanzahl" so gering ist. Aber so erklärt sich dann doch der relative geringe Leistungssprung.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: fox40phil
Ich finde den technischen Vergleich mit der 2080 (Super) irreführend in diesem Test. Die Modellnummern sind nur Einstufungen im Markt aka Verkaufspreis/Zielgruppe.
Die 3080 verwendet den 02er Chip, insofern sind 3080/3090 ein ähnliches Duo wie die jeweiligen Ti und Titans der letzten Generationen. Big Chip beschnitten und (nahezu) unbeschnitten.
Technisch betrachtet seh ich Ampere mit gemischten Gefühlen. Der Sprung von 12nm (TSMC) zu dem custom 7/8nm Prozess bei Samsung (auch hier sind die Angaben ja nur marketing, keine technische Einstufung der Strukturgrößen) scheint auf den ersten Blick riesig zu sein. Gleichzeitig zu diesem Sprung in der Technologie pumpt nVidia den Chip über die Leistungsaufnahme auf, bietet quasi ein OC custom Modell ab Werk an.
Bei gleicher Leistungsaufnahme ist die 3080 25% vor der 2080Ti - welche ja auch der "ältere" Big Chip ohne Vollausbau ist. Da nVidia bei der Fertigung eine Generation übersprungen hat und die Foundries bei neuen Prozessen Pi mal Daumen von "+15% mehr Leistung oder 30% weniger Energieverbrauch" sprechen, ist der technische Vorsprung der Architektur im Augenblick auf Raytracing/Tensorkerne sowie den derzeitigen Spezialfall der doppelten FP16 cores beschränkt. Natürlich werden kommende Spiele besser darauf ausgelegt sein.....

Was aber definitiv zu würdigen ist und in meinen Augen nicht genug hervorgehoben wird: Ampere ist eine radikale Abkehr vom Preiswahn bei nVidia. Die 3080 ist nicht nur günstiger als eine 2080Ti welche sie technisch beerbt, sondern auch deutlich günstiger als die vorherige deutlich günstigere Stufe, die 2080(Super).
Scheint ja doch Vorteile zu haben wenn eine Firma plötzlich kein Monopol mehr auf Highend hat - egal was AMD am Ende abliefert, diesen impact hat es jetzt schon gehabt.
 
  • Gefällt mir
Reaktionen: bad_sign und EadZ
Tonks schrieb:
Dann müsste man die ganzen Tests doch sowieso alle neu laufen lassen, eventuell mit neuem BIOS, neuem RAM OC etc
Jo, richtig - die momentanen CPU scheinen für WQHD und besonders für FHD... definitiv zu ...lol - lahm, so suggeriert mir das auch das Reviewvideo das Igor machte und er sagte auch selbst - der 3900er fliegt dann einfach raus und weicht dem Nachfolger - so wirds CB wohl auch gedacht haben.

Ich hätte mir wahrscheinlich auch "zum Übergang" eine 3600-CPU holen sollen - naja, seis drum, denke den 3800er werde ich evtl. mit weniger WV los, wenn die neuen Ryzen da sind.

Ich finds jedenfalls geil...

PS: Hat nicht Lisa gesagt, dass die neuen RTX3000er prima zu den neuen Ryzen passen würden? ... ! Hehehe - wie geil.
 
  • Gefällt mir
Reaktionen: hurcos und Tonks
syfsyn schrieb:
das ist eine reine 4k karte
Wo steht das? Sind alle 144Hz+ Displays in WQHD plötzlich verschwunden?

1600274578288.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, Cpt.Willard und Laphonso
bad_sign schrieb:
Weil mit Zen3 mit hoher Wahrscheinlichkeit einfach die CPU getauscht wird und man ist mind. on par mit Intel, hat aber PCIe4.0

Und das bringt für die aktuellen Tests genau was? Abgesehen mal von verzerrten Ergebnissen?
 
  • Gefällt mir
Reaktionen: hurcos und Esenel
Nach diesem Test glaube ich wäre es für AMD sogar möglich die 3090 zu überholen.
Doppelt so gross wie die 5700XT mit vermutlich mehr Takt und mehr IPC. Da ist definitiv einiges möglich.

Es bleibt auf jeden Fall spannend und ich zocke erstmal die alten Games weiter bevor ich meine Grafikkarte durch was neueres ersetze.
 
  • Gefällt mir
Reaktionen: sifusanders, fox40phil und Cpt.Willard
Reziel schrieb:
Naja DLSS ist für mich wie Alkoholfreies Bier.
Alkoholfreies Bier = Leber verarsche
DLSS = Augenkrebs
Also einige Bilder, die ich gesehen habe, sehen via DLSS besser aus als nativ. Hängt dann sicher auch wieder von den Games ab.
 
  • Gefällt mir
Reaktionen: Larnak und Cpt.Willard
Ich warte noch auf AMD und natürlich die 3070. Nvidia sagt ca. 220 Watt vorher. Mit etwas untervolten und übertakten (mit annähernd 2080ti Leistung) könnte sie für mich das rundere Paket darstellen. Dann brauch ich mir wenigstens kein neues Netzteil kaufen. Und die Gehäuselüfter drehen auch nicht auf.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
@Wolfgang
Screenshot_2020-09-16 Nvidia GeForce RTX 3080 FE im Test Preis, Preis-Leistung und Fazit.png



Diese Tabelle finde ich super informativ. Sehr geehrtes CB-Team. Bitte mehr davon. Auch von AMD. Das wäre klasse!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rumpel01, tomasvittek, telejunky und 7 andere
Der 270 Watt Test ist super!
Toll, dass ihr sowas macht.

Dass so viel mehr Energie für ein so geringes Plus an Leistung verballert wird, ist erschreckend.
 
Brrr schrieb:
Nach diesem Test glaube ich wäre es für AMD sogar möglich die 3090 zu überholen.
Wenn sie wieder so ein Monster, wie die R9 295 X2 bringen.
 
  • Gefällt mir
Reaktionen: fox40phil
syfsyn schrieb:
das ist eine reine 4k karte

Dazu müsste sie erstmal 1440p meistern und keine 2stelligen fps avg Zahlen mehr zeigen.
Forget it.

RDR2 Ultramaxed auf der 3080 und 2560*1440 würde ich gerne sehen.

Die 3080 ist leider auch noch nicht mal eine 1440p/144 GPU. Näher dran als die 2080Ti, aber auch Ampere packt es nicht.
 
  • Gefällt mir
Reaktionen: eLw00d, DerKonfigurator, Cpt.Willard und 3 andere
Finde nach durchlesen aller Benchmarks den Zugewinn ok aber nicht überragend solange nicht Flächen deckend 60fps bei 4k in halbwegs aktuellen Blockbustern drin sind würde ich jetzt nicht aufrüsten wollen.
Klar werden in 2 Jahren wieder fordernde Games auftauchen aber das bei 4k immer wieder Abstriche gemacht werden müssen um wenigstens 60fps zu bekommen ..auch irgendwie langweilig wenn man soviel Geld dafür ausgeben soll.
 
DeadlyStriker schrieb:
Definitiv nicht. Der Browser ist komplett clean ohne jegliche Addons.
dann ist es irgendwas anderes. In der regel bringen sowas immer addons mit wie "video downloder" oder ähnliches, die sich einfach über andere werbung schalten.

Lass einfach den blocker an. fertig.
 
Avarios schrieb:
320 Watt.... ich erinnere mich an den AMD aufschrei, hier keiner ?
Hier stimmt die Leistung das war bei AMD nicht der Fall.
 
  • Gefällt mir
Reaktionen: fox40phil, McFritte, .Sentinel. und eine weitere Person
Zurück
Oben