Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
15% Wie merke ich das in Maya oder c4d beim Rendern? Das Thema ist etwas komplexer....
Lustig wird Textur-vorschau in Quixel bevor man in Unreal 5 rendert.... da wird ES spannend.
DA würde mir MEHR RAM in einer normalen 3070ger weit mehr bringen. Aber es ist wie beim
Filmen ich rede bei der Black Magic Cam von Dynamic, HInze Heinz von Pixxel...
Es gibt ein Igors Lab Video dazu - er empfiehlt eher ab 650W, aber besser was im 700W+ Bereich (aber 1000W müssen es nicht sein )
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Also das mit den 8704 ALUs ist wirklich irritierend, denn tatsächlich ist es so:
Die 2080Ti hat:
4352 FP32 ALUs
4352 INT32 ALUs
GPU-Z gibt an: 4352 Unified Shaders.
Die 3080 hat:
8704 FP32 ALUs
4352 INT32 ALUs
GPU-Z gibt an: 8704 Unified Shaders.
Also in GPU-Z wird die Hälfte der Informationen unterschlagen. Und dann wundert man sich natürlich, wieso der Leistungszuwachs bei anscheinend "doppelt so hoher Shaderanzahl" so gering ist. Aber so erklärt sich dann doch der relative geringe Leistungssprung.
Ich finde den technischen Vergleich mit der 2080 (Super) irreführend in diesem Test. Die Modellnummern sind nur Einstufungen im Markt aka Verkaufspreis/Zielgruppe.
Die 3080 verwendet den 02er Chip, insofern sind 3080/3090 ein ähnliches Duo wie die jeweiligen Ti und Titans der letzten Generationen. Big Chip beschnitten und (nahezu) unbeschnitten.
Technisch betrachtet seh ich Ampere mit gemischten Gefühlen. Der Sprung von 12nm (TSMC) zu dem custom 7/8nm Prozess bei Samsung (auch hier sind die Angaben ja nur marketing, keine technische Einstufung der Strukturgrößen) scheint auf den ersten Blick riesig zu sein. Gleichzeitig zu diesem Sprung in der Technologie pumpt nVidia den Chip über die Leistungsaufnahme auf, bietet quasi ein OC custom Modell ab Werk an.
Bei gleicher Leistungsaufnahme ist die 3080 25% vor der 2080Ti - welche ja auch der "ältere" Big Chip ohne Vollausbau ist. Da nVidia bei der Fertigung eine Generation übersprungen hat und die Foundries bei neuen Prozessen Pi mal Daumen von "+15% mehr Leistung oder 30% weniger Energieverbrauch" sprechen, ist der technische Vorsprung der Architektur im Augenblick auf Raytracing/Tensorkerne sowie den derzeitigen Spezialfall der doppelten FP16 cores beschränkt. Natürlich werden kommende Spiele besser darauf ausgelegt sein.....
Was aber definitiv zu würdigen ist und in meinen Augen nicht genug hervorgehoben wird: Ampere ist eine radikale Abkehr vom Preiswahn bei nVidia. Die 3080 ist nicht nur günstiger als eine 2080Ti welche sie technisch beerbt, sondern auch deutlich günstiger als die vorherige deutlich günstigere Stufe, die 2080(Super).
Scheint ja doch Vorteile zu haben wenn eine Firma plötzlich kein Monopol mehr auf Highend hat - egal was AMD am Ende abliefert, diesen impact hat es jetzt schon gehabt.
Jo, richtig - die momentanen CPU scheinen für WQHD und besonders für FHD... definitiv zu ...lol - lahm, so suggeriert mir das auch das Reviewvideo das Igor machte und er sagte auch selbst - der 3900er fliegt dann einfach raus und weicht dem Nachfolger - so wirds CB wohl auch gedacht haben.
Ich hätte mir wahrscheinlich auch "zum Übergang" eine 3600-CPU holen sollen - naja, seis drum, denke den 3800er werde ich evtl. mit weniger WV los, wenn die neuen Ryzen da sind.
Ich finds jedenfalls geil...
PS: Hat nicht Lisa gesagt, dass die neuen RTX3000er prima zu den neuen Ryzen passen würden? ... ! Hehehe - wie geil.
Nach diesem Test glaube ich wäre es für AMD sogar möglich die 3090 zu überholen.
Doppelt so gross wie die 5700XT mit vermutlich mehr Takt und mehr IPC. Da ist definitiv einiges möglich.
Es bleibt auf jeden Fall spannend und ich zocke erstmal die alten Games weiter bevor ich meine Grafikkarte durch was neueres ersetze.
Ich warte noch auf AMD und natürlich die 3070. Nvidia sagt ca. 220 Watt vorher. Mit etwas untervolten und übertakten (mit annähernd 2080ti Leistung) könnte sie für mich das rundere Paket darstellen. Dann brauch ich mir wenigstens kein neues Netzteil kaufen. Und die Gehäuselüfter drehen auch nicht auf.
Finde nach durchlesen aller Benchmarks den Zugewinn ok aber nicht überragend solange nicht Flächen deckend 60fps bei 4k in halbwegs aktuellen Blockbustern drin sind würde ich jetzt nicht aufrüsten wollen.
Klar werden in 2 Jahren wieder fordernde Games auftauchen aber das bei 4k immer wieder Abstriche gemacht werden müssen um wenigstens 60fps zu bekommen ..auch irgendwie langweilig wenn man soviel Geld dafür ausgeben soll.
dann ist es irgendwas anderes. In der regel bringen sowas immer addons mit wie "video downloder" oder ähnliches, die sich einfach über andere werbung schalten.