Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
Danke für den Test! Performance ist wirklich sehr gut und erinnert wirklich an den Maxwell / Pascal Sprung. Hab mir damals eine 1060 gekauft und mich mit diversen 980ern angelegt 😅. Freu mich, dass es so ein Leistung Plus gibt. Wer aber bereits Turing im Rechner hat, sollte mMn auf die Super oder Ti warten. Von 8GB auf 10GB werde ich nicht wechseln bzw. "upgraden".
Vielen Dank für den tollen Test und, dass ich mit der Karte die Leistung meiner 1080Ti fast verdoppeln kann ist schon eine Ansagen. Zusammen mit einem Zen 3 wird das Ganze ein tolle Update.
Zeigt aber, dass 10Gb VRAM nicht gerade ueppig sind. 8 scheinen jetzt schon wenig zu sein, also ist es nur ein Frag der zeit, bis 10 zu wenig sind. Und diese Zeit ist mir zu kurz. Mal warten was AMD macht, meine 1080ti reicht mir noch aus.
DLSS bringt auf Ampere keinen größeren Schub als Turing, offenbar bringen die besseren Tensor-Kerne für das KI-Upsampling in Sachen Leistung keinerlei Vorteile. Die GeForce RTX 3080 Ti legt durch DLSS in der Spieleauswahl um 87 Prozent zu, bei der GeForce RTX 2080 Ti sind es 88 Prozent.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
In den Path-Tracing-Spielen, die einzig und allein auf die RT-Kerne setzen, zeigen die verbesserten Raytracing-Einheiten von Ampere dann wiederum richtig ihr Potential. In den Hybrid-Spielen beträgt der Vorsprung der GeForce RTX 3090 zur GeForce RTX 2080 Ti mit Raytracing „nur“ 39 Prozent, in Quake 2 RTX sind es dagegen gleich 49 Prozent und in Minecraft RTX sogar 55 Prozent. Damit kommt die GeForce RTX 3080 in beiden Spielen auf mehr als 60 FPS, was der GeForce RTX 2080 Ti nicht im Ansatz gelingt.
Fast 100Watt mehr Verbrauch zum direkten Vorgänger 2080Super ist schon eine menge Holz allerdings die Frage wie oft bzw. wie lange der hohe Verbrauch anliegt.
Der Kühler scheint seine Arbeit sehr gut zu machen zumindest sehr ruhig zumindest..
ich denke, die 320 watt werden immer anliegen, wenn du die max FPS im spiel nicht begrenzt. Also auch, wenn du minecraft spielst und er 600fps ausgibt oder nicht?
mal sehen wie sich die Partnerkarten schlagen werden mit der Temperatur der GPU. Ansonsten eine sehr sehr interessante Karte die ich am liebsten schon gestern hätte
Ich hoffe, dass es Custom-Karten geben wird, die per BIOS auf 270 W oder weniger begrenzt sind, z.B. eine Asus Strix im Quiet-Modus. Dann würde ich mir bestimmt auch eine 3080 zulegen. Einstellungen diezbezüglich im Treiber vorzunehmen widerstrebt mir.
Die Nvidia Fans haben Navi wegen dem Verbrauch schlecht gemacht und behauptet, dass Nvidia viel besser sein wird, wenn sie ihre Karten in 7nm (bei Ampere ist es 8nm) raus bringen werden. Tja davon sieht man nicht viel, wenn überhaupt.
In den Hybrid-Spielen beträgt der Vorsprung der GeForce RTX 3090 zur GeForce RTX 2080 Ti mit Raytracing „nur“ 39 Prozent, in Quake 2 RTX sind es dagegen gleich 49 Prozent und in Minecraft RTX sogar 55 Prozent. Damit kommt die GeForce RTX 3080 in beiden Spielen auf mehr als 60 FPS, was der GeForce RTX 2080 Ti nicht im Ansatz gelingt.
DLSS bringt auf Ampere keinen größeren Schub als Turing, offenbar bringen die besseren Tensor-Kerne für das KI-Upsampling in Sachen Leistung keinerlei Vorteile. Die GeForce RTX 3080 Ti legt durch DLSS in der Spieleauswahl um 87 Prozent zu, bei der GeForce RTX 2080 Ti sind es 88 Prozent.
Vielen Dank an CB fuer den Test.
Hab mal bisschen quergelesen und mir auch das Performancerating mal genauer angeguckt. Die 3080 FE ist, im Vergleich zu einer 2080ti, jetzt 30-40% schneller. Ist genau so, wie man es vorher auch erwartet hat. Sieht dann aber, fuer mich persoenlich, nicht wie ein "alt aussehen lassen" aus, sondern mehr wie ein normaler evolitionaerer Sprung bei Grafikkarten.
Aber ok, der Hype verlangt auch die passenden Superlativen. ^_^
Sieht gut aus, jetzt nur noch hoffen das die 3070 ebefalls so zulegt und dann mit 16GB kommt, es wurde ja auch erwähnt das 8 zu wenig sind und 10 alles andere als zukunftssicher sind aufgrund der next gen konsolen.
monitorhero schrieb:
...
Hier wird auch nochmal das Thema VRAM angesprochen, weil jeder noch immer meint 10Gb sind zu wenig.
Stand heute mag das noch ausreichen, aber wer solch Karten kauft will auch 1 2 Jahre und vielleicht auch mehr ruhe haben und dann siehts schlecht aus wegen knappen Vram, zumal der Bedarf eher steigt statt sinkt.