Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

sialickiz schrieb:
Edit :
Wie gesagt, fakt ist das sich AMD an einer fast vier jahren GTX1080Ti die Zähne ausbeist, siehe Bild :


RTX3080 ist um fast 50% schneller als AMD stärkste GPU !

Der einzige Vorteil ist das die Karten relativ zeitnah erscheinen, so ein Disaster wie bei Vega wirds daher nicht mehr geben.


Man sollte schon auf den Teppich bleiben bzw. den bezug zur realität nicht verlieren.
Wenn ich lese RDNA 2 wird locker an RTX2080Ti vorbeiziehen etc. ! OMG

Du vergisst dass AMDs schnellste Karte ein winziger 250mm2 Mittelklassechip mit lediglich 2560 Shadern und
einem kleinen 256 Bit SI ist. Der darf sich schon an ner grossen 1080TI die Zähne ausbeissen.

Wir wissen schon länger, dass Big Navi etwa doppelt so viele Shader haben wird, ein grösseres SI haben wird, mehr IPC als RDNA 1 haben wird und 50% mehr Performance pro Watt als RDNA1 bringen wird. Und RDNA 1 hat die Turing IPC schon im Sack.
Es dürfte also mal wieder einen Big Chip im Bereich 450-590mm2 geben, in einem dem Samsung 8NM Prozess überlegenen 7NM TSMC Prozess.
Also wenn wir mit diesen Werten realistisch rechnen ist die 2080 TI sicher kein Gegner (RX5700XT +30-40%), die 3070 wohl auch nicht. Und wir werden sehen ob es die 3080 ist.

Mir fällt sonst kein Grund ein die 3080 ab Werk schon so ans Limit zu prügeln. +50W für 4% sind ziemlich schlecht. Die haben wohl nen Angstschiss in der Buchse.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: hurcos, voalirus, russianinvasion und 6 andere
xdave78 schrieb:
Toller Test, vielen Dank! Deshalb bin ich gerne hier, eure Tests sind unschlagbar.

Doppelt so schnell (ziemlich) wie meine 2070 Gaming Z. Dennoch warte ich glaube ich noch auf das Refresh. Dieses Mal soll die GPU 4 Jahre im PC bleiben und selbst wenn 10GiB jetzt im Parcours reichen, nehme ich an dass es nächstes Jahr arg anzieht was die Anforderungen angeht (Next Gen Konsolen).

Bin gespannt wie AMD jetzt performt und ob sie in Sachen RT und DeepLearning in der Generation eine Rolle spielen. No Bash.

Die Leistung ist sehr stark, ähnlich wie Pascal damals ! 10GB Vram sind wie ich finde das absolute Minimum für so ein Rechenmonster.

RTX3070, no comment ! Ich bin kein Fanboy und deswegen darf ich NVIDIA kritsieren, lol. ;)
Das ist zu wenig !
 

gibt auch ein paar interessante Entwicklungen.
 
  • Gefällt mir
Reaktionen: thuNDa
Gibt es denn schon begründete Vermutungen wieviel Vorsprung die 3090 zur 3080 haben könnte?

Zum Test: vielen Dank ans Team und ein großes Lob für die 270Watt Vergleichstests!
 
DrFreaK666 schrieb:
Da geht es um den Termin, nicht um die NDA an sich. Den Inhalt der NDA wirst du bei Computerbase nicht finden

Das habe ich auch nie geschrieben. Es wurde gefragt wann die anderen Karten getestet werden. Das war meine (korrekte) Antwort.
 
KlaraElfer schrieb:
Deswegen spreche ich ja von CPU Limit, wie beispielsweise Anno, wo man in UHD noch 20% durch die CPU rausholen kann. ;)
Alle spielen Anno, ne ich spiele BFV und da duempelt ein 3700X in WQHD bei 50-60% CPU Last rum bei 144FPS. Anno haette ich erst garnischt gebencht.
 
  • Gefällt mir
Reaktionen: Dai6oro
Wow! = S.47

@Redaktion
Macht Ihr bei der 3070 auch einen Vgl. mit der 2080Ti@220W ?
(am Besten wäre ein mue UVen der Ti um ein 24/7-Szenario zu haben, sprich beide Grakas mit 0,95V o.ä.)

edit:
Ansonsten besonderen Dank für den 270W-Vergleich und Hut ab vor den 2x 85mm Lü. (bzw. OCed=370W=crazy).
Wie klingen die Lü. bei 270W und die Spulen mit Fps-Limit?

Anscheinend ist die neue Bauart, sprich kein Miefquirl, sondern immer nur Frischluft von unten sehr wirksam=NICE.
 
  • Gefällt mir
Reaktionen: fox40phil und Cpt.Willard
Kacha schrieb:
Der Samsung Prozess scheint auch nicht wirklich der beste zu sein, ansonsten haette das ganze bei weniger Strombedarf enden koennen. Da raecht es sich wohl, dass man da nicht risikofreudiger war und frueh bei TSMC reserviert hat.
Im Gegenteil, man war zu risikofreudig.
Man wollte TSMCs Preise drücken indem man damit "droht" zu Samsung zu wechseln.

Problem ist nur TSMC hat mehr als genug Kunden (Komplett AMD CPUs+GPUs, fast alle Konsolen, die meisten mobile Socs, etc...) und lässt sich daher nur schwer "erpressen".

Stellt sich die Frage ob Nvidia das nun bereut oder lacht wie trotzdem alle auf ihre Karten fliegen und sie durch die günstigen Herstellungskosten noch mehr Gewinn machen.

Positiv ist nur, dass AMD aufholen kann.
 
  • Gefällt mir
Reaktionen: russianinvasion und Cpt.Willard
  • Gefällt mir
Reaktionen: Eggman
Danke für den Test. Bei der minimalen Unterschied kann ich mein RTX 2080 Ti noch ein weiteres Jahr behalten. :)
 
  • Gefällt mir
Reaktionen: Laphonso, Cpt.Willard, FatalFury und eine weitere Person
Skjöll schrieb:
Caseking hat ja schon Custompreise agegeben, die aber ausdrücklich noch keine Endpreise sind: gehen bis ca. 850€ für Asus hoch.
Alternate hingegen hat noch nicht einmal irgendwelche Anzeichen, daß es neue Karten geben könnte. Seltsam.
Das ist bei den meisten Seiten so. Wenn man zum Beispiel auf notebooksbilliger nach den Karten sucht, wird nichts angezeigt. Man kommt aber über die offizielle Nvidia-Seite auf die landing page des jeweiligen shops.

Beispiele:

https://www.arlt.com/Nvidia-GeForce-RTX-30er-Serie/?CID=gf73_nv-int-shpwmfg_de-de

https://www.notebooksbilliger.de/pc...pwmfg_de-de&clickref=s1600259867676qw0qa52378

über

https://www.nvidia.com/de-de/geforce/graphics-cards/30-series/rtx-3080/

(ganz unten).
 
Creeper777 schrieb:
Mir fehlen immer noch die stark verbreitete 3440x1440 Benchmarks.

Wird es wohl nicht oft geben, da dieses Format eben NICHT stark verbreitet ist.
 
optimistisch gesehen kann AMD mit einer 5700 XT *2 ala 6900 XT durchaus der 3080 den Rang ablaufen was reine Game Performance Native angeht. Das lässt auch der 3080 Pricetag vermuten.

Nvidia sagt sich "jetzt maximal viele 10Gb RTX 3080 absetzen". Sobald AMDs 16GB Big Navi da ist (geschätzt schätze ich wie gesagt 5700 XT *2) wird Nvidia die Sache feintunen, eine 20Gb Version mit ggf etwas mehr Power bereitstellen (zu aber auch deutlich höherem Preis, je nach dem was AMD bringt).

Alles in allem also ein kalkulierter Launch und es macht durchaus Sinn dass AMDs neues Topmodell etwa auf 3080 Niveau oder leicht darüber liegen wird.
Ausgehend von den neuen Shadern bei Nvidia (quasi aus 1 mach 2 Cores) kann es durchaus sein dass Nvidia dieses mal mit der Zeit besser "reift" als RDNA, das zwar ne 2 haben wird, aber sich von RDNA 1 kaum unterscheiden dürfte.

Gut, da ist Raytracing die große Unbekannte. Vielleicht sollte man doch noch AMD neues TopModell abwarten. Bisher war das aber nie wirklich sinnvoll. Ne neue Top End Karte zum Release zu kaufen schon eher.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil und Cpt.Willard
KlaraElfer schrieb:
Ich bin die einzelnen Spiele durchgegangen, deine Behauptung ist falsch.
Warum zeigst du nicht einfach die Spiele, in denen der V-ram der 5700XT limitiert (ich sehe kein einziges), sondern verwechselst V-ram mit CPU Limit?
Dabei schrieb ich doch das du endlich mal deine Brille abnehmen sollst die dich offensichtlich erblinden läßt.

Vega64 vs. VII (wegen gleicher GPU Architektur) im Test, nur mal 3 Beispiele

Doom Eternal
1.920 × 1.080 - 24%
2.560 × 1.440 - 26%
3.840 × 2.160 - 42%

Ghost Recon Breakpoint
1.920 × 1.080 - 29%
2.560 × 1.440 - 35%
3.840 × 2.160 - 48%

Horizon Zero Dawn
1.920 × 1.080 - 17%
2.560 × 1.440 - 22%
3.840 × 2.160 - 34%

Bei mir war es seinerzeit übrigens Rise of the Tomb Raider, natürlich mit max. Texturen, was aber nicht mehr Teil des Tests ist.
 
Naja bei Proshop werden Karten jetzt ab 729€ (MSI) angeboten, aber werden wohl erst morgen ausgeliefert!
 
Schneller ist sie, was selbstverständlich ist.
Kostet soviel wie 2080S, was noch OK ist.

Auf Kante genäht wie die Vegas, was ihre UV Fähigkeit zeigt. Wie es scheint müsste Nvidia so binnen um die Yields des Samsung Prozesses hoch zu bringen.

Nvidia hat beim Preis Geschick bewiesen, wenigstens bei der FE.
Jetzt Mal abwarten wie sich RX6900 einordnet. Ich denke ich werde dieses Jahr upgraden. :)

@Wolfgang
@Jan
Der 2. Lüfter der durchpustet, ist keineswegs nvidias Innovation. Es ist ein alter Hut und abgeguckt von Saphire. Die haben den zuerst auf Vega 56 Pulse gebaut. Es ist die smarteste Vega die je gebaut wurde, schnell und leise dabei Dank des genialen Lüfterkonzepts.
Bitte berücksichtigen beim Bericht
 
  • Gefällt mir
Reaktionen: karl_laschnikow
Eggman schrieb:
Gibt es denn schon begründete Vermutungen wieviel Vorsprung die 3090 zur 3080 haben könnte?

Zum Test: vielen Dank ans Team und ein großes Lob für die 270Watt Vergleichstests!

Die 3090 hat rund 20% mehr Shader als die 3080, nochmal eine Schippe mehr Speicherbandbreite, die bei höheren Auflösungen evtl. noch einen Vorteil bringt. Optimistisch irgendwas bei 15-20% unter 4K wäre mein Ansatz. Bei kleineren Auflösungen tendenziell weniger und sobald die CPU dicht macht halt 0%. Es hat schon einen Grund warum Nvidia die Tests zur 3090 erst zum Verkaufsstart bringen möchte. Wer so eine 3090 direkt zum Start haben will, muss die Karte als Katze ich Sack kaufen. Wer zuerst die Tests liest, der wird keine FE mehr an dem Tag bekommen.
 
  • Gefällt mir
Reaktionen: Eggman
Zurück
Oben