Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Ich geh da mal bei den Mankos z.T. mit dir @Skjöll.
Bzgl. der Abwärme hätte ich in den Charts zum Vergleich auch gerne 2080Ti Customs gesehen. Wohin die Reise mit der Leistungsaufnahme geht, war ja schon hier und da geleakt, das Geräuschniveau schreckt vielleicht nicht ganz so viele Hardcoregamer ab (Kopfhörer)

Die Preis/Leistung ist so, naja... Kostet das doppelte wie meine XT und hat die doppelte Leistung. Ganz klar, im Vergleich zur 2080Ti preislich er absolute König, insgesamt aber trotzdem weit weg vom Durchschnitt und die Customs werden sich preislich vielleicht alle da einfinden, wo zuletzte die 2080S rangiert hat. D.h. wir haben zwar eine leichte Anpassung, aber insgesamt verändert sich im GPU Markt nix und die Preisriegen post-Mining bleiben erhalten.

Ernüchternd finde ich den nicht vorhandenen Unterschied PCI 4 zu 3.0. Ist quasi weiterhin sowas von Wurschd und alle warten auf das erste Spiel, das die SSD Technik implementiert hat. Ankündigung gabs dazu ja bisher keine...
 
  • Gefällt mir
Reaktionen: JJJT
Don Sanchez schrieb:
ModellUVP zum MarktstartMarktstart
GeForce RTX 2080 FE849 Euro19. September 2018
GeForce GTX 1080 FE789 Euro17. Mai 2016
GeForce RTX 3080 FE699 Euro17. September 2020

Dass die 3080 so vergleichsweise günstig ist, kann doch eigentlich nur bedeuten, dass Nvidia Informationen über die Leistung von AMDs bald erscheinenden Grafikkarten hat, und diese diesmal auch im High-End Bereich konkurrenzfähig sind und Nvidia deshalb die Preise zum Marktstart senken musste, oder?
Ja, aber das ist nur die halbe Miete. Die 3090 wird AMD wohl nicht schlagen können. Es gibt genügend Leute, die richtig viel Asche für die maximale Performance ausgeben werden, weshalb die 3090 dennoch so viel teurer sein wird.

Allerdings ist die Marketing-Strategie noch etwas weitreichender. NVIDIA will die Leute dazu bringen, dass sie sich nun eine 3080 und 3070 kaufen, um den Markt zu sättigen, damit AMD mit den neuen Grafikkarten weniger Einnahmen hat und sie genügend Kunden dazu animiert haben, eine NVIDIA Graka zu kaufen. Zudem gibt es einige Leute, die sich überlegen, ob sie sich eine neue Grafikkarte kaufen sollen, oder eine Next-Gen-Konsole. Wären die Preise zu hoch gewesen, hätten hier mehr Leute zu einer Next-Gen-Konsole gegriffen.
 
PogoPogo schrieb:
Läuft die 3080FE mit einem 550W Netzteil? Be Quiet Straight Power.

3080 psu.jpg
 
So wie ich das sehe kommt der Leistungszuwachs zum größten Teil aus dem Fertigungsvorteil.
Dieser "Custom 8nm Samsung Prozess" erlaubt es Nvidia bei 20% kleinerer Chipfläche 28 statt 18,6 Mlrd also 50% mehr Transistoren drauzupacken.

Das hört sich eigentlich stark nach 7nm und nicht nach aufgewärmter 10nm a la 8nm Prozess an.
 
Wie hier viele den Stromverbrauch als negativ sehen.
Sorry, aber in 4k, hat die Karte ganze 44% mehr Performance pro Watt im Vergleich zu einer 1080 Ti.
 
  • Gefällt mir
Reaktionen: McFritte und SPECIALIZED-
CrustiCroc schrieb:
Wenn du den Test wirklich gelesen hättest, wüsstest du das die Performance / Watt und somit die Effizienz gegenüber Turing und erst Recht gegenüber AMD´s Pseudo 7nm Prozess stark verbessert wurde
Also die 8nm von Samsung ist in Wirklichkeit nur ein verbesserter 10nm Node. 😬
 
  • Gefällt mir
Reaktionen: JJJT
Ich warte auf jeden Fall noch auf AMD.
Ansonsten könnte man über die 3080 nachdenken, wenn man das Powertarget absenkt.

Bei Vega hat jeder rumgeheult wegen dem Verbrauch (jaja, da hat die Leistung dazu auch nicht gepasst) aber hier wird es einfach hingenommen. 320W für die zweitgrößte Karte...
 
  • Gefällt mir
Reaktionen: Mydgard, m2020 und Doenereater
Der Stromverbrauch ist ja abartig. Bei der Vega damals gab es ein Aufschrei ohne Gleichen. Aber hier bei den grünen Fanboys kommt komischerweise nichts, wenn es die eigene Marke betrifft. Ich finde es immer wieder amüsant die Fanboy Lager.

Die 3090 von EVGA mit 3 Stromanschlüsse knackt bestimmt die 500 Watt Marke.

Bin mal gespannt wie viel Strom die AMD Karten für ähnliche Leistung benötigen.
 
  • Gefällt mir
Reaktionen: Demon_666, PES_God, Derenei und 2 andere
Wie ich mir gedacht habe.. Twice as fast as the 2080S mit aktiviertem DLSS2..
Bei nur 30% Vorsprung zur 2080Ti sollte es also wieder möglich sein, dass AMD vor der 3080 liegt, vllt sogar der 3090 wenn sie über 80CUs gehen und auf HBM2e setzen. Wird sehr spannend!

Eine gelungene Generation von Nvidia, aber bei weitem nicht so strahlend wie bei der Präsentation vorgestellt.
 
Zotac2012 schrieb:
Ich habe ja auch noch eine 4. Jahre alte GTX 1070 im Rechner, das Upgrade auf eine RTX 3080 lohnt definitiv! :daumen:

Ich muss auch nicht in jedem Game in UHD auf Ultra spielen, dann habe ich meine 60 FPS eigentlich immer, von daher kann ich endlich meinen UHD Monitor TV vollends ausnutzen.
Wenn dann wechsel ich zur 3080ti oder 3090.
Es muss sich schon lohnen. Denn dann will ich wieder für mindestens 4-5 jahre ruhe haben.
Wenns eine übergangslösung sein soll, dann hole ich mir lieber eine AMD.
wenn die denn mehr als 8gb ram hat :D


mein 525w netzteil mit dem 2600 (stock sollte das doch packen oder?
 
Danke für den Test, da hat Nvidia was nettes zusammengebracht, dass sie aber die Karten über den Sweetspot betreiben kann fast nur eines bedeuten: auch AMDs Grafikkarten werden stark. Dann mal bis Ende Oktober abwarten.
mfg
 
  • Gefällt mir
Reaktionen: Schranz0815
Killerattacks schrieb:
Verstehe ich, aber war nicht die Qualität der NVENC Videos so gut, dass man praktisch keine CPU-Ressourcen mehr zum Streamen braucht? Dachte ich zumindest.

Braucht man als Ausrede für die 10+Kern-CPUs die man sich kaufen will.
 
Ich bin ganz begeistert und werde morgen versuchen eine zu ergattern, wenn nicht probiere ich es vielleicht bei der 3070 wieder, die wegen der geringeren Abmessungen eigentlich mein Favorit ist.

Die Anzahl der Cuda- Kerne wird sich vervielfachen (aktuell gtx 1070), und Renderprojekte ermöglichen, die bislang unmöglich waren!
 
Tatsächlich nicht so schlecht. Von der 2070 Super auf die 3080 zu wechseln lohnt nicht, auch wenn es durch die Bank weg egal ob mit oder ohne RT gut 70% Mehrleistung gibt.
Müsste dann sowieso noch +100 Euro für Wasserkühlung drauflegen oder gleich mehr für anderes Gehäuse :)
Der Umbau dauert dann auch noch. Aber gut zu wissen, dass für den nächsten Rechner dann die neue Serie in Betracht kommt.
 
Jake Grafton schrieb:
Ist das Zufall oder will Nvidia das nicht, dass getestet wird ob die 10 GB reichen?
Hab jetzt schon 4 Tests gesehen und nirgends wurde es getestet.
Man muss es nicht extra testen. Die FPS würden beim Blechmarken einbrechen und es wäre sofort auffällig. Anscheinend hat es für den Parcours in jeder Auslösung gereicht. In FullHD und teilweise WQHD bin ich mir eh nicht sicher ob die Cpu nicht vor der 3080 an ihre Grenzen kommt.
 
Zurück
Oben