Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

A.Xander schrieb:
Der limitiert genauso gnadenlos unterhalb UHD Auflösung
"Genauso gnadenlos" kann eine CPU die im CPU Test mit einer 2080Ti bereits 15% schneller ist, schon logisch gar nicht limitieren
 
  • Gefällt mir
Reaktionen: adAstra, Esenel und .Sentinel.
DLSS ist auch so ein Thema ! Wenn NV die ganzen, neuen next-gen Grafikracher mir DSLL austattet, würde es mich nicht allzu stark wundern wenn RTX2080 (non-s) an RDNA2 vorbeizieht.

Die Performancesprünge sind immens !
 
Dai6oro schrieb:
Also nix mit twice the performance as 2080 aber das war voher schon klar. Jetzt können die üblichen Verdächtigen wieder mit Cherrypicking weitermachen.

Du bist wohl auch eher so der Typ, der draußen am Kaufhaus "bis zu 70% reduziert" liest und dann davon ausgeht, dass alle Artikel im Laden 70% günstiger sind oder wie?
Wenn es heißt "up to 2x the performance", dann bedeutet das nichts anderes als, unter optimalen Bedingungen wird diese Leistung in bestimmten Scenarios erreicht.
 
  • Gefällt mir
Reaktionen: fox40phil, xexex, .Sentinel. und eine weitere Person
7.PNG


8.PNG


We've looked deeper at the RTX 3080's performance at 1440p, so we want to comment on that. As far as we can tell, CPU bottlenecking alone is not the explanation. The reason comes down to Ampere's architecture and the change to the SM configuration that we mentioned in the introduction. The 2x FP32 design can only be fully utilized at 4K and beyond. This is because at 4K the portion of the render time per frame is heavier on FP32 shaders. At lower resolutions like 1440p, the vertice and triangle load is identical to what we see at 4K, but at the higher resolution pixel shaders and compute effect shaders are more intensive and take longer and therefore can fill the SMs FP32 ALUs better.

https://www.techspot.com/review/2099-geforce-rtx-3080/

Nuff said
 
  • Gefällt mir
Reaktionen: ahuev0, McTheRipper, Achim_Anders und 9 andere
Ist schon ein Brecher die 3080, der Verbrauch ist echt heftig. Aber einfach das Powerlimit auf 80% einstellen, so wie ich das jetzt schon mache. Meine 2080 verballert auch für die letzten % 40-50 Watt mehr.
Kaufen kann ich bei Nvidia noch nicht, da steht noch Benachrichtigung erhalten, kein Kaufbutton.

Ein paar Infos von Igor:

CPU Limit, Igor meinte zu seinen Tests, auch ein 10900K hätte nur eine minimale Verbesserung gebracht. Selbst in 4K ist man teils im CPU Limit.

Zum Verbrauch ist auch interessant. Das Netzteil sollte mit einer 3080 schon mind. 650 Watt leisten. Er hatte kurze Spitzen über 350 bis 450 Watt ! Nur die Grafikkarte...
 
  • Gefällt mir
Reaktionen: Celinna und Onkel Föhn
GUN2504 schrieb:
Wenn AMD mit Big Navi das Niveau der 3080 erreicht, allerdings mit 16 GB RAM zu einem ähnlichen Preis dann wird die 3080 zum Einen günstiger als bei Release...
AMD mit etwa gleicher Leistung zum etwa selben Preis mit etwas mehr Speicher wird Nvidia definitiv nicht zu Preissenkungen treiben.

Die Speicher Ti Version mit Aufpreis klingt schon logischer.
 
  • Gefällt mir
Reaktionen: fox40phil, GUN2504, Onkel Föhn und eine weitere Person
Dai6oro schrieb:
Also nix mit twice the performance as 2080 aber das war voher schon klar.

Das war ne Maximalangabe und die wird bei reinen Pathtracingtiteln erreicht. Beispielsweise bei Minecraft RTX.
Aber das war vorher schon klar, dass es wieder Genies gibt die davon ausgehen doppelte Performance in allen Titeln und in allen Settings zu bekommen.
 
  • Gefällt mir
Reaktionen: stevefrogs und gartenriese
sialickiz schrieb:
DLSS ist auch so ein Thema ! Wenn NV die ganzen, neuen next-gen Grafikracher mir DSLL austattet, würde es mich nicht allzu stark wundern wenn RTX2080 (non-s) an RDNA2 vorbeizieht.

Die Performancesprünge sind immens !
Daher muss RDNA2 einfach irgendwas in der Richtung bieten können, und wenn es nur irgendwas ist, was die FPS nur halb so stark erhöht, dafür aber in jedem Spiel funktioniert.

Und wenn nicht, dann müssen sie sich mit RDNA3 beeilen^^
 
  • Gefällt mir
Reaktionen: fox40phil, Setting und Onkel Föhn
Kenjiii schrieb:
Du bist wohl auch eher so der Typ, der draußen am Kaufhaus "bis zu 70% reduziert" liest und dann davon ausgeht, dass alle Artikel im Laden 70% günstiger sind oder wie?
Wenn es heißt "up to 2x the performance", dann bedeutet das nichts anderes als, unter optimalen Bedingungen wird diese Leistung in bestimmten Scenarios erreicht.

Da gibts ne Folie. Da steht kein up to da steht.. naja lesen kannst ja wohl noch selbst:

9.PNG
 
  • Gefällt mir
Reaktionen: ahuev0, Setting und eXe777
Netzteil Test von Igor mal angeschaut. Empfehlung bei einer 3080 FE und sehr gutem Unterbau ab Qualitätsnetzteil mit 650W. Eher Richtung 750-800W. Vor 2 1/2 Jahren noch bewusst auf 550W gesetzt. Blöd gelaufen ;)
Es soll wohl Customs geben, die sich auch gerne deutlich mehr als 370W ziehen. Wird man dann wohl morgen auch beim Namen nennen können ;)
 
Ampere ist halt eine Marketing-GPU. :king:
Technisch korrekt wäre es die CUDA-Cores zu halbieren und dann eine Peak-Performance anzugeben. Alles andere ist reines Marketing-Gewäsch.
 
  • Gefällt mir
Reaktionen: eXe777
BxBender schrieb:
Laut Testbericht bietet die 3080 exakt die gleiche Leistung per Watt wie die 2080 Ti.

Ich sehe mindestens 10% mehr Performance/Watt, in RT Titeln eher 20% und unter vollem Pathtracing eher 30 bis 40%.

BxBender schrieb:
Das ist bei Anno 1800 und anderen Games unter Vollast zu sehen.

Bei Anno sieht man das garantiert nicht, da dort die CPU limitiert.

BxBender schrieb:
Im Prinzip kann man die 3080 einfach als eine um 30% hochgedrehte Version der 2080 Ti sehen, quasi eine 2080 Ti Super Duper. ^^

Äh ja.

BxBender schrieb:
Außerdem ist das der heißeste Kamin aller Zeiten.
Erinnert ihr euch noch, wie ihr alle über die AMD Vega 64 gelästert oder geschmimpft habt?

Ja, die Karte hatte gegenübe der 1080 eine etwas niedrigere Leistung und verbrauchte bei Computerbase im Test doppelt so viel Strom. Die Lautstärke war wesentlich höher und die Treiber unausgereift.
Die 1080 kam über ein Jahr früher. Situation gar nicht vergleichbar.

BxBender schrieb:
Laut Testbericht verbraucht in einem Spiel die Vega 64 im Gesamtwert "lediglich" 350 Watt, während die 3080 auf superhotte 420 Watt hochbruzzelt.

Ich sehe in jedem Spiel ~322 Watt, woher nimmst du deine Werte?

BxBender schrieb:
Jungens, merkt ihr was?
Das ist eine noch schlimmere Wattkeule als Intel mit seinem i9 9900KS mit weit über 200 Watt unter Vollast durchzieht.

Die Vega zog doch auch 300 Watt, mit vollem Powerlimit sogar 400 Watt.
Wenn die Leistung in Relation zum Verbrauch stimmt, dann passt es doch.?!

BxBender schrieb:
Ach egal, machen se halt 3 mal 8 Pin drauf und geben 425 Watt im OC frei.
Offener Kühlschrank danebenstellen, passt schon. LOL

Dein Beitrag ist wirklich kompletter Unsinn und basiert auf Phantasiezahlen.
 
  • Gefällt mir
Reaktionen: adAstra, AleksZ86, McFritte und eine weitere Person
SKu schrieb:
Technisch korrekt wäre es die CUDA-Cores zu halbieren und dann eine Peak-Performance anzugeben. Alles andere ist reines Marketing-Gewäsch.

Aber jetzt können die Nvidia Kunden so schön sagen, dass ihre 3080 dreimal so schnell ist wie die PS5, hat ja schließlich 30TFLOPs ^^
 
KLEMSI schrieb:
Ist doch bei jeder neuen Generation das Gleiche... Steigerungen um die 50%!
Und wenn du von Verdoppelung sprichst, dann hast du den Test nicht gelesen...
Und wieder falsch. Ich rede von der besten erhältlichen Grafikkarte, also bezieht sich der Vergleich auf die 2080 Ti.
Die kostete 1200€ und du bekommst 100 Fps, jetzt zahlst du 700€ und bekommst 130 fps.
---->1200/100 vs 700/130 = 12€ / 5,38€ = 2,23..........damn, man bekommt sogar 2,23x so viel Fps. :D
Wie kann das nicht der ULTIMATIVE HYPE SEIN? :rolleyes: :) :) :)
 
  • Gefällt mir
Reaktionen: Biervampyr
Sehr beeindruckend! Schön, dass das Marketing dieses mal nicht zu sehr übertrieben hat. Der zweitbeste (nur knapp nicht der beste) Generationssprung seit ca. 10 Jahren ist schon klasse. Ich werd mir auf jeden Fall dann einen neuen Rechner mit 3080 Ti und Zen3 zusammenbauen am Ende des Jahres. :-)
 
  • Gefällt mir
Reaktionen: Topi41
Zurück
Oben