Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Zuerst einmal vielen Dank @CB für den sehr ausführlichen Test.
Die Überschrift ist mir persönlich allerdings deutlich zu reisserisch.

Ich habe den Test ein bisschen quergelesen und es scheint mir, als ob der Performancesprung tatsächlich groß, aber nicht übertechnisch riesig ist.
Das Ganze wird erkauft mit einer doch deutlich höheren Leistungsaufnahme, auch wenn Effizienssteigerungen zu den Vorgängerkarten vorhanden sind.
Wie sich in neueren Spielen und dort überhaupt die Karte einordnet und ob es auf das persönliche Spieleportfolio passt, muss jeder für sich entscheiden. Das wird in Zukunft eben sehr davon abhängen, ob Spiele auf die Vorteile der Karte programmiert werden (können).
Gut finde ich die De- und Encoder fürs Streaming (in beide Richtungen), die sind ja aber bei NVidia tatsächlich wohl (noch) besser als bei AMD.
Was einige andere Features angeht, hängt es eben auch davon ab, ob diese von den Spielen genutzt werden, die man selbst spielt.
Wenn das so ist, ist das natürlich super.

Was mit nicht gefällt ist die hohe Leistungsaufnahme und in dem Zusammenhang der geringe Performanceverlust bei der Begrenzung des Powertarget auf 270V.
Warum? Weil es bedeutet, daß die Karte ab Werk ziemlich an der oberen Grenze fährt und sich die Frage dann stellt, ob das wirklich notwendig ist. Denn 50V weniger ist schon ne Hausnummer.

Möglicherweise zeigt das aber auch, daß wir von AMD in Bezug auf Effiziens und absolute Leistung durchaus etwas erwarten dürfen. Denn NVidia weiss sehr sicher recht genau, was von dort kommt und wird ganz sicher in ihrem Angebot auch dieses berücksichtigen.

Unabhängig davon, daß ich für meinen Bedarf keine 700 oder 800 Euro für eine Graka ausgeben muss, bin ich aber sicher, daß es sich lohnt, auf AMD zu warten und dann zu schauen, wer das für einen selbst am besten passende Gesamtangebot im P-/L-Verhältnis hat.
Ein Nobrainer ist die Karte für mich jedenfalls nicht.

Edit: Grammatikkorrekturen und bessere Lesbarkeit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jan
Dural schrieb:
Die 3080 ist doppelt so schnell wie eine 5700xt, eine doppelter navi wird nicht die 3080 locker übertreffen, sie wird nicht mal an die 3080 ran kommen.

Zugegeben halte ich es auch für sehr unwahrscheinlich, dass AMD die 3080 übertrifft, allerdings schau dir mal an was die 52 CU Variante in der XBox leistet. Alleine diese müsste knapp an die 2080 Ti herankommen.
 
Glub schrieb:
Versucht ihr direkt die Founders zu bekommen oder wartet ihr erstmal die Custom ab?
FE, wenn ich keine ergatter, wirds wohl eine 3070 FE werden, was eh die vernünftigere Wahl für mich wäre. Und wenn ich auch keine 3070 FE bekomm, ja, dann schau ich mir halt an, was es an Custom Dingern gibt. Mir gefallen die FE wirklich sehr gut und zumindest der Kühler der 3080 scheint auch wirklich gelungen zu sein, wie man jetzt sieht. OC-Potenzial dürfte aber bei Customs höher sein, wer seine Ampere voll ausreizen will, wird vermutlich nicht zur FE greifen, mir ist das aber relativ egal, ich werd wahrscheinlich sogar das Power Target ein bisserl senken, die Ergebnisse in diesem Test sind ja vielversprechend.
 
Luxmanl525 schrieb:
Hallo zusammen,

@ Rockstar85

Ich bin mir auch relativ sicher, daß AMD zumindest in den Hemisphären der 3080 auf der Pfanne hat. Meine Hoffnung ist ja, daß sie ähnlich schnell, aber deutlich stromsparender und somit weniger Abwärme entwickeln. Das Ganze mit mehr VRam und das wäre mehr als eine Alternative. Der Schluß liegt auch wegen der Preisgestaltung von Nvidia nahe. Ohne Grund haben die nicht um 100 Dollar günstiger die FE in den Markt platziert. Zu verschenken hatte gerade Nvidia noch nie was.

Persönlich geht mir das mit den Strombedarfseckdaten bei Nvidia in die völlig falsche Richtung. Und gerade daß sie das so in Kauf nehmen, läßt für mich umso mehr Hoffen, daß AMD einen großen Schritt nach vorne auch bei den GPU`s gemacht hat bzw. machen wird.

So long...

wie sieht ihr das eigentlich bzgl. der RTX3080 und dem Powertarget. Wäre es für User mit entsprechenden Bedürfnis nach Effizienz und ggfs. auch Lautstärke nicht eine Option die RTX3080 einfach permanent auf dem 270W Power Target zu betreiben oder ggfs. auf einem Sweet Spot irgendwo zwischen 270W und 320W?
 
So siehts aus.

Gott oh Gott 10% weniger FPS (in FullHD). Schrecklich :volllol:
 
  • Gefällt mir
Reaktionen: bad_sign, Iarn und Windell
Die Leistung ist ja mal extrem... Die Leistungsaufnahme allerdings auch. Was machen da erst die Custom OC Modelle?

Ich habe Zeit. Warte alle Releases ab, inklusive AMD, und schau mal was sich so für mich ergibt. Ich hab's nicht eilig, die 2070S ist noch genauso gut wie gestern.
 
bad_sign schrieb:
Das geschwätz von euch verstehe ich hier in dem Zusammenhang auch nicht.
In FHD limitiert jede CPU, also generell nichts würdig.
Nur UHD kann die Dinger zuverlässig auslasten, aber man sieht ja schon in WQHD, die Abstände sind immer gleich, über alle Seiten, die ich gesehen habe.
3080 = 2080TI + 35%
Ist doch einfach, ganz ohne gezehter^^
Ich verstehe die Probleme und das "Limitiert" Gelaber von Manchen hier auch nicht.
War doch immer so,wer die meisten FPS in FullHD etc. haben will greift zu Intel.
Der Rest greift zu AMD. Und hier bekommt man trotzdem noch mehr als genug.
 
KlaraElfer schrieb:
Die 2080 Super......
Alles klar, du willst dich also mal wieder rausreden indem du nicht auf meine Inhalte eingehst sondern nur um den heissen Brei herum redest und nutzt die Diskussion mal wieder nur zum Spamen und Trollen.
Damit kann ich mir also weitere Diskussionen sparen.
 
jk1895 schrieb:
1. wurde die 3900 XT CPU als möglicher Bottleneck besprochen? Wird ein Vergleichstest mit einem 10900K gemacht?
HardwareUnboxed hat gegen getestet und es ändert sich nichts relevantes zwischen intel und amd als Plattform. Beide sind für 1080p zu langsam und in wqhs und 4k normal schnell genug.

ab Minute 24:30, es gibt in der Beschreibung auxh timestamps
 
  • Gefällt mir
Reaktionen: ahuev0, McTheRipper, jk1895 und 4 andere
Hallo zusammen,

@ DeadMan666
DeadMan666 schrieb:
wie sieht ihr das eigentlich bzgl. der RTX3080 und dem Powertarget. Wäre es für User mit entsprechenden Bedürfnis nach Effizienz und ggfs. auch Lautstärke nicht eine Option die RTX3080 einfach permanent auf dem 270W Power Target zu betreiben oder ggfs. auf einem Sweet Spot irgendwo zwischen 270W und 320W?
Ich würde sowieso mal auf die Custom Versionen Warten. Die wenigsten werden sich ein FE Modell der 3080 holen. Inwieweit sich durch Senken des Power Target eine niedrigerer Stromverbrauch ergibt, muß man Testen. Das würde ja wohl auch auf Kosten der Performance gehen. Das muß halt jeder für sich Austesten, was man an Kompromißen bereit ist für sich selbst einzugehen.

Persönlich halte ich das aber etwas daneben, so eine Karte zu Kaufen, wenn man sie dann beschneidet. Dann würde ich viel eher auf eine RTX 3070 oder gar 3060 Warten.

So long...
 
matty2580 schrieb:
Nein, die 3090 ist ja eher der Nachfolger der 2080ti, und die wird ja noch einmal schneller sein, so dass am Ende auch 40% Mehrperformance herauskommen können. Das wird der Test hierzu bald zeigen.
Man wird sehen wie die 3090er performt, für mein Tower und bei dem Gewicht würde ich so eine schwere und sperrige Karte eh nicht kaufen, dabei bin ich eigentlich genau die Zielgruppe für Highend PC Enthusiast... egal wie günstig oder wieviel Leistung (Kurzzeitig) die bringt, was hab ich davon wenn mein PCI-E Slot kaputt gerissen wird oder mein Tower sich auf 60° aufhitzt und der Luftstrom blockiert wird!?

Das wäre absolute und ausschließlich etwas für Wakü Bastler, aber ich bin nicht bereit mir eine 1500€ FE Karte mit nen 400€ Wakü Kühlblock zu holen, der dann bei der nächsten Gen nicht mehr benutzt werden kann.

Wenn ich nur daran denke, an Wasser und Elektronik und dann irgendwann was undicht wird... nee sowas geht gar nicht.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Piledriver
Mich würde interessieren ob CB das Abenteuer wagt, die von NV besagte 1.9X Effizienzsteigerung zu erreichen...und unter welchen sonderbaren Umtsänden NV die erreicht haben soll...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: karl_laschnikow, aldaric und Piledriver
Top Leistung, hoher Verbrauch aber dennoch gute Effizienz, also eigentlich ideal. mit etwas undervolting sind definitiv mehr als 10% Effizienzsteigerung möglich, wie der Test bei 270W zeigt.

Jetzt nur hoffen, dass rx 6900 auch rockt, dann ist allen geholfen :-)
 
@m.Kobold:
Huang hat nicht umsonst die 3090 als Biest bezeichnet. ^^
Das ist natürlich eine monströse GPU, in jeder Sicht.
Dafür hat man dann 2 Jahre lang Ruhe, und die stärkste GPU im Gehäuse.
 
Trinoo schrieb:
über 1000 Kommentare und (das meine ich mit aller Liebe und dem maximalen möglichen Respekt) ... soviel Bullshit und Hate
Deswegen macht das Lesen der Kommis mit Bier und Popcorn besonders viel Spaß ;)
 
  • Gefällt mir
Reaktionen: DonL_, iceshield, che.guevara und eine weitere Person
Nach RDNA2 kom mt RTX3070Ti
Malustra schrieb:
Und das wird sich so schnell auch nicht ändern.
4K ist und bleibt für mich eine Spielerei für Enthusiasten.
Letztlich führt 4K immer wieder zu abgespeckten Grafiksettings, wenn man gute FPS Raten haben möchte.
Besonders eben bei anspruchsvollen Titeln. Wenn man sieht, dass die 3080 da so im Schnitt bei 50-70 FPS rumdümpelt, ist das jetzt nicht besonders berauschend, wenn man einen 144hz Monitor nutzt.
Allgemein sind so geringe FPS Raten nicht besonders smooth. Ich bin mit hohen FPS Raten in Full HD verwöhnt
und möchte nicht ständig bei diesen Raten rumdümpeln oder GRafiksettings abspecken.
Insofern ist 4K für mich nach wie vor Unsinn fürs Gaming. Außer bei ruhigeren Titeln oder eben Titel,
die nicht so anspruchsvoll sind. WQHD halte ich für anspruchsvoll genug.

Meine Meinung :D


Es wird nie 4k karten geben !

Die kommenden Next-Gen ports und schon bist du mit "relativ" neuen karten ala 5700XT bei 35-40FPS (WQHD)

RTX3080 ist zwar deutlich schneller aber in den kommenden Next-Gen Ports steady 60FPS ? Never ever und erst recht nicht in 4K !


Meine Großmutter (Sandy) und mein Großvater (Paskal) sind Unzertrenlich. 💋👄👅

Ampere klingt zwar sexy, Latinosaaa ! Nein Sandy, nur schauen, nicht anfassen.

Klartext : Mein 2600k ist sehr alt, lohnt nicht mehr :D
 
SPECIALIZED- schrieb:
Nicht in Full HD und WQHD...


Das würde ja bedeuten, dass später folgende 4k FPS und all Detail Video auf Youtube erheblich voneinander abweichende Resultate haben, wenn sie unterschiedliche CPU´s bzw. Hardware Settings dafür verwenden.

Dem ist ja aber nicht so.

Oft pendeln sich die Ergebnisse bei selben FPS auf 4k und All Details ein, auch wenn da vollkommen unterschiedliche CPU´s verwendet wurden.

Auch die Benchmarks unterscheiden sich nicht sonderlich.
Ob hier nun ein 3900x oder ein 3700x Verwendung findet, wird die Ergebnisse nicht sonderlich besser oder schlechter aussehen lassen.

Wenn die CPU natürlich erheblich langsamer oder älter ausfällt, bin ich bei dir.

Wir sprechen ja von aktuellen und schnellen CPU´s.

Meinst du eventuell die neue 4000 Reihe ist 4k optimierter?
 
Den besten Deal haben wohl diejenigen gemacht die sich ne 2080ti um 500€ in der Bucht geschnappt haben.

Bin gespannt ob die 3070 auch so sehr auf Lanze genäht wurde.
 
Zuletzt bearbeitet:
Zurück
Oben