Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Supermax2004 schrieb:
Gibt es irgendwo nen 3080er Test, wo die Lüftergeschwindigkeit mit der Lautstärke und der Temperatur verglichen wurden? Irgendwelche maximal drehenden Lüfter mit ordentlicher Lautstärke schreckt nur ab :)
Gibt es, hier wird das Thema recht detailliert abgehandelt, nach ein paar Minuten sieht man auch Geräuschpegel vs RPM:

 
KlaraElfer schrieb:
Das Problem ist, dass unterschiedlich hohe Auflösungen GPUs auch unabhängig von der CPU anders auslasten können. Dieses Verhalten sehe ich, wenn die CPU limitiert allerdings nicht.
Selbst in UHD limitiert der 3900XT noch in Anno stark.

Nehme ich Anno aus dem Parkour (UHD) ist die 3080 32% statt 31% vor der 2080Ti.
Anno ist lieder softwaretechnischer Müll, dafür im Gameplay top :) (die Kombi gibt es sehr häufig)
Ich hab das Game letzte Woche versucht mit nem Kumpel Multiplayer zu zocken und bei Release hatte ich genau 2 DX error mit Crash, nun hab ich sie alle 20 Minuten.
 
geiles Teil, preislich sogar attraktiv für die Leistung, aber sind Stromfresser, von daher nix für mich, ich bleib bei wqhd
 
Caseking hat ja schon Custompreise agegeben, die aber ausdrücklich noch keine Endpreise sind: gehen bis ca. 850€ für Asus hoch.
Alternate hingegen hat noch nicht einmal irgendwelche Anzeichen, daß es neue Karten geben könnte. Seltsam.
 
Die 3080 scheint eine 2080 Ti zu sein, im kleineren Fertigungsverfahren und mit höherem Verbrauch und günstiger durch 8nm. Das ist eig. alles, Perf/Watt Steigerungen sind hier kaum zu sehen, die 7-8% Mehrperformance (bei gleichem Verbrauch) sind kaum der Rede Wert.

Okay. Ist hier im test bewiesen 30% schneller aber du redest dauernd von 7-8 %. Selbst die 2080ti OC ist 15% Langsamer als die 3080 FE. Aber 7-8% hmm.. Du solltest das Feierabendbier auf eins beschränken damit du Informationen die du schwarz auf weiß vor dir hast auch deuten kannst.
 
Zuletzt bearbeitet von einem Moderator:
Reziel schrieb:
Naja DLSS ist für mich wie Alkoholfreies Bier.
Alkoholfreies Bier = Leber verarsche
DLSS = Augenkrebs
nicht wenn du es als reines AA native einsetzt wenn es bald kommt.
 
  • Gefällt mir
Reaktionen: Wintermute
PHuV schrieb:
Ich finde super und prima, daß endlich mal auch vernünftige Anwendungsbenchmarks mit DaVinci Resolve, Blender, Premiere und Co. erstellt wurden. 👍 👍 👍 Das wird bei vielen anderen Tests immer sträflich vernachlässigt, auch wenn viele nur mit den GPUs spielen wollen.
/signed! Das fand ich auch sehr gut! - auch der Leistungszuwachs ist erstaunlich! Auch, dass die CPU trotz 64 Kerne so abkackt gegen die GPUs xD

Ich bin immer noch verwundert was Ghost Recon Breakpoint und Metro Exodus für Hardwarefresser sind...wieso wird da nichts optimiert? :D Aber gut, evtl. sind es auch nur 1-2 Einstellungen die das ganze so fressend machen?
Also Metro hätte DLSS 2.0 bitter nötig! So was muss in mehr Spiele...dann bin ich auf jeden Fall wieder bei NV!


Mögen die Next-Gen-GPU-Games beginnen!

PS: hier ballern die Kommentare im Sekundentakt raus.... beim Test lesen sind ~200 dazu gekommen O.o! heftig!
 
Adzz schrieb:
Okay. Ist hier im test bewiesen 30% schneller aber du redest dauernd von 7-8 %. Selbst die 2080ti OC ist 15% Langsamer als die 3080 FE. Aber 7-8% hmm.. Du solltest das Feierabendbier auf eins beschränken damit du Informationen die du schwarz auf weiß vor dir hast auch deuten kannst.

Lesen ist nicht deine Stärke oder? In dem Quote steht sogar drin worauf die 7-8% bezogen sind.
 
Maggolos schrieb:
Je nach Engine kann das Ergebnis groß sein.
Besonders für 144Fps Gamer ist das Relevant.

Anhang anzeigen 967349Anhang anzeigen 967349
Ja bei 1440p zieht intel wie immer klar davon. Mein 8700K@4,9GHz hängt auch den fürs gaming überteuerten 3900XT problemlos ab.

Viele Reviewer scheinen zu vergessen, auf welchen Monitoren 1440p Gaming betrieben wird, nämlich auf 144HZ Geräten und da sind die Ryzens nach wie vor einfach Bremsklötze.
 
  • Gefällt mir
Reaktionen: Mucho79, .Sentinel. und Gsonz
Adzz schrieb:
Okay. Ist hier im test bewiesen 30% schneller aber du redest dauernd von 7-8 %. Selbst die 2080ti OC ist 15% Langsamer als die 3080 FE. Aber 7-8% hmm..

Die Effizienz in 1440p ist um 7-8% gestiegen, das ist schon richtig.

Screenshot 2020-09-16 182727.png



In 4K sinds 10%.

Und natürlich kann man von 25% sprechen wenn man beide Karten auf 270W limitiert, nur verkauft Nvidia die Karte eben mit 320W und so gehört sie dann auch bewertet.

Und 7% sind für eine neue Gen mit neuer Architektur und neuem Prozess schon ziemlich mager, das hätte man wunderbar als 25% vermarkten können, wenn man die KArte einfach mit 275W gebracht hätte.
 
  • Gefällt mir
Reaktionen: hurcos, Kalsarikännit, voalirus und 4 andere
Die mit Abstand beste GPU der Welt Kostet im Moment 699 Euro. Das gab es schon lange nicht mehr. Wenn einer Anfang des Jahres gesagt hätte das die 3080 sogar die 2080 ti um 30% schlägt und nur die Hälfte kosten wird, hätte es niemand geglaubt und die Person verspottet. Jetzt ist es aber für manche plötzlich nicht mehr gut genug. Neid ist die 6te Todsünde nur so nebenbei.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: MeisterOek, xexex und Cpt.Willard
Maggolos schrieb:
Je nach Engine kann das Ergebnis groß sein.
Besonders für 144Fps Gamer ist das Relevant.

Anhang anzeigen 967349

Ne Steigerung von über 20% kann man schon nicht mehr nur groß nennen. Da liegen einfach mal schon Welten zwischen. Verstehe echt nicht wieso man mit der AMD CPU hier den Gaming-Part getestet hat. Hätte man in den Anwendungen ja machen können. Oder aber direkt ein AMD und ein INTEL System.
 
Leistungssteigerung ist gut, aber bei gleichzeitig höheren Stromverbrauch. Schade hoffentlich schafft AMD ein runderes Produkt. Leistungssteigerung bei mindestens gleichem Verbrauch zum Vorgänger würde mich beeindrucken.
 
  • Gefällt mir
Reaktionen: fox40phil
MiaSanMiaaa schrieb:
Ne Steigerung von über 20% kann man schon nicht mehr nur groß nennen. Da liegen einfach mal schon Welten zwischen. Verstehe echt nicht wieso man mit der AMD CPU hier den Gaming-Part getestet hat. Hätte man in den Anwendungen ja machen können. Oder aber direkt ein AMD und ein INTEL System.
Weil mit Zen3 mit hoher Wahrscheinlichkeit einfach die CPU getauscht wird und man ist mind. on par mit Intel, hat aber PCIe4.0
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
Vendetta schrieb:
Der Samsung 8nm Prozess ist halt am Ende des Tages nur ein verfeinerter 10nm Prozess, auf TSMC 7nm würde die 3080 wahrscheinlich gleich viel schlucken wie ne 2080Ti, vielleicht sogar weniger.
Das ist anzunehmen, allerdings wäre der Chip dann teurer, laut AdoredTV etwa um ein Drittel (vermutlich etwa 70$ anstelle etwa 50$). Somit hätte es sich dann mit dem günstigerem Preis.

Mittlerweile Frage ich mich auch, ob es sogar zu einer 3080 "Super" (oder wie auch immer genannt) mit einem Chip aus der Samsung Schmiede kommen kann, die auch mehr Takt bieten soll (siehe OC Ergebnisse des GPU Chips von CB).
Selbst bzgl. mehr VRAM (20GB GDDR6x) scheint es mir dahingehend gar nicht mal so sicher, da es dafür auch wieder ordentlich mehr Leistung bedarf.
 
Ich finde den Stromverbrauch sehr hoch und bin gespannt, wieviel Mehrleistung ich in Zukunft für 150W (GTX 1070) erhalte.
 
  • Gefällt mir
Reaktionen: fox40phil
das ist eine reine 4k karte
nach bisherigen games auf dem markt und beim dem cpu limit kein wunder.
Selbst ULbenches sind im cpu limit (3dmark)
das oder der benchmark nutzt int32 berechnung
 
Zurück
Oben