Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
Ich werde mir die Karte zwar nicht kaufen, viel zu teuer für mich und Sandy zu alt aber vielen Dank für den tollen, sehr ausführlichen Test. Wolfgang, versuche stark zu bleiben und denke nicht mehr darüber nach ! Das Leben muss ja irgendwie weitergehen.
... Karte ist nicht der Vollausbau und wäre deiner Logik folgend der wirkliche Nachfolger der 2080Ti, wobei das wiederum von der Chipgröße eigentlich GA100 wäre, welcher ja nicht als Geforce kommen soll.
Insgesamt macht keine Einordnung so wirklich Sinn.
Natuerlich macht die Einordnung nach Chips mehr Sinn mit Bezug auf die Leistungssteigerung als ueber die Herstellerbezeichnungen von Modellklassen, denn zu suggerieren, von einem deutlich kleineren 104er (TU) Chip zu einem 102er (GA) Chip (in kleinerer Node gefertigt) sei es eine grosse Leistung 60(+)% mehr an Leistung generationsuebergreifend zu schaffen, kann es ja wohl nicht sein .
Von Chip(-groesse) zu Chip(-groesse) und unter Einbeziehung der jeweiligen Fertigung laesst sich die Entwicklung und Fortschritt und was man denn tatsaechlich am Ende geboten bekommt besser abschaetzen als ueber irgendwelche Namen, die aus der Reihe fallen und die Leistungsklassen/Chipgroessen nicht richtig widerspiegeln.
Der 100er Chip war m.W. noch nie ein GeForce Chip (zumindest nicht in juengerer Vergangenheit), sondern immer der 102er Chip die Maximalausgabe (im Vollausbau dann die nVidia Titan Serie repaesentierend seit der Einfuehrung in der Kepler-Generation) und eine RTX 3090 wird ein (Quasi-)Vollausbau werden aller Voraussicht nach (somit ein RTX Titan Nachfolger).
Auch wenn die RTX 3090 unter dem GeForce Label laeuft (keinen Titan-Titel erhaelt), so ist sie vordergruendig eher fuer semi-professionelle Nutzter, da "8K-Gaming" ein Buzzword ist und nicht mehr (als Nische wuerde ich es noch nicht einmal bezeichnen mangels passender Hardware, da es auch medial nicht wirklich von Fachseiten/-zeitschriften abgedeckt wird und die paar von nVidia eingeladenen, gehypten Streamer von der RTX Ampere GeForce Vorstellung aendern zumindest fuer mich auch nichts daran), interessant aufgrund der massiven Speicheraustattung, denn fuer Spiele werden 24GB auf absehbare Zeit ein kompletter Overkill sein, ebenso wie die 8GB einer RTX 3070 teilweise jetzt wohl schon zu knapp sein duerften und die 10GB einer RTX 3080 auch schon knapp bemessen sind im hier und jetzt (mit Blick auf die Zukunft wohl limitierend im ein oder anderen Fall), weswegen ja 16GB und 20GB Versionen respektive von nVidia nachgeschoben werden sollen fuer einen deutlichen Aufpreis.
Ergänzung ()
Auch wenn die GeForce RTX 3080 Founders Edition unter Last nicht wirklich leise ist ...
Das duerften die Boardpartner wohl deutlich besser hinbekommen als die 42.5 dB unter Last und da haben die von einigen (nVidia Fans) verteilten Vorschusslorbeeren zum nVidia-Kuehler wohl nichts geholfen, denn man bleibt trotzdem zweite Wahl gegenueber guten Custom-Designs, so wie es aussieht.
Da fehlt eben scheinbar doch das Know-How bei nVidia, auch wenn man das bei der Vorstellung anders herueber gebracht hat (den Mund wohl zu voll genommen hat, naja, das kennt man ja von Huang und Co. ... Abteilung Maerchenmarketing) und auch wenn das Kuehlkonzept innovativ in Ansaetzen ist, so macht es den Erfahrungsvorsprung der Boardpartner wohl nicht wett.
Die hoeher als bei Turing ausfallende Lautstaerke der Kuehlung von ueber 40dB beim Founders Edition RTX Ampere Klotzdesign und der Verbrauch (322(+)W ist schon heftig und duerfte diverse Raeume schon gut aufheizen) sind neben den mageren 10GB Speicher wohl die Schwachpunkte der RTX 3080, auch wenn diese natuerlich gegenueber dem Vorgaenger i.a. deutlich zulegt und daher sichtbar Mehrwert bietet, aber dass Turing als RTX-Erstgeneration sehr schlecht altern wuerde und eine relativ schwache und ueberteuerte nVidia GPU-Generation ist/war, das war vielen ja schon kurz nach Ankuendungung und Veroeffentlichung erster Tests klar .
Leistung dort wo sie zu erwarten war. Aber guter Test mit Komponententemperatur und gpgpu. Somit sollte fast keiner mehr was zu meckern haben.
Interessanter ist da für mich eher, dass die FE nun nach einer Ewigkeit nachzieht und im idle stillsteht.
Wobei die 2080Ti durchaus ganz ok getaktet hat mit ca. 1870 MHZ ohne OC, aber die Lautstärke der FE ging mal gar nicht.
Bin gespannt, ob hier Partnerkarten noch ein wenig Leistung rausholen können. Das Asus Kühlsystem sieht auf jeden Fall im direkten Vergleich einfach nur FETT aus.
Preislich schiebt sich die 2080Ti damit auf ca. 480€ neu was mit den aktuellen 450€ als schnitt ganz gut hinkommt.
Bei der DLSS Leistung muss man auch noch bedenken, dass die 2080Ti noch über 500 Kerne für die Leistung benötigt hat, also die wurden definitv effizienter, wenn man davon ausgeht, dass sie nun weniger sind und auch der Platz geringer ist bzw. Leistungsaufnahme gesunken .
Vielleicht hat ja jemand Bock hier nochmal den Verbrauch mit und ohne DLSS zu testen bei der 3080 und wenn er noch nicht verkauft hat seiner 2080Ti.
Mit der doppelten FP32 Sache wird es wohl in Zukunft wieder größere Schwankungen geben, je nach Game.
Da dieses Argument immer und immer wieder kommt, hier eine einfache Erklärung:
Bei AMD wurde sich bei den ganzen GCN-Ablegern der letzten Jahre immer beschwert, weil die sowohl deutlich langsamer als auch deutlich durstiger waren als die Konkurrenz.
Wenn eine Karte eine hohe Leistungsaufnahme hat, ist das immer in Relation zur Leistung zu sehen, es gibt ja nicht umsonst die Performance pro Watt Graphen.
Die Performance pro Watt bei den AMD-Karten vor Navi war nun mal schrecklich, während die 3080 weiterhin effizient arbeitet.
Außerdem beschweren sich doch hier auch genug Leute, teilweise zu recht, teilweise zu unrecht. Wahrscheinlich hätte Nvidia positivere Reaktionen erhalten, wenn sie die letzten 5% Leistung zu Gunsten der Effizienz geopfert hätten, aber das kann man auch mit 2-3 Klicks selbst regeln.
Nein, Navi 10 war sehr effizient, und Performance pro Watt war auf Turing-Niveau.
Und wie RDNA 2.0 wird, weiß noch niemand.
Die 3080 ist auch nicht sehr effizient.
Nicht umsonst steht im Test, dass für 4% mehr Leistung die 3080 gleich 50 Watt mehr verbraucht.
Effizient wird es erst, wenn man die GPU auf 270 Watt reduziert.
Das Rating eines Netzteils ist immer die Ausgangsleistung, nicht die Eingangsleistung. Die Effizienz spielt überhaupt keine Rolle.
Wenn man sich Igors Messungen zu den Transients anschaut, wird es eng mit dem 550 Watt, aber durchaus machbar. OCP wird wohl erst bei ca. 600 für 10-20 ms anspringen. Mit ansonsten sparsamer Hardware (z.B. 3700X, SSDs) wird das wahrscheinlich selbst mit FurMark + Prime passen.
Ein 9900K/10700K/10900K System wäre unter so einer Last jedoch garantiert nicht mehr stabil, in normalen Gaming-Workloads bzw. FurMark oder Prime sollte selbst das noch grenzwertig klargehen. Das wäre jedoch nicht die bedingungslose Stabilität, die ich mir für ein System wünsche.
Um so mehr sonstige Verbraucher wie HDDs oder Pumpen dranhängen, desto eher sollte man davon Abstand nehmen.
Wer in diesem Forum ist denn competetiv Spieler? Vllt 0.1% aller Spieler der kann sich ja die Intel cpu kaufen der Rest fährt mit der AMD CPU ganz gut und auch für so einen test ist da nichts falsches dran.
Sorry ich habe Linea früher gerne geschaut aber kann den in seiner passiven aggressiven Art nicht mehr ernst nehmen gepaart mit seiner Dauer Fanartikel Werbung
In dem Video jammert er über die temps macht die Karte schlecht und kurz darauf ach ja die founders der 2080ti ist wärmer gewesen ...
Da wundert mich auch. Ansonsten finde ich, die rtx 3080 FE ist eine sehr feine Karte. Danke für den Test @Wolfgang, für die kurze Zeit hast du ja echt reingehauen, und das bei dem Wetter....
Ansonsten die Bitte auch an alle den Hinweis Seite 1 unten zu beherzigen. Schaltet den AdBlock aus, oder gönnt euch pro. Ich surfe hier mit Werbung und wenn was ist, sind @Jan oder @Steffen sofort dabei. Und wenn die mal ein Wochenende die Anzeigen abschalten und auf Google ads gehen, mit entsprechenden Verlusten..... (Wie kann man User taggen ohne sie anzusprechen? Frage für Freund)
Zunächst einmal haben die ersten Grafikkarten mit PCI-E 4.0 bereits gezeigt, dass es durchaus einen Unterschied macht, ob der volle Durchsatz genutzt wird oder nicht. Im Test von ComputerBase konnte das im Worst-Case zu einem Unterschied von bis zu 19% (!!) führen.
Die 19% werden aber nur dann erreicht, wenn der Grafikkarte der Speicher ausgeht. D.h. Lowend-Karten mit wenig Speicher profitieren da mehr als Highend-Karten, wo man alles im Grafikkartenspeicher halten kann. Und auch will, weil das sonst mit Performanceeinbrüchen verbunden ist.
Das ist zwar nur whataboutism, aber was solls: Laut CB Hardware-Umfrage rund 14% der Leser und das Monitor-Angebot bei Mindfactory (als Indiz für die Nachfrage) sieht wie folgt aus:
520 Monitore mit FHD
116 mit WQHD
138 mit 4K und Obacht!
Ganze 25 mit der komischen 3440 Auflösung!
Davon, dass 4K mittlerweile zum Standard bei Fernsehern geworden ist, fang ich mal nicht an.
Und wenn man mal zusätzlich annimmt, dass der CB-Test auch für CB-Leser gemacht ist, dann sind mit den Auflösungen FHD, WQHD und 4K rund 80% aller Leser laut CB-Hardwareumfrage bedient. Sonst noch Fragen?
Es geht um die 'letzten 4%' und im Limit bewegt man sich dann halt an Grenzen.
Jede/r mit Grafikkarten (und CPU) Overklocking erlebt das.
Man kann natürlich darüber spekulieren, warum nVidia sich das angetan hat, diese letzten 4% noch aus der FE Version der 3080 rauszukitzeln, obwohl es, verglichen mit dem Vorgängermodell, gar nicht nötig war.
Vielleicht werden wir das bei Vorstellung der neuen AMD Karten dann sehen.
ich sehe das persönlich auch entspannt, in wenigen Wochen kommt vermutlich ZEN3 mit Single-8-Core-CCX und weiteren Optimierungen.... klar kommt alle paar Monate was "Besseres" vlt. schlägt der neu 8-Core von Intel in 2021 den ZEN3 usw. usw. blabla
Ein schlechtes Game bleibt auch mit vielen FPS schlecht oder andersrum ^^!
Danke für den ersten Test der neuen Generation. Schon an der Beitragszahl kann man das große Interesse sehen. Von Wolke 7 bis Realismus sind alle Meinugen vertreten. Ich warte dann mal auf die ersten....Hilfe er stürtzt immer ab Meldungen. Noch sind die Karten für viele ja Weihnachtsträume. Die Händler wirds freuen, kriegen die doch auch gleich Netzteile im Bundle mit los.