Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
Wenn du den Test wirklich gelesen hättest, wüsstest du das die Performance / Watt und somit die Effizienz gegenüber Turing und erst Recht gegenüber AMD´s Pseudo 7nm Prozess stark verbessert wurde, und stand Heute die beste Effizienz am Markt ist.
Erstmal danke für den ausführlichen Test!
Dennoch sind mir paar Sachen aufgefallen die glaube ich einer Korrektur bedürfen.
"Mit 699 Euro liegt die UVP der GeForce RTX 2030 FE unter dem Niveau der GeForce RTX 2080 FE von vor zwei Jahren"
In den Hybrid-Spielen beträgt der Vorsprung der GeForce RTX 3090 zur GeForce RTX 2080 Ti mit Raytracing „nur“ 39 Prozent, in Quake 2 RTX sind es dagegen gleich 49 Prozent und in Minecraft RTX sogar 55 Prozent.
Die GeForce RTX 3080 Ti legt durch DLSS in der Spieleauswahl um 87 Prozent zu, bei der GeForce RTX 2080 Ti sind es 88 Prozent.
Die GeForce RTX 3080 Ti benötigt beim Spielen gemessen 322 Watt und damit innerhalb der Messtoleranz so viel, wie Nvidia mit 320 Watt vorschreibt.
Korrigiert mich wenn ich falsch liege aber sonst wird es für den Leser zu verwirrend...
Also nach all den Leaks hatte ich tatsächlich mit etwas mehr Leistung gerechnet. Enttäuscht mich nun doch etwas. Da bleibe ich wohl noch eine Weile bei meiner 2080. Bevor die 3080 mit 20GB VRAM raus kommt, kaufe ich mir sowieso keine 3080. Die 3090 wird vermutlich nur so 20% besser sein als die 3080, aber kostet eben auch unmengen mehr, so dass es sich nicht rentiert.
Da stelle ich mir die Frage, warum Nvidia die Karte an der Kotzgrenze konfiguriert ausliefert? Haben die seit Jahren nicht nötig gehabt und meist nahe Sweetspot ausgeliefert.
Vielleicht hat AMD mit BigNavi doch eine gute Konkurrenz im Köcher
Dass nVidia 50 Watt für 4% mehr Performance eingestellt hat finde ich hingegen richtig ärgerlich. Für mich völlig unnötig. Würde ich eine 3080 Kaufen, dann wäre immer ein 280W Powertarget eingestellt.
Jetzt sag ich es nochmal, ein UV Test mit Curve Editor gehört meiner Meinung auch noch rein. Schon meine 1070TI konnte ich mit über 50W weniger betreiben, bei einem Leistungsverlust von unter einem Prozent.
Und ganz wirklich hätte man die Lautstärke und Temp mit 270W auch noch festhalten können. Für die kleine Karte macht der kleine Kühler das nämlich ganz hervorragend.
Da stimme ich dir vollkommen zu, aber du musst auch bedenken daß ein sehr großer Teil ebenfalls eine ryzen CPU (Zen 3) besitzt mit einer RTX 2080 TI. Für die Leute lohnt sich so ein Upgrade in WQHD absolut garnicht mit einer ryzen CPU.
Verkehrte Welt? Wenn jemand vorher schon in höhere FPS Regionen vorstossen wollte, hat er schlicht die falsche CPU gekauft. Dies sollte man in einem dedizierten CPU Benchmark-Kurs heraus finden.
In diesem Test geht es um Grafikkarten und hier hat man mit dem Ryzen 3900X leider die falsche CPU gewählt, weil alle Werte unter 4K für das ungeschulte Auge eine langsamere 3080 vermitteln.
Ich glaube, das TI gehört da nicht hin, außer ihr habt noch andere, nicht angekündigte Karten erhalten
Schöner Test, danke dafür. Ziemlich gute Leistung, ich warte aber weiterhin auf AMD und entscheide dann. Gemessen an meiner GTX 1080 ist das hier ein sehr großer Sprung.
nimm doch einfach die 1080 als Referenz und zieh noch etwas davon ab. Dürften so etwa 25% sein gegenüber der 1080, wenn ich es noch recht in Erinnerung habe.
Dass die 3080 so vergleichsweise günstig ist, kann doch eigentlich nur bedeuten, dass Nvidia Informationen über die Leistung von AMDs bald erscheinenden Grafikkarten hat, und diese diesmal auch im High-End Bereich konkurrenzfähig sind und Nvidia deshalb die Preise zum Marktstart senken musste, oder?
Wenn du den Test wirklich gelesen hättest, wüsstest du das die Performance / Watt und somit die Effizienz gegenüber Turing und erst Recht gegenüber AMD´s Pseudo 7nm Prozess stark verbessert wurde
nimm doch einfach die 1080 als Referenz und zieh noch etwas davon ab. Dürften so etwa 25% sein gegenüber der 1080, wenn ich es noch recht in Erinnerung habe.
Das ist echt verwunderlich, 50 Watt mehr bei so wenig Mehrleistung, sieht doch besser aus wenn man unter den 300 Watt liegt anstelle drüber bei diesem Leistungsunterschied.