Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

aldaric schrieb:
Nun hat nVidia den Shrink auf 8nm + neue Architektur und braucht für 40% mehr Leistung auch 20% mehr Energie.

Und nun?
Wenn du den Test wirklich gelesen hättest, wüsstest du das die Performance / Watt und somit die Effizienz gegenüber Turing und erst Recht gegenüber AMD´s Pseudo 7nm Prozess stark verbessert wurde, und stand Heute die beste Effizienz am Markt ist.

Und nun?
 
  • Gefällt mir
Reaktionen: Alex1966
aldaric schrieb:
Sind diese Leute irgendwie nicht dazu in der Lage sich zu informieren?

Nö.
Weil alle blindlings auf Zen2 umgesattelt haben und nun im CPU Bottleneck hängen :hammer_alt:
 
  • Gefällt mir
Reaktionen: gesperrter_User, ZeroStrat, .Sentinel. und eine weitere Person
Erstmal danke für den ausführlichen Test!
Dennoch sind mir paar Sachen aufgefallen die glaube ich einer Korrektur bedürfen.

  • "Mit 699 Euro liegt die UVP der GeForce RTX 2030 FE unter dem Niveau der GeForce RTX 2080 FE von vor zwei Jahren"
  • In den Hybrid-Spielen beträgt der Vorsprung der GeForce RTX 3090 zur GeForce RTX 2080 Ti mit Raytracing „nur“ 39 Prozent, in Quake 2 RTX sind es dagegen gleich 49 Prozent und in Minecraft RTX sogar 55 Prozent.
  • Die GeForce RTX 3080 Ti legt durch DLSS in der Spieleauswahl um 87 Prozent zu, bei der GeForce RTX 2080 Ti sind es 88 Prozent.
  • Die GeForce RTX 3080 Ti benötigt beim Spielen gemessen 322 Watt und damit innerhalb der Messtoleranz so viel, wie Nvidia mit 320 Watt vorschreibt.
Korrigiert mich wenn ich falsch liege aber sonst wird es für den Leser zu verwirrend... :D
 
Zuletzt bearbeitet:
Killerattacks schrieb:
Wer kauft sich einen 3900X und eine 3080 um nicht in 4K zu spielen?
Ich würde es machen. :) Um möglichst viel FPS in WQHD zu bekommen und nebenbei zu streamen.
 
  • Gefällt mir
Reaktionen: nikky, Magl, Bert und eine weitere Person
Also nach all den Leaks hatte ich tatsächlich mit etwas mehr Leistung gerechnet. Enttäuscht mich nun doch etwas. Da bleibe ich wohl noch eine Weile bei meiner 2080. Bevor die 3080 mit 20GB VRAM raus kommt, kaufe ich mir sowieso keine 3080. Die 3090 wird vermutlich nur so 20% besser sein als die 3080, aber kostet eben auch unmengen mehr, so dass es sich nicht rentiert.
 
Für die 2080 TI User lohnt sich demnach ein sofortiger Umstieg eher nicht oder?

Interessant wird es nochmal bei kommende Spiele wie z. B. Cyberpunk 2077 oder BF6.
 
BmwM3Michi schrieb:
Super Karte! 5% Untertakten und 50 Watt sparen! Und nur 1% Verlust mit PCIe 3.0!

Anhang anzeigen 967282
Da stelle ich mir die Frage, warum Nvidia die Karte an der Kotzgrenze konfiguriert ausliefert? Haben die seit Jahren nicht nötig gehabt und meist nahe Sweetspot ausgeliefert.

Vielleicht hat AMD mit BigNavi doch eine gute Konkurrenz im Köcher ;)
 
  • Gefällt mir
Reaktionen: Colindo, Zwirbelkatz und tunichgut
Das ist noch nicht mal die Speerspitze der Serie. Alle Achtung!
 
  • Gefällt mir
Reaktionen: SPECIALIZED- und Zwirbelkatz
Danke CB für den ausführlichen Test. Jetzt noch die 3090 abwarten, und entscheiden.
 
snickii schrieb:
Ich würde es machen. :) Um möglichst viel FPS in WQHD zu bekommen und nebenbei zu streamen.
Bei hohen Bildwiederholraten, vor allem in niedrigen Auflösungen, ohne GPU-Limit ist nach wie vor Intel die Nummer Eins.
 
  • Gefällt mir
Reaktionen: CableGuy82
DocWindows schrieb:
Dass nVidia 50 Watt für 4% mehr Performance eingestellt hat finde ich hingegen richtig ärgerlich. Für mich völlig unnötig. Würde ich eine 3080 Kaufen, dann wäre immer ein 280W Powertarget eingestellt.
Jetzt sag ich es nochmal, ein UV Test mit Curve Editor gehört meiner Meinung auch noch rein. Schon meine 1070TI konnte ich mit über 50W weniger betreiben, bei einem Leistungsverlust von unter einem Prozent.
Und ganz wirklich hätte man die Lautstärke und Temp mit 270W auch noch festhalten können. Für die kleine Karte macht der kleine Kühler das nämlich ganz hervorragend.
 
  • Gefällt mir
Reaktionen: marodeur und lugge
Nahrungsmittel schrieb:
Da stimme ich dir vollkommen zu, aber du musst auch bedenken daß ein sehr großer Teil ebenfalls eine ryzen CPU (Zen 3) besitzt mit einer RTX 2080 TI. Für die Leute lohnt sich so ein Upgrade in WQHD absolut garnicht mit einer ryzen CPU.
Verkehrte Welt? Wenn jemand vorher schon in höhere FPS Regionen vorstossen wollte, hat er schlicht die falsche CPU gekauft. Dies sollte man in einem dedizierten CPU Benchmark-Kurs heraus finden.

In diesem Test geht es um Grafikkarten und hier hat man mit dem Ryzen 3900X leider die falsche CPU gewählt, weil alle Werte unter 4K für das ungeschulte Auge eine langsamere 3080 vermitteln.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Toni_himbeere, KlaasKersting, tomasvittek und 4 andere
Die GeForce RTX 3080 Ti benötigt beim Spielen gemessen 322 Watt und damit innerhalb der Messtoleranz so viel, wie Nvidia mit 320 Watt vorschreibt.

Ich glaube, das TI gehört da nicht hin, außer ihr habt noch andere, nicht angekündigte Karten erhalten :)

Schöner Test, danke dafür. Ziemlich gute Leistung, ich warte aber weiterhin auf AMD und entscheide dann. Gemessen an meiner GTX 1080 ist das hier ein sehr großer Sprung.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
edenjung schrieb:
Gibts noch nen Test mit einer 1070?
Meine 980ti ist ja in etwa so fix. Da möchte ich schon wissen wie viel schneller die ist.
nimm doch einfach die 1080 als Referenz und zieh noch etwas davon ab. Dürften so etwa 25% sein gegenüber der 1080, wenn ich es noch recht in Erinnerung habe.
 
Killerattacks schrieb:
Bei hohen Bildwiederholraten, vor allem in niedrigen Auflösungen, ohne GPU-Limit ist nach wie vor Intel die Nummer Eins.
Der hat aber nur 10 Kerne und ist mir zu viel Heizung.
Ich nehme lieber 12 Kerne zum streamen.
 
ModellUVP zum MarktstartMarktstart
GeForce RTX 2080 FE849 Euro19. September 2018
GeForce GTX 1080 FE789 Euro17. Mai 2016
GeForce RTX 3080 FE699 Euro17. September 2020

Dass die 3080 so vergleichsweise günstig ist, kann doch eigentlich nur bedeuten, dass Nvidia Informationen über die Leistung von AMDs bald erscheinenden Grafikkarten hat, und diese diesmal auch im High-End Bereich konkurrenzfähig sind und Nvidia deshalb die Preise zum Marktstart senken musste, oder?
 
  • Gefällt mir
Reaktionen: Magl, Stellarix, m2020 und eine weitere Person
CrustiCroc schrieb:
Wenn du den Test wirklich gelesen hättest, wüsstest du das die Performance / Watt und somit die Effizienz gegenüber Turing und erst Recht gegenüber AMD´s Pseudo 7nm Prozess stark verbessert wurde

Warum sprichst du immer vom Pseudo 7nm Prozess? Was der "Pseudo" Prozess zu bieten hat, sehen wir dann ja bald.
 
  • Gefällt mir
Reaktionen: Kodak, Rock Lee, CableGuy82 und 2 andere
Smartin schrieb:
nimm doch einfach die 1080 als Referenz und zieh noch etwas davon ab. Dürften so etwa 25% sein gegenüber der 1080, wenn ich es noch recht in Erinnerung habe.
Ich hab jetzt beiu Pcgh gekuckt.
sind 179% mehrleistung.

mein gott, warum hab ich nur im sommer keinen job gefunden für die vorlesungsfreie zeit.
 
  • Gefällt mir
Reaktionen: Zotac2012
20-23 % schneller, enttäuschend.. soviel zu 40% blalba
 
  • Gefällt mir
Reaktionen: MouseClick68, PES_God, WolledasKnäul und eine weitere Person
GUN2504 schrieb:
[URL='https://www.computerbase.de/forum/goto/post?id=24622484']BmwM3Michi[/URL] schrieb:
Super Karte! 5% Untertakten und 50 Watt sparen! Und nur 1% Verlust mit PCIe 3.0!

Da stelle ich mir die Frage, warum Nvidia die Karte an der Kotzgrenze konfiguriert ausliefert? ...

Das ist echt verwunderlich, 50 Watt mehr bei so wenig Mehrleistung, sieht doch besser aus wenn man unter den 300 Watt liegt anstelle drüber bei diesem Leistungsunterschied.
 
Zurück
Oben