Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

gr1nd schrieb:
Der Preis ist eher den Next Gen Konsolen geschuldet. Und das PT ist deshalb so hoch, um sich weit genug von der 2080ti abzuheben. Da zählt dann eben jeder Prozentpunkt. Man will eben möglichst viel an Kundschaft erreichen. Mit Big Navi und was der vielleicht kann, oder auch nicht, hat das alles erstmal recht wenig zu tun. Auch wenn sich das mancher hier wünscht.

Wir werden es sehen. Ich bin mir sicher das AMD nah an der 3080 dran ist. Die Konsolen habe in meinen Augen nichts damit zu tun. Ich sehe auch keinen Sinn darin eine Heizung zu bauen um nur 5% mehr vor der 2080TI zu bleiben und damit der 3090 gefährlich nahe zu kommen. Die 3090 ist nur so teuer weil sie ein Alleinstellungsmerkmal haben wird und es ausreichend Leute geben wird die mehr als 100% aufschlagen um nur 20% mehr Leistung zu haben.
 
  • Gefällt mir
Reaktionen: Aldaris
Linmoum schrieb:
Das mit dem weit genug absetzen ergibt wenig Sinn, denn das hat Nvidia bei der 2080Ti auch nicht getan und da war der Leistungssprung in einer ähnlichen Region von 1080Ti zu 2080Ti wie jetzt von der 2080Ti zur 3080.
Wenn die 4-6% nun fehlen würden, wäre der Vorsprung eben deutlich geringer als damals. Und dementsprechend weniger euphorisch wären die Tests gestern gewesen. Und da man das nicht wollte, kam halt die Brechstange.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Schlussendlich sind es dennoch ca. 30% mehr Leistung in 4k im Vergleich zu der 2080 Ti und das bei einer 10% besseren Effizienz. Die Effizienz der 2080 Ti war ja auch schon ziemlich gut.
 
  • Gefällt mir
Reaktionen: mylight
SaschaHa schrieb:
Vielen Dank für diesen sehr ausführlichen Test! :)

Ein kleines Stück enttäuschen mich die Karten ja doch. Während die Leistung natürlich ordentlich zugelegt hat, hat es der Stromverbrauch nun leider auch. Bezüglich der Effizienz hat man sich gegenüber dem Vorgänger scheinbar kaum verändert, was vermutlich hauptsächlich an Samsungs 8 nm-Prozess liegt (der bekanntlich nur ein Refresh des 10 nm-Prozesses von Samsung ist).

Sehr gespannt bin ich nun auf AMD, denn: Wie man am Effizienz-Test sieht, bringen die 320 Watt gegenüber 270 Watt bei der Karte lediglich 4 Prozent Mehrleistung, man kann hier also durchaus von der berüchtigten "Brechstange" sprechen. Nun ist die Frage, warum? Ich denke, es ist durchaus möglich, dass Nvidia von AMD dank des deutlich besseren 7 nm-Prozesses von TSMC einen ordentlichen Leistungszuwachs erwartet und AMD damit ggf. sogar mit Nvidia konkurrieren kann - sowohl bei Performance, als auch bei der Effizienz. Ggf. erwartet uns also doch noch ein kleines Showdown, es bleibt spannend!
ja warte mal ab, nvidia hat immer ein konter in der hinterhand, würde mich nich wundern wenn diese 4% mehrleistung durch treiber optimierung plötzlich 40% mehrleistung bieten, ok soviel nicht, aber es ist nun klar worauf ich hinaus wollte...
 
schkai schrieb:
Ich sehe auch keinen Sinn darin eine Heizung zu bauen um nur 5% mehr vor der 2080TI zu bleiben und damit der 3090 gefährlich nahe zu kommen.
Man kommt der 3090 nicht gefährlich nahe. Wir befinden uns immer noch innerhalb einer Serie. Da ist der Sprung von der 3080 zur 3090 völlig normal und ok.

schkai schrieb:
Die 3090 ist nur so teuer
Die 3090 ist hauptsächlich wegen des vielen GDDR6X VRAM so teuer. Für die Zielgruppe (keine Gamer) ist der Speicher sehr relevant.
 
Ben81 schrieb:
Sollte es sich um das wirkliche „Big Navi“ Topmodell von AMD handeln, dann wäre diese Performance enttäuschend.
Ich frage mich gerade, wie wahrscheinlich es ist, dass 6 Wochen vor Release einer Grafikkarte das Teil, welches für einen Bench Leak her hält und sicherlich auch nicht erst Gestern aus der Fabrik kam, fertig sein kann. Also, Hardware seitig, wie vor allem auch auf Seite des Treibers.
 
SaschaHa schrieb:
Zunächst einmal haben die ersten Grafikkarten mit PCI-E 4.0 bereits gezeigt, dass es durchaus einen Unterschied macht, ob der volle Durchsatz genutzt wird oder nicht. Im Test von ComputerBase konnte das im Worst-Case zu einem Unterschied von bis zu 19% (!!) führen.

Also ehrlich, die 19% zu erwähnen und als Argument zu führen ist doch jetzt ein Witz. Das war bei einer 4 GByte Karte. Nimm doch gleich eine Karte mit 512 MByte, dann werden es bestimmt 95%
Bei 6 GByte sind es nur noch 9% und bei einer 8 GByte Karte 0-1%
 
  • Gefällt mir
Reaktionen: CrustiCroc
catch 22 schrieb:
Ich frage mich gerade, wie wahrscheinlich es ist, dass 6 Wochen vor Release einer Grafikkarte das Teil, welches für einen Bench Leak her hält und sicherlich auch nicht erst Gestern aus der Fabrik kam, fertig sein kann. Also, Hardware seitig, wie vor allem auch auf Seite des Treibers.
Doch doch, das passt schon... Nvidia wusste auch schon Monate (mindestens so lange, wie es gedauert hat, das Kühlerdesign zu entwickeln) vorher, wie die Specs von Big Navi sind. Zumindest wenn man sich die Argumentationen hier in den letzten Minuten so anschaut.... ;)
 
gr1nd schrieb:
Man kommt der 3090 nicht gefährlich nahe. Wir befinden uns immer noch innerhalb einer Serie. Da ist der Sprung von der 3080 zur 3090 völlig normal und ok.

Erklärt nicht wieso die 3090 gut 115% mehr kostet bei grade mal 20% mehr Leistung.

gr1nd schrieb:
Die 3090 ist hauptsächlich wegen des viele GDDR6X VRAM so teuer.

Bei aller liebe. Der Speicher kostet mit Sicherheit nicht 600 Euro mehr
 
  • Gefällt mir
Reaktionen: Hercule Poirot
Leistung (Rechenpower) != VRAM. Wie gesagt, die Zielgruppe sind nicht die Gamer.
Ergänzung ()

schkai schrieb:
Bei aller liebe. Der Speicher kostet mit Sicherheit nicht 600 Euro mehr
VK != EK, das ist klar. Es sind 14 1GB GDDR6X Chips mehr. Alleine die Tatsache, dass keine 2GB Chips verfügbar sind, treibt den Preis schon deutlich in die Höhe. Und wenn man von 30-40% Mehrkosten (geraten) ggü. GDDR6 ausgeht, kommt da schon was zusammen.
 
Zuletzt bearbeitet von einem Moderator:
SaschaHa schrieb:
Zunächst einmal haben die ersten Grafikkarten mit PCI-E 4.0 bereits gezeigt, dass es durchaus einen Unterschied macht, ob der volle Durchsatz genutzt wird oder nicht. Im Test von ComputerBase konnte das im Worst-Case zu einem Unterschied von bis zu 19% (!!) führen.

Das ergibt ja auch Sinn, wenn man nur 4GB Speicher hat und die Karte elektrisch nur mit halber Bandbreite angebunden ist. Das hat ja für die sonstigen Tests keinerlei Relevanz.

SaschaHa schrieb:
Des Weiteren sind PCI-E und CPU-Auslastung relativ unabhängig voneinander.

Sicher sind die unabhängig voneinander. Theoretisch könnte denkbar sein, dass das System auch im CPU Limit von einer breiteren Anbindung der GPU profitiert.

SaschaHa schrieb:
Selbst wenn also die CPU limitiert, hat das keinen besonderen Einfluss auf die PCI-E 4.0-Übertragungsrate

Da die CPU die GPU limitiert, hat das natürlich auch indirekt Folgen auf die Bandbreite.
Man wird nicht erfahren können, ob die GPU bei höheren FPS durch die schnellere Anbindung hätte profitieren können, da sie zuvor von der CPU ausgebremst wird.
 
Der Vorsprung den NVIDIA hat ist einfach enorm, siehe GTX1080/GTX1080Ti oder RTX2080Ti etc.
AMD braucht jahre für einen Konter !
...wäre die konkurrenz stärker, hätten karten ala RTX2080 oder RTX3070 sicherlich mehr Vram und wären auch schneller.

Big Navi wird in einer Disziplin punkten, ratet mal in welcher ? Richtig, mehr Vram !

Was hinderte NV die RTX3080 mit 16Gb auszustatten ? Richtig, nichts !
NV macht nur das nötigste und könnte AMD schon längst begraben. Das wird aber nicht passieren !

Nein, gpu´s von AMD wird es auch noch in zehn jahren geben, macht euch da mal keine sorgen ! ;)
Niemand will ein Monopol und erst recht nicht NV.
Vile denken das sich AMD und NV nicht besonders mögen, sich fast schon hassen ! Nein, ganz im gegenteil.
 
Zuletzt bearbeitet:
Das sieht man alleine, wenn man sich das Budget für R&D bei Nvidia und AMD anschaut. Der Diff ist groß, sehr groß. Und dazu kommt noch, dass bei AMD der CPU Teil auch mit drin ist. Aber das sind halt leider alles Fakten, die gerne ausgeblendet werden. Ist ja auch ok, von Seiten AMD. Die machen genug Umsatz mit den APU für die Konsolen. Da kann man Nvidia ruhig den (mittlerweile deutlichen) Vorrang lassen. Nur versteh ich nicht, wie man immer noch ernsthaft glaubt, dass am 28.10. etwas vorgestellt wird, was mit der 3080 auf Augenhöhe oder gar drüber ist. Und wenn dem so wäre, dann hätte AMD anders reagiert und nicht mit einem lächerlichen Emoji via twitter.
Und wir sprechen hier halt nur über den Gaming Bereich. Bei ML ist da ganze noch viel krasser.
 
McFritte schrieb:
Also ehrlich, die 19% zu erwähnen und als Argument zu führen ist doch jetzt ein Witz. Das war bei einer 4 GByte Karte. Nimm doch gleich eine Karte mit 512 MByte, dann werden es bestimmt 95%
Bei 6 GByte sind es nur noch 9% und bei einer 8 GByte Karte 0-1%
Der Test wurde bei FHD gemacht, nicht bei UHD. Der erforderliche Grafikspeicher skaliert auch mit der Auflösung und wird bei neueren Spielen durchaus größer ausfallen als aktuell, insbesondere auch wegen RT. Je höher zudem die Gesamtperformance ist, desto größer kann auch der Leistungseinbruch sein, wenn eben nur die halbe Bandbreite genutzt wird. Es macht also durchaus Sinn, PCI-E 4.0 statt 3.0 zu nutzen, um eben solche potentiellen Einbrüche zu vermeiden.
 
Am meisten gefällt mir die Kühllösung. Ich selber hatte erwartet das die 3080 schwer kühlbar ist und nur so halbwegs akzeptable Temperaturen möglich sind.
Aber es ist sogar besser geworden.

Die Leistung ist sehr gut. Wie zu erwarten Nvidia lässt sich dort nicht lumpen. 1A.

Was mich stutzig macht ist der Preis und die Leistungsaufnahme. Da könnte AMD doch was haben womit Nvidia seit 3 Generationen keine Sorgen mehr hätte. Abwarten.

Für mich ein sehr gutes Paket was Nvidia dort mit der 3080 hat.

Kleiner Scherz am Rande. Stelle mir gerade die Computerbase Redaktion vor als die 3080 ankam. Wer darf sie zuerst testen?
Und die Redaktion so :

Die 3080 kommt an
 
Ganz gut geworden das Teil, nur finde ich die Raytracing Leistung für mich persönlich irgendwie immer noch nicht wirklich zufriedenstellend wenn man bedenkt was für ein Wind deswegen gemacht wurde.
Der Stromverbrauch ist ja mal die Krönung hoch zehn.
Die Leistung ist natürlich super und der Sprung von der 2080 schon beeindruckend, aber jetzt erstmal warten auf die Customs und was AMD so liefert.

Edit.
Gerade das Video von Igor speziell zum Verbrauch der RTX 3080 geschaut, sehr informativ und lässt für mich das warten auf die roten noch einfacher werden erstmal.
 
Zuletzt bearbeitet:
Zurück
Oben