Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Esenel schrieb:
@.Sentinel.
Die 3900X PCI-E 4.0 FTW Schreihhälse von letzter Woche sind nun verblüffend still. :hammer_alt: :lol:
Vermutlich hat man einfach nur die AMD-Plattform genommen, weil man auf die next-Gen-Ryzen setzt, vermutlich kann man dann auch diesen GPU-Test nochmal machen und das sieht dann nochmal ganz anders aus - keine Ahnung ?!?
 
  • Gefällt mir
Reaktionen: Benji21
Nahrungsmittel schrieb:
Das ist eben nur eine normale zu erwartende Steigerung für eine neue Generation. Nicht das wie es doch so großartig überall vorher angekündigt und prophezeit wurde. Genau das ist der Punkt warum ich es ernüchternd finde. Ich habe einfach mit mehr gerechnet.
Vor allem je nach game auch weniger als die 30%, teilweise nur 20% und bei 1440p sowieso weniger. Ich habe schon mit 40-45% on top zur 2080Ti gerechnet, das ist mir der höhere Stromverbrauch wirklich nicht wert, ich warte mal ab wie billig man ne 2080Ti abstauben kann, für 400 Euro würde ich wohl zuschlagen.
 
  • Gefällt mir
Reaktionen: Nahrungsmittel
Matthias80 schrieb:
Wie gesagt war nicht persönlich, böse oder so...
MfG

Alles Ok :daumen:

, Du hast mir da halt paar Sachen verbunden und dann das Wort "Logik" mit ins Spiel gebracht. Bin ein grosser Freund der Logik und das hat mich dann dann schon bisschen getriggert.

Sehe es einfach mal so. Ich hab jetzt 5 Jahre mit einer ollen R9 390 durchgehalten. Und jetzt gibts endlich das Upgrade.

In 5 Jahren koennen wir das Thema dann noch einmal aufgreifen. :D
 
Super Test! Vor allem das Ergebnis für das auf 270W reduzierte Powertarget ist extrem interessant. Man darf sich schon fragen, warum Nvidia sich, scheinbar grundlos, zu so einer relativ extremen Maßnahme genötigt sah. Normalerweise kennt man das eher von AMD, die damit versuchen, in der Leistung irgendwie an die Konkurrenz heranzukommen.

Ich bin nun wirklich auf die AMD-Karten gespannt. Die 3080 liefert ziemlich exakt 100% mehr fps als die 5700XT. Schafft AMD das zu erreichen? Und wenn ja, zu welcher Effizienz? Die 5700 XT liegt noch ein ganz gutes Stückchen hinter der 3080 - selbst wenn die auf 320 Watt geprügelt wird. Oben drauf kommt dann noch das extrem starke DLSS. Ein harter Brocken, möchte man meinen - und dennoch sieht man hier einen verdächtig günstigen Preis und eine ungewöhnlich extreme Referenzeinstellung.

Für mich steht auf jeden Fall ein Upgrade an. Meine Vega 64 wird hier mittlerweile um etwa das 2,5-fache übertroffen, und zumindets bei der 3080 ohne drastisch gestiegenen Stromverbrauch (300 vs 320 Watt). Mal sehen, welches Modell es dann am Ende wird. Sehr spannend alles, gerade :)
 
  • Gefällt mir
Reaktionen: GUN2504
bad_sign schrieb:
Also weniger FPS wird die Karte sicher nicht liefern.
Wichtig ist das Verhältnis der Karten untereinander, weniger die absolute Leistung
Das hat ja mit dem verhältnis untereinander zu tun. Wenn eine Karte in 4K ihre shader maximal auslasten kann und so 40% vor einer anderen Karte mit weniger Shadern liegt, kann es ihr in 1440p auch passieren, dass sie die shader nur noch zu 90% auslasten kann, weil die Architektur schlicht mehr daten braucht um maximal ausgelastet zu sein und sich so der Abstand auf 35% verringert, ganz ohne VRAM Limitierungen.

Wenn jetzt aber ein CPU Limit den Abstand bereits auf 30% schrumpfen lässt, kann man dahingehend nichts sagen.
 
  • Gefällt mir
Reaktionen: KlaraElfer, Esenel und .Sentinel.
Nett, aber noch lange nicht "DA" wo ich hin will als RTX 2080TI Besitzer...

Der Verbrauch wird von den vereinigten Staaten von Europa sicherlich auch noch reglementiert,
sodaß das Ziel sein muss die gleiche Leistung bei halben Stromverbrauch zu liefern.
Solange kann ich zum Glück warten...
 
PR3D4TOR schrieb:
Danke für den Test. Tolles Stück Hardware. Bin schon auf die 3090 und 3070 gespannt. (bzw. auch auf die AMD-Karten). Hoffentlich geht was weiter bei der Performance.

Grandioses stück Hardware und die beste (RTX3090/RTX3080Ti) kommt noch !
16Gb bekommen Karten ala RTX3080 mit hoher wahrscheinlichkeit "kurz" nach Release von RDNA2 spendiert.

Wie gesagt, hätte die GPU direkt 16Gb bekommen, könnte AMD nur schwer kontern. Unmöglich !

Wie gesagt eine RTX3080 direkt mit 16Gb würden reichen, jetzt kommt aber erstmal RDNA2 mit 12 oder 16Gb und erst dann legt NVIDIA nach.
NVIDIA ist so weit vorne seit jahren, sie könnten AMD schon längst begraben aber das machen Sie nicht und das ist auch gut so.
 
bad_sign schrieb:
"Stromspitzen" sind kurz, die 3080 ist doch sehr "konstant" bei diesen Stromspitzen.
Der Verbrauch ist ein riesen Fail von Nvidia.
270W bei 95% der Leistung, ist Nvidia das neue AMD?
Igors Grafik zeigt aber microsekunden oder waren es gar nanosekunden genau den Stromverbrauch an, ohne eine Vergleichsgrafik zu anderen Grafikkarten ist das halt nicht sonderlich aussagekräftig. Aber ja, unter 650W oder besser 750W wenn die CPU übertaktet und hungrig ist, sollte man sich keine 3080 einbauen, schon gar keine mit 3 8 Pin wie bei vielen Boardpartnern, da wären wohl 800 besser.
 
Taxxor schrieb:
Das hat ja mit dem verhältnis untereinander zu tun. Wenn eine Karte in 4K ihre shader maximal auslasten kann und so 40% vor einer anderen Karte mit weniger Shadern liegt, kann es ihr in 1440p auch passieren, dass sie die shader nur noch zu 90% auslasten kann, weil die Architektur schlicht mehr daten braucht um maximal ausgelastet zu sein und sich so der Abstand auf 35% verringert, ganz ohne VRAM Limitierungen.
Geht auch andersrum, wenn z.B. eine 580 an der Bandbreite zusammenbricht.

Ich habe mich doch gar nicht gegen WQHD ausgesprochen oder? Meine Aussage sollte sein: FHD in der Leistungsklasse ist einfach BS.
 
bad_sign schrieb:
270W bei 95% der Leistung, ist Nvidia das neue AMD?
Eher wirft es die Frage auf, was Nvidia von AMD erwartet, wenn sie mal eben 50W mehr draufhauen für 4% Mehrleistung, gebraucht hätten sie es, nach der Meinung vieler hier, nicht da AMD ja sowieso nur 3070 Performance bringen soll^^
 
  • Gefällt mir
Reaktionen: PS828, Derenei, sifusanders und 5 andere
Leider war das 2x schneller wirklich nur auf RT Leistung bezogen. DLSS ist eine nette Technik die zukünftig sicherlich gut im kommen sein wird (2-4 Jahre), aber wenn man nicht die mittlerweile 7 Spiele die es unterstützen spielt, ist es komplett irrelevant.

Alles in allem, bei 270Watt gedeckelt, eine starke Karte die bei mir zwar nicht über RT oder DLSS, aber über die anderen Features wie RTX Voice punkten kann. Der Preis der FE ist löblich, die 320W übertrieben und die Mehrleistung zu den 270W für mich kaum interessant.
Ich warte definitiv auf das was AMD zu bieten hat, auch wenn ich aufgrund der obgenannten Softwarelösungen, die für mich interessant sind, vermutlich selbst bei Gleichstand an Leistung dieses Mal eine Nvidia bevorzugen könnte.
 
  • Gefällt mir
Reaktionen: Bright0001
Matthias80 schrieb:
Ein Stock 3900X ist halt realistischer als ein Cherry Picked Golden Sample 10900K Ultra OC Monster was nur der eine Glückspilz besitzt.
So ein Test wäre dann wie Aussagekräftig?
Selbst ein 9900K/10700K wäre da schneller gewesen, ein goldener 10900K muss es noch nicht mal sein.

Ich werde die 3080 wahrscheinlich undervolten wenn ich denn irgendwann eine habe. Dauert noch bis nächstes Jahr, momentan geht das ganze Geld für die Fahrschule flöten. Aber mal sehen was es bis dahin sonst noch so an Grafikkarten geben wird.
 
Vendetta schrieb:
Igors Grafik zeigt aber microsekunden oder waren es gar nanosekunden genau den Stromverbrauch an, ohne eine Vergleichsgrafik zu anderen Grafikkarten ist das halt nicht sonderlich aussagekräftig. Aber ja, unter 650W oder besser 750W wenn die CPU übertaktet und hungrig ist, sollte man sich keine 3080 einbauen, schon gar keine mit 3 8 Pin wie bei vielen Boardpartnern, da wären wohl 800 besser.
10µs Interval, über 20ms -> jedes Kästchen ist 1ms
https://www.igorslab.de/nvidia-gefo...t-nach-vorn-und-der-grabstein-fuer-turing/12/
(ganz unten)
In dem Graph sieht man (ohne die Drosselung) etwa 2,5 Kästchen 330W, gut 1 Kästchen 400W und 1/2? Kästchen 75W
 
Also unterm Strich 15% Mehrleistung bei ähnlichem Stromverbrauch.
RT läuft jetzt annehmbar und DLSS reißt es raus.

Wenn man die "brachial" höheren Leistungsdaten anguckt, dann ist die Architektur wohl am Limit, auch wenn einiges optimiert wurde und in Zukunft wieder ausgebaut werden kann (wie Anzahl Tensorkerne).
Auch über Taktfrequenz ist ja anscheinend nichts machbar.

Zum Glück konnte nvidia den kleineren Strukturprozess nutzen und hat den Chip gute 20% verkleinern, spart Geld, auch wenn 8nm teurer sind.

Immerhin der Preis ist jetzt wieder im Rahmen und ich denke AMD wird ein ähnlich starkes Produkt in dem Preissegment anbieten (sonst hätte nvidia mehr als 699 verlangt).
 
  • Gefällt mir
Reaktionen: GUN2504 und Benji21
Vendetta schrieb:
Vor allem je nach game auch weniger als die 30%, teilweise nur 20% und bei 1440p sowieso weniger.

Nein. Nachdem Nahrungsmittel sich explizit auf WQHD bezogen hat, habe ich auch die entsprechenden Werte genannt. Die 2080 ist in 1440p im Schnitt 28% schneller.
 
Player(1) schrieb:
In 5 Jahren koennen wir das Thema dann noch einmal aufgreifen. :D
Ja wenn man so lange Treu bleibt...

Wird spannend. Wie jedes mal...

Für mich wichtig:
Preis/Leistung
Performance/Watt
das obere Ende interessiert mich da nicht so sehr...

Mit der 390 bist du da ja schon einmal in die vollen gegangen.

Bin gespannt wie AMD "kontert"

MfG
 
Lutscher schrieb:
Als 2080Ti Besitzer ist man ein wenig in der Zwickmühle. Die 3080 ist zwar schneller in 4K aber der Sprung gefühlt doch irgendwie zu klein.
Das ist das Luxusproblem für 2080Ti Besitzer und das Dilemma in Games, die eine 2080Ti in Ultra auch schon in die Knie gezwungen haben.

Aus 50 fps werden dann auch nur noch 60-65 fps. Wer wechselt dafür die GPU aus?

Eine 2080Ti Waterforce ist dann auch nur noch 10% bis 15 % hinter einer 3080.

Die Hoffnung war, dass man auch mit einer 2080Ti quasi "blind" zur 3080 greifen kann, weil der Sprung so heftig wird. Das ist nun nicht der Fall, und damit bleiben nur eine 3080Ti, sofern sie denn kommt, oder die 3090, mit dem entsprechenden Preisaufschlag.


Im übrigen finde ich es bitter, dass die CPUs jetzt hier der Flaschenhals werden.
 
  • Gefällt mir
Reaktionen: PS828, zEtTlAh, Lutscher und eine weitere Person
m2020 schrieb:
Die Nvidia Fans haben Navi wegen dem Verbrauch schlecht gemacht und behauptet, dass Nvidia viel besser sein wird, wenn sie ihre Karten in 7nm (bei Ampere ist es 8nm) raus bringen werden. Tja davon sieht man nicht viel, wenn überhaupt.

Abwarten was AMD zu bieten hat. Die kochen auch nur mit Wasser und das ist AMD.
Ich denke Big Navi wird langsamer als die 3080. Entweder wird sie nur günstiger oder sie kommt mit 16GB - das wäre wichtiger als ein paar Prozent mehr Performance
 
Brink_01 schrieb:
Inwiefern verschwendet ein dickes Netzteil mehr Strom als ein kleines?

Wenn das System 350 Watt verbraucht, dann tut es das mit einem 500 Watt Netzteil genau so wie mit einem 1000 Watt Netzteil.

Tendiere mittlerweile immer zu größeren Netzteilen. Nicht nur weil diese Zukunftssicherer sind, sondern auch weil es mir lieber ist das mein Netzteil nur mit 60% statt mit 90% Auslastung arbeitet.

Es gibt Unterschiede in der Effizienz bedingt durch die Auslastung des Netzteils (oder hier als detailliertere Kurve zu sehen. Und auch kein Netzteil ist zu 100% effizient.

Persönlich finde ich das aber auch als eher nebensächlich.

Cpt.Willard schrieb:
Vermutlich hat man einfach nur die AMD-Plattform genommen, weil man auf die next-Gen-Ryzen setzt, vermutlich kann man dann auch diesen GPU-Test nochmal machen und das sieht dann nochmal ganz anders aus - keine Ahnung ?!?

Dann müsste man die ganzen Tests doch sowieso alle neu laufen lassen, eventuell mit neuem BIOS, neuem RAM OC etc, damit man hier die verschiedenen Variabeln eingrenzen kann.

Falls es interessiert, Gamer's Nexus hat da erst neulich ein ausführliches Video zu gemacht.
 
  • Gefällt mir
Reaktionen: Brink_01 und Cpt.Willard
Taxxor schrieb:
Eher wirft es die Frage auf, was Nvidia von AMD erwartet, wenn sie mal eben 50W mehr draufhauen für 4% Mehrleistung, gebraucht hätten sie es, nach der Meinung vieler hier, nicht da AMD ja sowieso nur 3070 Performance bringen soll^^
Oder eben doch. Das sehen wir aber erst im Oktober. Nvidia wird schon wissen was sie tun. Dumm sind sie ja nicht.
 
Zurück
Oben