Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

CrustiCroc schrieb:
Provozieren kann ich bislang keine Abschaltung trotz nur 600 W Netzteil.
Die 750W Empfehlung seitens Nvidia war auch übertrieben, sie sichern sich aber so ab, wenn du ein bronze oder gar schlechter Netzteil mit 750W hast, sollte das dennoch ausreichen, ich werde meine 3080, falls die jemals ankommt, auch mit meinem 550W NT betreiben, allerdings ist mein restliches System recht genügsam und ich sollte nicht viel mehr als 450-470W Power Draw für das gesamte System haben bei 85% Powerlimit. Wegen den 5% Mehrleistung lass ich die Karte nicht 50W extra ziehen, wird auch nur unnötig Abwärme erzeugt, bin kein Fan von E-Heizungen. Bei Voller GPU und 100% CPU Auslastung schluckt mein Rechner aktuell 330W an der Dose, trotz heftigem OC meiner 1070Ti auf 2000MHz und +20% Powerlimit, die 3080 sollte da max. 120W mehr schlucken bei 85%.
 
  • Gefällt mir
Reaktionen: Mcr-King
Was komisch ist: warum lässt NVidia die 3080 ganz offensichtlich deutlich über dem Sweetspot bisheriger Karten laufen? Alle Tests zeigen, dass der bei einem PT von ca. 275 Watt läge, Leistung sinkt da nur minimal. Dann wäre auch mehr Potential für OC. Wollen die Sicher sein vor AMD zu liegen?

Die aggresive Preisgestaltung und schlechte Verfügbarkeit könnte auch Absicht sein, um 1.) AMD unter Preisdruck vor dem Launch zu setzen und 2.) nicht zu viel "draufzuzahlen" bis die unvermeidbare "eigentliche" 3080 (TI) mit mehr Speicher und deutlich erhöhtem Preis rauskommt.

Dass AMD die 3080 "knackt" glaube ich allerdings nicht. Ich hoffe auch, dass AMD das nicht mit Brechstange und schlechtem Wirkungsgrad versucht. Wenn die 275 Watt aus der Gerüchteküche stimmen, dazu noch 16GB und Leistung deutlich oberhalb 3070 und 2080 TI aber unter 3080, dann fände ich das ein interessantes Gesamtpaket.

Wenn AMD sich sicher wäre die 3080 zu überholen, dann hätten die IMHO aggressiver auf den NVidia-Hype reagiert.
 
  • Gefällt mir
Reaktionen: Mcr-King, monitorhero und CrustiCroc
Dai6oro schrieb:
Ziemlich eindeutig. Aber das hat schon trumpsche Züge erst ein Versprechen abzugeben ohne! Einschränkungen nur um das dann wieder zu relativieren.
Was auffällt: Die 3070 hat ziemlich genau: 32% weniger Cuda Cores, 32% weniger RT Tflops, 32% weniger Tensor Tflops. Ist also ziemlich genau ein Drittel schwächer. Ich meine theoretisch könnte die Rechnung mit Treiberoptimierungen aufgehen und die 3070 ist tatsächlich schneller als ne 2080Ti, zumindest solange man die 2080Ti in keinster Weise übertaktet. Ich bin mir aber sicher, dass es Spiele geben wird wo die 2080Ti mit der 3070 Schlitten fährt, gibt ja auch so jetzt schon einige wo die 3080 nur 20% schneller ist, wie soll ne 32% schwächere Karte da noch drüber bleiben?

-Okay es kann sein, dass die Cuda Cores schlecht skalieren, man sah ja auch bei der 3090 bei den ganzen Leaks, dass diese trotz 20% mehr Cuda Cores nur 5-10% schneller als die 3080 war 🤔
 
  • Gefällt mir
Reaktionen: CrustiCroc
Dai6oro schrieb:
Ziemlich eindeutig. Aber das hat schon trumpsche Züge erst ein Versprechen abzugeben ohne! Einschränkungen nur um das dann wieder zu relativieren.
Ja, klar gelogen und entsprechend darf man enttäuscht sein. Für Blender und Vray User kann man das aber tatsächlcih erreichen. Ist also eher für Workstation Anwendungen interessant, wobei hier dann tatsächlich der VRAM knapp bemessen ist.


In dem Video geht er auf Netzteile ein und auch Undervolting (was nicht wirklich viel bringt)

Insgesamt ist die 3080 nicht wirklich das, was sie versprochen hat. Trotzdem die schnellste Karte auf dem Markt :)
 
  • Gefällt mir
Reaktionen: Mcr-King und Dai6oro
Visionmaster schrieb:
Dass AMD die 3080 "knackt" glaube ich allerdings nicht. Ich hoffe auch, dass AMD das nicht mit Brechstange und schlechtem Wirkungsgrad versucht. Wenn die 275 Watt aus der Gerüchteküche stimmen, dazu noch 16GB und Leistung deutlich oberhalb 3070 und 2080 TI aber unter 3080, dann fände ich das ein interessantes Gesamtpaket.
AMD wird mehr als nur eine GPU bringen. Die AMD karte die die 2080Ti um ein paar Prozentchen getoppt hat war im Dual Fan Design gehalten(und hatte scheinbar 60CU), kurz danach hat AMD ja die Tripple Fan Karte präsentiert, würde mich nicht wundern, wenn sie an die 3080 rankommen oder sie sogar mit einer 80CU Navi überbieten(und damit wohl gleich die 3090 mitnehmen). Stromverbrauch wird aber wohl auch bei zumindest 300W TDP liegen und OC Potential wird wahrscheinlich auch eher dürftig ausfallen.

Was man bedenken muss: Sony hat ja schon rausgeplappert auf welchen Taktraten die RDNA 2.0 Architektur laufen kann, nämlich 2,23GHz, das ist extrem und die kühlen das auf einem Die mit der CPU. Klar sind nur 36CUs aber ist ein gutes Zeichen was wohl theoretisch möglich sein wird. Eine 80CU Karte mit 2GHz Boost würde absurde Performance liefern.

Großes Fragezeichen bei AMD bleibt natürlich Raytracing und großes Manko, dass sie wohl nichts gegen DLSS in der Hand haben und das wird von immer mehr neuen Games unterstützt werden...
 
Vendetta schrieb:
AMD wird mehr als nur eine GPU bringen. Die AMD karte die die 2080Ti um ein paar Prozentchen getoppt hat war im Dual Fan Design gehalten(und hatte scheinbar 60CU), kurz danach hat AMD ja die Tripple Fan Karte präsentiert, würde mich nicht wundern, wenn sie an die 3080 rankommen oder sie sogar mit einer 80CU Navi überbieten(und damit wohl gleich die 3090 mitnehmen). Stromverbrauch wird aber wohl auch bei zumindest 300W TDP liegen und OC Potential wird wahrscheinlich auch eher dürftig ausfallen.

Was man bedenken muss: Sony hat ja schon rausgeplappert auf welchen Taktraten die RDNA 2.0 Architektur laufen kann, nämlich 2,23GHz, das ist extrem und die kühlen das auf einem Die mit der CPU. Klar sind nur 36CUs aber ist ein gutes Zeichen was wohl theoretisch möglich sein wird. Eine 80CU Karte mit 2GHz Boost würde absurde Performance liefern.

Großes Fragezeichen bei AMD bleibt natürlich Raytracing und großes Manko, dass sie wohl nichts gegen DLSS in der Hand haben und das wird von immer mehr neuen Games unterstützt werden...
Eine 2080Ti getoppt hat? Wann? Wo ist diese Karte zu finden? :D
 
Vendetta schrieb:
Großes Fragezeichen bei AMD bleibt natürlich Raytracing und großes Manko, dass sie wohl nichts gegen DLSS in der Hand haben und das wird von immer mehr neuen Games unterstützt werden...

AMD hat doch mit Sony schon eine vergleichbare Technologie vorgestellt ? Oder wars doch Microsoft?

Jedenfalls soll dies sogar ohne Implementation durch den Spieleentwickler funktionieren, wenn ich mich recht entsinne.
 
  • Gefällt mir
Reaktionen: Mcr-King
@aldaric ich glaube es wahr Sony, da sollte doch eine Art Checkerboard Rendering benutzt werden, welches dann mit RIS und Co nachbearbeitet wird.

Am Ende muss man schauen was bei raus kommt, ich glaube aber nicht, dass man dieser Gen an DLSS2.0 rankommt, was doppelt schade ist, da ich auch eher davon ausgehe, dass der Performance Hit durch RT etwas größer ausfallen könnte.
 
monitorhero schrieb:
2080Ti getoppt hat? Wann? Wo ist diese Karte zu finden?
Leaks und Gerüchte, es ist ne RX6000 Karte aufgetaucht die deutlich schneller war als die RX5700, die Leute wissen nur nicht ob es eine RX6700 oder gar RX6800 bzw. RX6900 ist. Die Boardpartner haben in der gleichen Zeit eine 2 Lüfter Kühlung Karte als Sample erhalten...
 
  • Gefällt mir
Reaktionen: Mcr-King
aldaric schrieb:
AMD hat doch mit Sony schon eine vergleichbare Technologie vorgestellt ? Oder wars doch Microsoft?

Jedenfalls soll dies sogar ohne Implementation durch den Spieleentwickler funktionieren, wenn ich mich recht entsinne.
An DLSS 2.0 wird man in diese Gen. nicht dran kommen. Irgendwie schade, denn wenn es in diesem Zyklus mehr Spiele damit gibt, hat man kaum Argumente für Big Navi.
Wir brauchen aber diesen Gegenpart, sonst kostet die nächste grüne Gen. wieder mehr als nur ne Niere.
 
@monitorhero es ist ein Gerücht! Ich bin Batman.... sagt ein Gerücht, ob es wohl war ist?
 
  • Gefällt mir
Reaktionen: oemmes
Taxxor schrieb:
Am Ende muss man schauen was bei raus kommt, ich glaube aber nicht, dass man dieser Gen an DLSS2.0 rankommt, was doppelt schade ist, da ich auch eher davon ausgehe, dass der Performance Hit durch RT etwas größer ausfallen könnte.

Ich sehe da keine große Problematik. Auch nächstes Jahr werden die Spiele mit DLSS überschaubar bleiben. Und sollte tatsächlich von AMD eine Technologie kommen, die keine Implementierung durch den Entwickler benötigt, ist das grundsätzlich wünschenswert.
 
aldaric schrieb:
Auch nächstes Jahr werden die Spiele mit DLSS überschaubar bleiben.
Ich gehe aber auch davon aus, dass jedes Spiel welches Raytracing bekommt, auch DLSS bekommen wird, womit Nvidia den Performance Hit durch DLSS wieder ausgleichen kann.

AMD könnte dann Raytracing eben nur mit sehr viel weniger Performance bewerkstelligen, wenn sie nichts gleichwertiges haben.
Und mit gleichwertig meine ich nicht sowas wie Fidelity FX CAS in Death Stranding.

Jetzt kann man sagen Raytracing Spiele werden auch 2021 überschaubar bleiben, aber dann hätte man es hier nicht einbauen brauchen.
 
CrustiCroc schrieb:
Das 600W Bequiet kommt bisher ganz gut mit der Karte klar.

Mann du machst mir echt Hoffnung mir ein neues Netzteil zu ersparen :D

Mein System ist deinem recht ähnlich.
Ryen 7 3700x / x570 MB / 16GB Ram / m.2 SSD / 3x SSD / 1x HDD 2,5" / zZ. noch ne 1080 FE / Wakü, Gehäuselüfter und ein bischen RGB-bling-bling.

Dazu ein 600Watt PurePower 11 von bequiet weches lt. spez. 650W kurzzeitig abhaben kann.

Hast du auch mal deinen CPU auf 4200 all-core übertaktet?
Bring zwar kaum Leistung aber der CPU-Verbrauch steigt ordentlich.
 
monitorhero schrieb:
Ok, davon habe ich noch nichts gehört. Wie verlässlich das Gerücht?
50/50 -Man kann aber 1 und 1 zusammenzählen und es würde mich überraschen, wenn AMD mit der ewig angekündigten "big navi" nicht die 3080 erreichen könnte.

Der 3090 Benchmark ist übrigens desaströs, 8% mehr FPS bei Tomb Raider, ~10% Allgemein im Schnitt:
1600622570271.png
 
  • Gefällt mir
Reaktionen: Mcr-King
Hubbe73 schrieb:
Also wenn ich egal bei was in der Werbung "bis zu ..." lese, dann weiß ich doch genau, dass das eben nur im Besten Fall erreicht wird. Natürlich ist das ein Marketingtrick, aber ganz gelogen ist es meines Erachtens auch nicht. Wenn ich mir die Benchmarks mit aktiviertem Raytracing anschaue, dann kommt das (vor allem bei den höheren Auflösungen) sogar hin.
Ich teile ja auch nur meine Wahrnehmung mit, die , wenn Du Dir das übergreifende Feedback anschaust, durchaus mehrheitlich geteilt wird. Ist halt nicht ganz "classy", wenn man mit "bis zu" arbeitet, denn es reichen ja nur 5 % Ergebnisse, die das packen, damit das "nicht gelogen" ist.

Demnach stimmt das in 95% der Fälle nicht, aber im Slogan referenziert man auf die 5 %.

Das macht man nur, wenn es man es nötig hat, und das hatte man es bei Nvidia eigentlich die Jahre nicht....

Understatement wäre besser gewesen und hätte die Ernüchterung über die 3080, die es bei allen positiven Erkenntnissen gab, deutlich abgefedert.
 
  • Gefällt mir
Reaktionen: Mcr-King
Laphonso schrieb:
Ist halt nicht ganz "classy", wenn man mit "bis zu" arbeitet, denn es reichen ja nur 5 % Ergebnisse, die das packen, damit das "nicht gelogen" ist.

Vor allem wenn man dann nochmal eine Folie des Produkts einblendet, wo es eben kein "up to/ bis zu" mehr gibt, sondern ganz fett draufschreibt "Twice the performance of the 2080".
 
  • Gefällt mir
Reaktionen: monitorhero, Laphonso und Mcr-King
aldaric schrieb:
AMD hat doch mit Sony schon eine vergleichbare Technologie vorgestellt ? Oder wars doch Microsoft?

Jedenfalls soll dies sogar ohne Implementation durch den Spieleentwickler funktionieren, wenn ich mich recht entsinne.

Richtig und es war zu erst Sony danach MS.
 
Zurück
Oben