Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Nano-kun schrieb:
320W sind einfach zu viel.

wo sind die schönen verbräuche meiner rtx 1070 geblieben?

ich bin gespannter auf die rtx 3070
Ich finde 320W auch krass viel. Meine GTX 1060 hat gerade mal 120W, aber die kann auch nichts.
Naja lieber du hast mehr Leistung in der Hinterhand , im Normalfall wirst du die 320W ja nicht erreichen und du kannst selbst einstellen das es nicht über 200W geht oder so und in ein paar Jahren kannste halt das Powerlimit erhöhen, wenn du die volle Leistung der Karte wirklich brauchst.
 
BxBender schrieb:
Also:
Laut Testbericht bietet die 3080 exakt die gleiche Leistung per Watt wie die 2080 Ti.
Das ist bei Anno 1800 und anderen Games unter Vollast zu sehen.

Im CB-Test @ 270W hat die 3080 125% der Performance einer 2080Ti. Woher hast du deine Zahlen?

BxBender schrieb:
Im Prinzip kann man die 3080 einfach als eine um 30% hochgedrehte Version der 2080 Ti sehen, quasi eine 2080 Ti Super Duper. ^^

Nope, da machst du es dir viel zu einfach in der Argumentation.

BxBender schrieb:
Wenn sich jeder jetzt so einen PC zusammenstellt, brauchen wir später gar nicht mehr über das Abschmelzen vom Nordpol reden, der ist dann schon längst weg.

Kommt ganz drauf an aus welcher Quelle der Strom kommt. Komplizierte Probleme lassen sich nicht mit einfachen Phrasen beschreiben.

BxBender schrieb:
Die Gesamtperformance mag zwar ok sein, die Effizienz ist aber nicht gestiegen, Speicher gibts bei den normalen Karten auch (schon wieder) nicht wirklich mehr, letztres führt in einigen Spielen sogar schon dazu, dass die Streamingengines wegen Speichermangel anfangen details zu reduzieren.

Hier bin ich gleicher Meinung, Nvidia hätte ruhig mal etwas mehr VRAM springen lassen beim 4K-Flagschiff, was aber nicht bedeutet...

BxBender schrieb:
Die Karten sind also reine Rohrkrepierer...

...dass diese Aussage stimmt. Ganz im Gegenteil sogar.
 
Taxxor schrieb:
Das hat rein gar nichts mit AMD vs Inteil zu tun. Wenn Zen3 kommt und mehr CPU Leistung im Gaming bietet als Intel, dann sollte man natürlich auf Zen3 setzen.
Aber genau aus dem Grund sollte man aktuell noch auf Intel setzen.
Tja, aber @CB kann nicht innerhalb von 1-2 Monaten den kompletten GPU Test Bench umstellen. Hier gehts auch um Wirtschaftlichkeit, fertig.
Der GPU Bench wird vll alle 6 Monate mal umgekrempelt, aber jetzt bei so nahen Veröffentlichungen von AMD und NV mit GPUs und CPUs wurde eben auf AMD mit PCIe4 und bald kommenden Zen3 gesetzt, fertig. So einfach.

Wir wissen alle dass CB hier auch keine 48h Tage hat nur weil hier wegen paar Prozent rumgeritten wird.

Sollte dann auch mal akzeptiert und für beendete Diskussion erklärt werden.
 
Laphonso schrieb:
RDNA 2 soll laut Gerüchten (aus dem Frühsommer) "bis zu 50%" mehr fps als die 2080TI liefern.
Nehmen wir davon nur mal die Hälfte und 25% mehr als die 2080Ti.... Dann wäre RDNA2 im Topmodell aber DIREKT der 3080 Gegner.
Ich bin ja dann mal so richtig gespannt auf die Leute die dann immer gesagt haben das big Navi gerade Mal 3070 Performance erreichen wird.

Da hätte ich eine riesen Liste an Zeug was ich alles aus dem Forum zitieren müsste von den Personen die sowas behauptet haben ;)


Ich denke schon das AMD problemlos RTX 3080 Performance erreichen wird.

Aber warten wir einfach ab.


Das einzige was ich richtig gut finde an der RTX 3080 ist der Preis. Die Leistungsaufnahme könnte besser sein, die Performance passt aber, auch wenn ich mir etwas mehr erhofft habe.

Mal sehen wie sehr sich die rtx 3090 von der rtx 3080 absetzten kann.
 
  • Gefällt mir
Reaktionen: Laphonso
sialickiz schrieb:
Die GPU ist sauschnell und das "Performance pro Watt" verhältnis ist 1a! ;)

10% über Turing bei neuer Architektur + neuem Prozess ist alles andere als 1a für mich, aber das ist eben auch Nvidias eigene Entscheidung, wie der Test zeigt, hätte man daraus ohne großartig Leistung zu verlieren auch 25 oder 30% machen können.
 
Dollarkurs ist halt schlecht...
Startpreis in $ war bei der 2080 699,- und sind nun bei der 3080 699,-.
Ich versteh den Hype nicht... Und die letzte billige Grafikkarte war die 5870 um 300,- Euro!
 
  • Gefällt mir
Reaktionen: McTheRipper und denbaschu
sialickiz schrieb:
Die GPU ist sauschnell und das "Performance pro Watt" verhältnis ist 1a! ;)
Perf/Watt ist mit ganz viel wohlwollen noch eine 4- wenn man neue µarch und vor allem einen besseren Prozess in die Bewertung mit einfließen lässt.

Davon ab ist es natürlich derart schlecht, weil NV die Karte hochgeprügelt hat bis zum geht nicht mehr wegen 5% mehr Performance.
 
  • Gefällt mir
Reaktionen: FatalFury
Igoo schrieb:
Das Bottleneck hält sich auch in Grenzen wenn ich mir den Test von Hardware Unboxed anschaue

10 FPS = "Hält sich in Grenzen"?
Normalerweise kriegen die Forenuser hier schon wegen weit geringerer Unterschiede die Krise.

Linmoum schrieb:
Davon ab ist es natürlich derart schlecht, weil NV die Karte hochgeprügelt hat bis zum geht nicht mehr wegen 5% mehr Performance.

Was ist an 10% mehr Effizienz "derart schlecht"? Muss man nicht verstehen, oder?

Ja, sie hätte noch besser sein können, aber eine gesteigerte Effizienz kann man faktisch nicht mit den Worten "derart schlecht" kommentieren. Ich hoffe dass die Effizienz der 3070 auch "derart schlecht" wird. Dann ist sie nämlich um Welten besser als die meiner GTX 1070.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel. und Vendetta
Maggolos schrieb:
Je nach Engine kann das Ergebnis groß sein.
Besonders für 144Fps Gamer ist das Relevant.
Ok.
Also Cherry Picked ca. 18% mehr Avg FPS. puh :cool_alt:
Wurden auch min. FPS und 0,1% FPS gebencht?


Interessant das der techpowerup Test von "must-have for 4k gamers" im Reviewnamen spricht...

MfG
 
Zuletzt bearbeitet:
xexex schrieb:
Nochmal! Die Behauptung war die Leute würden sich kleine Netzteile nur deshalb kaufen, weil sie billiger sind wie große. Das stimmt aber eben nur bedingt, man kauft kleinere Netzteile weil ein dickes Netzteil was kaum gefordert wird, schlichtweg viel Strom verschwendet und viel kostet.
Nee die Behauptung war, Leute kaufen sich kleinere Netzteile, weil Leute ihnen empfehlen, dass diese ausreichend seien. Das was Du behauptest, habe ich nicht gesagt. Du hast das reingebracht. Kannst ja dann happy sein, mit Deinem kleinen NT das an der Kotzgrenze läuft. Darum ging es. Um nichts anderes.
 
danyundsahne schrieb:
Tja, aber @CB kann nicht innerhalb von 1-2 Monaten den kompletten GPU Test Bench umstellen. Hier gehts auch um Wirtschaftlichkeit, fertig.

Hä? Sie haben ihn doch kurz vor Release der neuen Karten extra umgestellt und haben jetzt eine langsamere CPU drin als vorher. Und in 2-3 Monaten werden sie ihn wieder umstellen, wurde ja schon angekündigt.

Wirtschaftlich wäre gewesen beim 9900K zu bleiben bis Zen 3 kommt.
 
  • Gefällt mir
Reaktionen: Setting und .Sentinel.
Taxxor schrieb:
Weil die auf Zen2 umgestiegen sind ist es jetzt für die 1440p Nutzer schwieriger sich über die reale Leistung der GPU zu informieren.
Das werden wohl die community Benchmarks mal wieder richten, die dann eine gewisse Klientel dann aber als Lug und Trug abtun wird.

Manchmal frage ich mich, ob wir uns hier noch in einem Technikforum befinden....
 
  • Gefällt mir
Reaktionen: Taxxor
@Wolfgang
Wie schwer ist es, einen Test zwischen den letzten Generationen zu machen und den Stromverbrauch zu normieren? Beispiel: GTX 970 verbraucht x Watt. Wie viel Leistung bringt eine 1070, 2070 oder 3070 bei x Watt im Vergleich dazu?
 
Btw die Xbox XSerie hat 360 mm^2 Chip. die S Serie hat angeblich 190 mm^2.
Bis auf GPU Anzahl idt ja alles gleich.
58 minus 22 CUs sind 36 CUs bei 170 mm^2. (S hat auch kleineres Si)
Die Radeon 5700 Xt hat 250 mm^2 und dabei 40 CUs.
Also irwas müsste sich geändert haben, das AMD soviele Shader reinbringt.

Klar sind Milchmadchen Rechnungen ;)
 
mgutt schrieb:
Ich weiß High-End GPU und Strom sparen macht wenig Sinn, aber in der heutigen Zeit finde ich es nicht in Ordnung, dass Nvidia für 4% mehr Leistung 50W Strom verballert.
Ist mir auch ein Rätsel, das ist wirklich Mehrleistung mit der Brechstange, die Temps und dbA Messungen wären ja auch besser, hätte Nvidia hier niedriger angesetzt.

Aber habe ich das richtig verstanden, dass man das bei jeder Karte recht einfach selbst mit der Reduktion des Powerlimits erreichen kann?
 
Es gibt die ignorieren-Funktion hier im Forum. Das hilft.
@Vendetta: Dafür brauchst Du sowas wie MSI Afterburner. Damit sinds dann wirklich nur 3 klicks und das wars. Noch effektiver wird aber sicherlich undervolting sein.
 
Taxxor schrieb:
10% über Turing bei neuer Architektur + neuem Prozess ist alles andere als 1a für mich, aber das ist eben auch Nvidias eigene Entscheidung, wie der Test zeigt, hätte man daraus ohne großartig Leistung zu verlieren auch 25 oder 30% machen können.

Ich habe meinen Vergleich auf AMD und NV bezogen.

Natürlich, wenn man die Effizienz mit Pascal vergleicht, dann siehts nicht mehr ganz so rosig aus, da hätte mehr kommen müssen bzw. weniger nach all den jahren.:D

Screenshot_2020-09-16 Nvidia GeForce RTX 3080 FE im Test Lautstärke, Temperatur, Leistungsaufn...png



...vorallem die GTX1080 mit ihren 176Watt, einfach nur sagenhaft. Release : Anfang 2016 !!!
 
Zuletzt bearbeitet:
Zurück
Oben