Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Vermutlich hat die Temperatur im Testzimmer und Case mehr Einfluss aufs Ergebnis als die CPU ob nun 3900XT oder Intel.

@ Techpowerup

Interessant wären ob die Subtimings optimiert sind. Das hatte bei meinem Ryzen den größten Effekt.
Aber ja, 2%, wie erwartet ;)
 
  • Gefällt mir
Reaktionen: Mcr-King und Wintermute
Ich denke, mit undervolting kann die Karte durchaus sehr attraktiv sein.

Mein Plan für morgen: Ich probiere mein Glück mir ne 3080 FE zu schnappen, wenn die Tore geöffnet werden, und sollte ich es einfach nicht sein, sei's mir recht. AIBs können sicher gut, vll sogar besser sein. Aber letztendlich ist der Preis das mit attraktivste und das Design ist hübsch und der Lüfter ja ausreichend, insbesondere beim Undervolting. Denke auch nicht, dass der Preisverwall all zu hoch ausfallen wird in den nächsten zwei Jahren. Gibt es etwaige TI/Super Modelle mit mehr RAM und vll sogar von TSMC, dann werden die wahrscheinlich eher bei 900 € starten.
 
DaBas schrieb:
Leistungsaufnahme. AMD wäre dafür in der Luft zerrissen worden.

Sorry, aber wenn du zwei jahre später kommst und fast das doppelte Verbrauchst und nicht schneller bist, dann ist die Kritik mehr als nur angebracht !

Das kannst du doch überhaupt nicht mit der RTX3080 vergleichen. Die GPU liefert ab, schau dir die Benchmarks nochmal an !
Wenn rx64 um ca. 30% schneller wäre als GTX1080 im durchschnitt, würde sich niemand beklagen.
Man sollte rx64 eigentlich gar nicht mit der GTX1080 vergleichen, sondern eher mit RTX2070.

Warum ? Weil die karten zeitlich (Release) viel näher beiainander liegen.


...nach fast zwei jähriger Verspätung so eine Vorstellung ist das lobenswert ?


Screenshot_2020-09-16 Nvidia GeForce RTX 3080 FE im Test Lautstärke, Temperatur, Leistungsaufn...png

Screenshot_2020-09-16 Nvidia GeForce RTX 3080 FE im Test Benchmarks in Full HD, WQHD und Ultra...png
 
  • Gefällt mir
Reaktionen: bensen, fox40phil, t3chn0 und 5 andere
Taxxor schrieb:
Ist die 3080 mit 10900K im Mittel schneller als mit dem 3900XT? Ja, wo siehst du eine Lüge?

die Aussagen das der 10900k mit 3080 schneller ist als ein 3900XT mit 3080 ist falsch, ja.

Denn FPS sind nicht entscheidend wie ein Spiel läuft.

Mit 3950x zB ist das Gameplay meist "smoother" da jedes Game über Windows läuft und Windows nutzt eben mehr als 10 Kerne.


ich hab meinen 8086k @5.3GHz auch getauscht gegen einen 3950x, ich gebe zu, die FPS Zahlen alleinen lassen mich bereuen das ich nur ~200euro für den 8086k bekommen hab, aber der 3950x ist halt einfach IMMER TOP. (außer man hat eine schwache Grakka)
 
  • Gefällt mir
Reaktionen: Mcr-King, McTheRipper und Ned Flanders
gr1nd schrieb:
Du interpretierst zu viel in die Aussage. Der Move von nVidia war gegen die Next Gen Konsolen. Und damit der Preis passt und eine Adäquate Performance kommt, musste halt Samsung mit 8nm her. Und da ist die von den Käufern erwartete Leistungssteigerung eben nur so möglich.

Dir ist aber schon bewusst das in den Next Gen Konsolen genau die rdna2 steckt wie in Big Navi ?
 
  • Gefällt mir
Reaktionen: Mcr-King
Taxxor schrieb:
in den CPU Test nimmt man Stock CPUs und stellt ne übertaktete und optimierte GPU zur Seite.
watt? wieso gpu übertakten für cpu test, das macht doch garkeinen sinn oder testest du die cpus in fps bei cs go etc?
 
Zum Thema Strom etc. ;)

Szenario:
Wir gehen von reiner netto Spielzeit aus
5
Tage in der Woche spielen
Jeden Tag 4 Std. Games

Gesamtverbrauch PC = 600 Watt
Preis kWh = 32 cent

Damit ergibt sich auf das Jahr folgender Wert in EUR:

600 watt x 4 Std = 2.400 w/std => ergibt 2,4 kWh

2,4 kWh x 0,32 cent pro kWh = 0,77 EUR pro Tag (4 Std. netto Spielzeit)

0,77 EUR * 5 Tage in der Woche = 3,84 EUR pro Woche

3,84 x 4 Wochen = 15,36 EUR im Monat

15,36 x 12 = 184,32 EUR pro Jahr
--------------------------------------------------------------------

Jetzt kommen natürlich noch die ganzen Variablen dazu, wie Urlaub, Freunde mit denen man Unterwegs ist.
Oder was auch immer. Bei meinem Beispiel sind die Stromkosten pro/Monat gerechnet sehr
überschaubar. In diesem Beispiel bei ca. 15,- EUR pro/Monat für das Gesamtsystem, wenn man 5 Tage die Woche
a 4 Stunden rein spielt mit einer fetten GFX.

Wie dem auch sei, wenn man realistisch ist, belaufen sich die Stromkosten auf 5,- bis 20,- EUR im Monat.
Je nach persönlichen Ausprägungen;) Also das ist wirklich nicht die Welt. Kinder kosten halt;)
Obwohl ich das schon viel finde (also die Spielzeit, die ich hier im Bsp. ausführe)

Ansonsten, ich spiele max. 2 Tage a 2 Std. pro Woche oder so. Da sind die Kosten, wenn man es umrechnet, extrem marginal! Da kann meine Karte auch 1.000W verbrauchen (für mich persönlich). D.h. Wenn die Karte 250/350/450w verbraucht, ist mir das total bums!!!
Lg


PS: Die Sache sieht ein wenig teurer aus wenn man: 7 Tage die Woche a 12 Std. spielt mit einem Gesamtverbrauch von 600 Watt (entspricht knapp 47,- EUR pro Monat nur für das Spielen) Dann würde ich auch sagen: OK, hier ist KEIN Stromproblem, sondern ein Erziehungsproblem!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King, Prophetic und Rockstar85
spamer schrieb:
Dir ist aber schon bewusst das in den Next Gen Konsolen genau die rdna2 steckt wie in Big Navi ?

Ja und? Es geht um den Preis.
Ggü. der Leistung in der Xbox series X und erst recht PS5 verbauten Grafikeinheit der APU lacht die 3080 nur müde.
 
Taxxor schrieb:
Ist die 3080 mit 10900K im Mittel schneller als mit dem 3900XT? Ja, wo siehst du eine Lüge?
Ist die Aussage, dass beide CPUs immer genug FPS für die GPU liefern können falsch? Ja, wo siehst du eine Lüge?
Ganz einfach. Deine Beispiele waren alle Cherry Picked und haben das Bild verzerrt. Extrem!
Wenn du im Mittel schneller schreibst. Sollten wir genau sein und von MINIMAL schneller reden!
Wie wir ja sehen ist ein 10900K NICHT immer die schnellste CPU!
Jetzt trübt dich deine Einnerung wieder...

Ignore werde ich nicht... vielleicht kommt ja irgendwann noch mal was sinnvolles...
Aber weiter fachsimpeln brauchen wir nicht. Hat einfach keinen Sinn.

Schönen Abend noch.

@rest

MfG
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King und gr3if
Würde es mir ja wünschen, habe aber die Befürchtung das AMD da nicht ran kommen wird. Aber die Hoffnung stirbt bekanntlich zu letzt.
 
BlackhandTV schrieb:
die Aussagen das der 10900k mit 3080 schneller ist als ein 3900XT mit 3080 ist falsch, ja.

Denn FPS sind nicht entscheidend wie ein Spiel läuft.

Mit 3950x zB ist das Gameplay meist "smoother" da jedes Game über Windows läuft und Windows nutzt eben mehr als 10 Kerne.
Und wann ist etwas "smoother"? Wenn man mehr FPS bzw konstantere FPS hat.

Und dass die Ryzens die konstanteren FPS liefern ist auch ein Gerücht, das sich sehr hartnäckig hält und noch von Zen1 vs 7700K her kommt.
 
  • Gefällt mir
Reaktionen: adAstra, KlaraElfer, t3chn0 und 2 andere
eden89 schrieb:
watt? wieso gpu übertakten für cpu test, das macht doch garkeinen sinn oder testest du die cpus in fps bei cs go etc?
Genau das macht man aber und auch zurecht.

@ Taxxor

Wie werden sicher bei CB auch noch einige Tests zur Karte und Zen 3 sehen, ggf auch noch was mit Ram an der Kotzgrenze.

Eig kann man sich bei GPU Tests auf eine Auflösung, 4K beschränken. Früher oder später haben die kleineren Auflösungen maximal denselben Vorteil bei der starken GPU.
 
  • Gefällt mir
Reaktionen: Mcr-King
Celinna schrieb:
als ob Intel besser ist ich sag nur Gamestar Test ;)
Wenn er betrieben wird wie unten - für ein GPU Testsystem - dann ja.

Pisaro schrieb:
Schau mal bei Igor vorbei. Selbst der stärkste Intel bringt zwar mehr, aber kaum mehr...
Bei Igor wurde nicht erwähnt welcher Intel es war und wie er betrieben wurde.
Auch gibt es keine Ergebnisse.

Krautmaster schrieb:
Durch den schnellen Ram mit optimierten Timings + Subtimings im CB Testsystem ändert das wenig. Es ist ja nicht so dass man den AMD Stock betreibt. Optimiert ist er min so fix in Games wie der Intel, uU sogar etwas fixer. Zudem eben PCIe 4.0.

Siehe unten.
So muss ein GPU Test Rig aufgestellt sein.


Taxxor schrieb:
Warum sollte man den 3900XT fürs GPU Testsytstem optimieren aber den 10900K dann Stock betreiben?
4133er RAM, 5.2GHz und ab gehts^^
Taxxor schrieb:
Und das war der 9900K, der 10900K mit gleichem RAM wird da nochmal drüber liegen, was dann den Umstand, dass das hier ein X und kein XT war, mehr als ausgleicht.

Bei dem Test lief der 9900K ja mit Handbremse.
Wie wärs mal mit dem hier:
10900K_B0704_5.2GHz-5.0GHz-Cache-1.43V(1.279v)_350kHz_LLC5_DR-2_DIMM_4300-16-17-17-37-340-2T_S...png
 
  • Gefällt mir
Reaktionen: Mcr-King, GreyPrinceZote, BlackhandTV und 4 andere
Krautmaster schrieb:
Heißt aus 30% Vorsprung zur 2080 TI werden dann halt 32% und das war's.
Dann stricken wir das Beispiel weiter...
Was wollen wir bei einem GPU Test messen? -> Die Abstände zur Vorgängergeneration

Soll eine Messung korrekt sein, dann sollte die sich einem realistischen %- Wert so weit annähern wie möglich.
Ansonsten akzeptiert man einen Fehlerfaktor in einer Messung, der keinen Teststandards genügen kann.

Das erste, was man in der Wissenschaft macht, wenn man etwas messen will, ist den Fehlerfaktor zu minimieren z.B. durch Kalibrierung etc.

Was muss ich jetzt tun, um einen bremsenden Einfluss aller Komponenten für die zu Testende Peripherie zu minimieren?
->Alle sonstigen Komponenten ans absolute Maximum treiben, um ein Bottlenecking in Richtung des Testobjektes zu verschieben.

Anderweitig sind die Werte, die man zum Zeitpunkt nach dem Stand der Technik ermitteln kann, einfach fehlerhaft.
Genügend Beispiele wurden inzwischen genannt.

Es wird hier von einigen immernoch nicht begriffen, dass die Komponenten um die GPU hier KEINE Rolle spielen sollen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra, bensen, gesperrter_User und 3 andere
BlackhandTV schrieb:
die Aussagen das der 10900k mit 3080 schneller ist als ein 3900XT mit 3080 ist falsch, ja.
:DBeim nächsten CPU test wird ja wahrscheinlich ein vergleich der CPU s den Streit beenden .... oder auch nicht ....
 
  • Gefällt mir
Reaktionen: Ctrl und BlackhandTV
Matthias80 schrieb:
Ganz einfach. Deine Beispiele waren alle Cherry Picked und haben das Bild verzerrt. Extrem!
Wenn du im Mittel schneller schreibst. Sollten wir genau sein und von MINIMAL schneller reden!

Wenn 7-9% für dich MINIMAL schneller ist, dann haben wir einfach erstens eine andere Auffassung von minimal und zweitens eine andere Auffassung von GPU Tests, da sich auch bei einem 2-3% Unterschied nicht die Frage stellen sollte, welche CPU man für die GPU Tests nutzt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: voalirus, KlaraElfer und .Sentinel.
Matthias80 schrieb:
Ganz einfach. Deine Beispiele waren alle Cherry Picked und haben das Bild verzerrt. Extrem!
Wenn du im Mittel schneller schreibst. Sollten wir genau sein und von MINIMAL schneller reden!
Wie wir ja sehen ist ein 10900K NICHT immer die schnellste CPU!
Jetzt trübt dich deine Einnerung wieder...

Ignore werde ich nicht... vielleicht kommt ja irgendwann noch mal was sinnvolles...
Aber weiter fachsimpeln brachen wir nicht. Hat einfach keinen Sinn.

Schönen Abend noch.

@rest

MfG

Heißt das das @Taxxor nur cherrypicked Benchmarks hier gezeigt hat das der 3900x limitiert usw.?
 
Infect007 schrieb:
Einzig die 8GB sind ein bisschen das Haar in der Suppe, da muss man mal schauen ob sie noch n 3080S mit 20GB nachlegen.

Das ist mehr als nur ein Haar. Was habe ich von Power für 4K, wenn tendenziell 10GB nicht mehr reichen werden. Eine neue Konsolengeneration steht ins Haus und es gibt jetzt schon Spiele, die mit 10gb Probleme haben.
Der Speicher ist echt das K.o Kriterium. Zumindest für mich.
 
Hey, vielleicht bisschen off-topic und besser in den RX 6000 News aufgehoben, aber mich wundert doch, dass AMD auf eine Öffnung der hinteren Partie der Karte verzichtet hat und dass die Backplate überhaupt keine Öffnungen besitzt (also Perforierung) um Abwärme ungehindert entweichen zu lassen.
Lässt das auf einen krass dimensionierten Vapor-Chamber schließen (wenn der von solchen Design-Entscheidungen in seiner Wirkungsweise profitiert) oder was hat sich AMD dabei gedacht?
Da arbeiten Top-Leute, für solch ein Design muss es Gründe geben.
 
Zurück
Oben