Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Krautmaster schrieb:
Schon klar. Je schneller die CPU desto besser. Aber für die Unterschiede zur Vorgänger bräuchte so ein Test kleinere Auflösungen auch gar nicht.
Ich bin da noch nichtmal so abgeneigt, dass man es so wie Igor macht.

Der hat z.B. gesehen, dass es technisch keinen Sinn ergibt die 1080p Tests reinzunehmen, weil sie eben grundsätzlich einen zu hohen Fehlerfaktor hätten.

Man könnte sowas aber im Zuge der technischen Entwicklung als eine Art Leistungssnapshot bezüglich eines fest definierten Basissystems durchgehen lassen, dann wäre es auch wieder in Ordnung. Nur muss man es auch als solchen deklarieren.

Die Werte haben dann aber mehr Aussagekraft bezüglich dieses speziellen Gesamtsystems, als rein auf die Grafikkarte bezogen.

Es geht halt hier um die Definition des GPU Tests. Und die Zahlen, die hier für 1080p und 1440p ermittelt werden sind eher der oben angesprochene Gesamtsystemtest bzw. Leistungssnapshot eines "typischen" höherklassigen Gaming PCs, denn eine technisch den heutigen zur Verfügung stehenden Mitteln durchgeführte Leistungsmessung der GPU.

Was man aber mit solchen "Tests" anrichtet hat man an den von mir vorher gebrachten Zitaten sehen können, nämlich dass die Benutzer hier davon ausgehen, dass die Grafikkarte bei 1440p nicht schneller könne und der Vorsprung zur 2080TI einbräche.

Und das wird dann groß wieder in andere Foren weitergetragen bzw. es bildet sich die Mär der Karte, die in 1440p oder 1080p deutlich schlechter performen würde, bzw. sich nicht absetzen kann.

Nur entspricht das eben nicht den Tatsachen.
 
Jake Grafton schrieb:
Dieser "Mythos" wurde jede Generation zuvor bestätigt...... Meine Güte Jungs... Das ist hier ja wieder wie in den Jahren als man euch erklären musste dass das menschliche Auge mehr als 24 FPS sieht...
Dann schau dir mal den Sprung von PS3 auf PS4 an und was da an VRAM in PC Grafikkarten verbaut war. Das ist eine andere Nummer im Vergleich zu dem was die Nextgen Konsolen haben und die Grafikkarten heute.
Ich frag mich was dieser Nextgen Hype ständig soll: Die PS4 ist auch als Pro Variante nicht in der Lage, 4k ordentlich zu verarbeiten. Jeder einigermaßen ausgestattete Gaming PC mit 2080ti kann das besser. Die Nextgen Konsolen werden diesen Mangel erstmal kompensieren und das war es dann auch. Und von Coding fails wie HZD wollen wir mal absehen. Die 10GB VRAM werden lange ausreichend sein.
 
4to cka3al schrieb:
Wäre gut wenn du schreibst, dass das deine Meinung ist.
das ist nicht meine meinung sondern die von youtubern (gamer-meld, not an apple fan, gamersnexus ..uvm.....) die sich hauptberuflich damit auseinander setzten leuten wie dir die blasen zu zerplatzen in denen sie davon träumen dass ati ne besser karte rausbringt als die 3080. und selbst wenn sie ne 6950/6970 rausbringen kommt dann die 3080ti !
 
gr1nd schrieb:
Ganz nah dran eben nicht an der 2000er Serie (dazu gehört auch 2080(s)(ti)), sondern "nur" an der 2070s. Dafür auch mit 10w mehr TDP und ein paar % weniger Performance. Hier geht es um die xx80.

Du meinst diese Grafik?
https://i.imgur.com/ZOrgSNN.png

Da fehlen wenige Prozent je nach Ausgangspunkt. Da inzwischen aber die Performance gestiegen ist sind wir auf Augenhöhe. Die Treiber von AMD haben eher zugelegt.

aus dem Nachtest von CB zum neuen Testsystem:
1600289119394.png


Aus dem Test von heute:
1600289148649.png



Also insgesamt irgendwie Augenhöhe oder nicht?
 
  • Gefällt mir
Reaktionen: Rockstar85
DaBas schrieb:
Selbst wenn Big Navi ein paar Prozent unter der 3080 liegen sollte, aber dafür weniger Energie benötigt, 16 GB VRAM besitzt und 650€ als UVP mit auf den Weg bekommt, dann wäre das die deutlich attraktivere Karte.
Mehr muß AMD eigentlich gar nicht erreichen. Und das sollte durchaus machbar sein.

Niemals. Die Leistung ja, wenn man alles herausholt. Nur hat AMD hier ein gewaltiges Problem mit dem Preis. Samsung soll Nvidia einen super Preis gemacht haben (Vermutlich im Rahmen ihres 130 Milliarden Investitionsplans die Nummer eins in dem Segment zu werden). Und selbst ohne Angebot sollen die Kosten für 8nm Samsung schon 30% geringer sein als 7nm+TMSC. Nvidia hat den Preis nicht umsonst so niedrig angelegt. Amd muss jetzt ein Produkt schaffen das in diese Preisregion fällt. Und das mit mehr RAM. Und ich vermute Nvidia hat noch Luft nach unten im Preis.
 
eden89 schrieb:
die 6800 soll die 3070 nicht schlagen können aber mehr ram bieten. wenn du denkst das vram das maß der dinge ist hat ati klar gewonnen xD

Mag sein ich spreche aber hier von der 6900 Serie, also Big Navi. Aber trotzdem denke ich, kann AMD diesmal punkten, sonst hätte Nvidia nicht so viel rausholen müssen.
 
Krautmaster schrieb:
z.B. weniger VRAM oder auch mehr Shader, die bei niedrigen Auflösungen nicht effizient ausgelastet werden können, wie bei der KArte mit weniger Shadern, die in hohen und niedrigen Auflösungen alle auslasten kann.
 
eden89 schrieb:
warum vergleichen alle die 3080 mit der 2080ti ? womit wird die 3080 ti dann verglichen werden? jetzt sagt nicht mit der 3080 xD

Weil die 3080 auf dem Big Chip basiert wie die 2080ti auch.
 
  • Gefällt mir
Reaktionen: DF86, eXe777, maxpayne80 und 3 andere
Windell schrieb:
Wechsel einfach auf Intel und gut ist. Dann haste Alles an FPS was geht.

Hast du nach den ganzen Seiten noch nicht verstanden, dass es hier um ein ordentliches GPU Testsystem und nicht um meinen Privat-PC geht?

Ich weiß, dass ich mit Intel mehr FPS haben könnte(gesetz dem Fall dass ich mir eine der neuen GPUs hole), ich selbst limitiere die FPS aber meist sowieso, sodass das für mich nicht so tragisch ist.
Trotzdem möchte ich in einem GPU Test aber die Zahlen der GPU sehen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
@Jan wäre es möglich, vertragstechnisch, whatever, mit Eurer Vollmacht, die 3080 FE Eures Tests mal für einen Test an Esenel zu schicken. Muss Jensen ja nicht wissen ;)

Im Tausch gegen Esenel´s Personalausweis. Versteht sich :)
 
Taxxor schrieb:
in niedrigeren Auflösungen kann die GPU Leistung durch weit mehr beeinflusst werden als durch ein CPU Limit.

in niedrigen auflösugnen bremst die cpu am meissten! in 4k hätte man keinen cpu bottleneck den man mit dem cpu bottleneck in full hd vergleichen kann! da wäre die gpu wieder die schwachstelle auch bei ner 3080!
 
Taxxor schrieb:
Wenn 7-9% für dich MINIMAL schneller ist, dann haben wir einfach erstens eine andere Auffassung von minimal und zweitens eine andere Auffassung von GPU Tests, da sich auch bei einem 2-3% Unterschied nicht die Frage stellen würde, welche CPU man für die GPU Tests nutzt.
Wo kommen deine 7-9% her?
Dein zitierter Test!
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/27.html
Relative Performance: 2% unterschied.
in FPS: 96,1 vs 97.7

Der Test redet von 4K.
Wenn ich mir jetzt so einen Boliden Hole. 3090 schwansinn in meinen Augen.
Dann 4k mit einer 3080. oder mal schauen was AMD noch so bringt.
2k war nie nischen Lösung weil viele erkannt haben, das für 4k noch die Leistung fehlt.
DAS es jemals eine Karte geben wird die immer und überall, in jedem Spiel mehr als genug Leistung bringt.
Dem ist nicht mehr zu helfen...
High FPS Games die es richtg machen. Schaffen mit einer 3080 auch in 4k mehr als 60 FPS.
Siehe Doom. Da ist übrigens der 3900XT mit 152 FPS die Speerspitze!
Andere Games brauchen das vielleicht gar nicht.
Da ist vielleicht die Spieleengine gar nicht für ausgelegt!
Wer in Anno 144FPS braucht... dem ist nicht mehr zu helfen mMn. in 4k sieht es allemal geiler aus als mir 144FPS da überhaupt was bringen.
Da kommen nur die ich habe den längsten Balken Typen durch.

Das Brett vorm Kopf muss dich doch stören?!?!?!?!

MfG
 
  • Gefällt mir
Reaktionen: eXe777
Irgendwie habe ich da wohl etwas nicht verstanden. Im Text wird von 31% gesprochen, die die 3080 ggü der 2080 Ti FE an Performancegewinn hat. Im Performance-Rating für 4K sind das aber "nur" 23%. Oder sind bei den 31% alle anderen Werte (Anwendungen / RTX / DLSS) kumuliert? 🤔
 

Ich finde er hat Recht.
Der knappe Speicher ist ein echtes Problem.

Hoffentlich hat AMD etwas DLSS entgegenzusetzen.
 
  • Gefällt mir
Reaktionen: fox40phil
Taxxor schrieb:
z.B. weniger VRAM oder auch mehr Shader, die bei niedrigen Auflösungen nicht effizient ausgelastet werden können, wie bei der KArte mit weniger Shadern, die in hohen und niedrigen Auflösungen alle auslasten kann.
Für gehst also darum 1080p Architekturschwächen für E-Sport aufzudecken, im Unterschied zum CPU Limit selbst?

Alte Titel profitieren auch über die Zeit nicht mehr viel von neuen GPU in kleiner Auflösung.

Würde aber annehmen dass zB das Delta 1080p bei einer 1060 zu RTX 2060 bei Release deutlich kleiner war als es heute ist. Vielleicht eher so wie es damals in 1440p war.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Vanickel schrieb:
Irgendwie habe ich da wohl etwas nicht verstanden. Im Text wird von 31% gesprochen, die die 3080 ggü der 2080 Ti FE an Performancegewinn hat. Im Performance-Rating für 4K sind das aber "nur" 23%. Oder sind bei den 31% alle anderen Werte (Anwendungen / RTX / DLSS) kumuliert? 🤔
FE mit FE vergleichen.
 
gr3if schrieb:
Da fehlen wenige Prozent je nach Ausgangspunkt. Da inzwischen aber die Performance gestiegen ist sind wir auf Augenhöhe. Die Treiber von AMD haben eher zugelegt.
Ne ich meinte schon aktuelle Werte, sonst wären es ja etwas mehr als ein "paar" Prozent. Aber hier wird ja teils spekuliert, dass Big Navi die 3080 schlagen wird und genau das zweifel ich an. Dass Big Navi die 3070 schlagen kann, sollte klar sein (hoffe ich doch mal). Wobei da tatsächlich die Frage ist, zu welchem TDP Preis.
 
Taxxor schrieb:
Dass der Test 1080p, 1440p und 2160p zeigt, übersiehst du absichtlich?

9% in 1080p, 7% in 1440p und 2% in 4K
Nein.
Dachte wir sind bei 4K.
da kam ich mit deinen 7-9% nicht nach...

Also hast DU auch gesehen. Wir reden hier von 2%.

Thema durch.

MfG
 
eden89 schrieb:
in niedrigen auflösugnen bremst die cpu am meissten!
Er meinte denke ich eher damit, dass sich die Last auf der GPU z.B. von den Shadereinheiten auf die Geometrieverarbeitenden Einheiten verschiebt, wenn die Framerate steigt.

Auch eine GPU hat unterschiedliche Gewerke (Shader, ROPs) etc., die je nach Anforderungsprofil nach Auflösung oder High FPS unterschiedlich belastet werden und demnach auch auf unterschiedliche Art und Weise die Leistung begrenzen.
 
Zurück
Oben