Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

O...M...G... leute wie viel offtopic gestreite es hier gibt, kann man bitte mal endlich akzeptieren dass intel besser ist wenn man nicht gerade ne cpu zum rendern mit 12 kernen braucht ? also für so ziemlich fast jeden! und weider auf die 3080 fe zurückkommen?
 
.Sentinel. schrieb:
Was wollen wir bei einem GPU Test messen? -> Die Abstände zur Vorgängergeneration
Schon klar. Je schneller die CPU desto besser. Aber für die Unterschiede zur Vorgänger bräuchte so ein Test kleinere Auflösungen auch gar nicht.

Im Idealfall testet man beide Plattformen durch. Wie Techpowerup. Muss man sich vom Aufwand halt leisten können.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Krautmaster schrieb:
Vermutlich hat die Temperatur im Testzimmer und Case mehr Einfluss aufs Ergebnis als die CPU ob nun 3900XT oder Intel.

@ Techpowerup

Interessant wären ob die Subtimings optimiert sind. Das hatte bei meinem Ryzen den größten Effekt.
Aber ja, 2%, wie erwartet ;)

Sind sie nicht wirklich sondern nur standard. 😉
 
Taxxor schrieb:
Weil die CPU nun mal limitiert? Warum sollte man nicht vom CPU Limit reden?

Hier nur mal drei Beispiele
Anhang anzeigen 967467

Ich kaufe mir also eine 3080 und habe mit dem Ryzen in Borderlands 3 exakt so viele FPS wie mit der 2080Ti, tolle Wurst.

Anhang anzeigen 967468

Hier habe ich in 1440p mit dem Ryzen sogar trotz 3080 weniger FPS als der Kollege mit dem Intel und eine 2080, noch besser^^

Anhang anzeigen 967469


2k sind halt nicht das Ziel der 3080.
 
  • Gefällt mir
Reaktionen: McTheRipper und Krautmaster
CrustiCroc schrieb:
Das braucht man auch nicht testen, da allgemeinhin bekannt, das sogar 8 GB in 4K meistens zu 99% stand Heute reichen. 10 GB dann erst Recht.
Ich kenne kaum jemanden der nur die Mainstreamspiele spielt die immer zu solchen Tests herangezogen werden. Dazu stehen noch die neuen Konsolen vor der Tür, die den VRAM Verbrauch wieder massiv anheben werden.
Wenn du mit 8 GB klarkommst, dann ist das schön für dich. Bei mir waren 8 GB schon 2016 voll bei 1080p.
Auf Leute wie dich hab ich for 10 Jahren nicht mehr gehört, als sie mir noch 2-Kerner für Spiele empfohlen haben.
 
  • Gefällt mir
Reaktionen: Mcr-King
Jake Grafton schrieb:
Dazu stehen noch die neuen Konsolen vor der Tür, die den VRAM Verbrauch wieder massiv anheben werden
Diesen Mythos liest man ständig hier. Wahrer wird er trotzdem nicht. Einfach mal die (detaillierten) Specs von PS5 und Series X lesen, dann wird vielleicht auch klar, weshalb
 
  • Gefällt mir
Reaktionen: McFritte
gr1nd schrieb:
Ja und? Es geht um den Preis.
Ggü. der Leistung in der Xbox series X und erst recht PS5 verbauten Grafikeinheit der APU lacht die 3080 nur müde.

Aso nee mir geht es um die Performance, Big Navi wird bei 3080 oder drüber landen. Sonst hätte Nvidia keine 50 Watt mehr für 4 % Performance geopfert. Das war meine Hauptaussage, das AMD dann tendenziell günstiger ist war und ist, ist nur eine Annahme.
 
  • Gefällt mir
Reaktionen: rasenschach und m2020
rowein schrieb:
Wie sieht es genau in diesem Szenario mit der 2080ti aus? Wenn die hier ebenfalls in FHD und WQHD zulegen kann, relativiert sich das ganze doch ziemlich schnell wieder?
Nicht, wenn vorher beide GPUs limitiert wurden und die 2080Ti dann durch die schnellere CPU in mehr Spielen zu 100% ausgelastet werden kann, während die 3080 weiterhin limitiert wird.
 
Malustra schrieb:
Und das wird sich so schnell auch nicht ändern.
4K ist und bleibt für mich eine Spielerei für Enthusiasten.
Letztlich führt 4K immer wieder zu abgespeckten Grafiksettings, wenn man gute FPS Raten haben möchte.
Besonders eben bei anspruchsvollen Titeln. Wenn man sieht, dass die 3080 da so im Schnitt bei 50-70 FPS rumdümpelt, ist das jetzt nicht besonders berauschend, wenn man einen 144hz Monitor nutzt.
Allgemein sind so geringe FPS Raten nicht besonders smooth. Ich bin mit hohen FPS Raten in Full HD verwöhnt
und möchte nicht ständig bei diesen Raten rumdümpeln oder GRafiksettings abspecken.
Insofern ist 4K für mich nach wie vor Unsinn fürs Gaming. Außer bei ruhigeren Titeln oder eben Titel,
die nicht so anspruchsvoll sind. WQHD halte ich für anspruchsvoll genug.

Meine Meinung :D

4K ist schon nen riesiger Unterschied, was die Qualität angeht. Da brauch ich dann aber auch keine Ultra-Super-Duper-Nightmare Max settings, sondern da reichen dann auch Mittel bis Hoch.
Die hohen fps Raten erreichst du dann auch damit locker, wobei sich das meiner Meinung nach nur in schnellen Shootern bemerkbar macht. Witcher und Co zock ich eh mit der Controllöse, da reichen dann auch locker 30-40fps..

Meine Meinung :D
 
Dai6oro schrieb:
Doof nur dass Nvidia diese als solche bewirbt.

Ja kann man auch gerne als 4K bewerben. Das ändert auch nichts an der Tatsache, dass man mit der Karte nur in WQHD mit hohen FPS Spielen kann und eine Radeon 5700XT häufig nicht mal 60 FPS @ max generiert.
Und das ist auch gut so, denn die BQ ist mit höheren FPS meist wesentlich besser, weshalb sich UHD eh nicht lohnt.
 
  • Gefällt mir
Reaktionen: t3chn0
Creeper777 schrieb:
Wie häufig ist den 4k verbreitet?
Das ist zwar nur whataboutism, aber was solls: Laut CB Hardware-Umfrage rund 14% der Leser und das Monitor-Angebot bei Mindfactory (als Indiz für die Nachfrage) sieht wie folgt aus:
520 Monitore mit FHD
116 mit WQHD
138 mit 4K und Obacht!
Ganze 25 mit der komischen 3440 Auflösung!
Davon, dass 4K mittlerweile zum Standard bei Fernsehern geworden ist, fang ich mal nicht an.

Und wenn man mal zusätzlich annimmt, dass der CB-Test auch für CB-Leser gemacht ist, dann sind mit den Auflösungen FHD, WQHD und 4K rund 80% aller Leser laut CB-Hardwareumfrage bedient. Sonst noch Fragen? :P
 
  • Gefällt mir
Reaktionen: adAstra, Mcr-King und cruse
spamer schrieb:
Aso nee mir geht es um die Performance, Big Navi wird bei 3080 oder drüber landen. Sonst hätte Nvidia keine 50 Watt mehr für 4 % Performance geopfert. Das war meine Hauptaussage
Ich würde es als alter Fan AMD ja wirklich wünschen, aber das wird sich leider nicht bewahrheiten.
 
engineer123 schrieb:
Nein, er hat die FE gemessen und dabei Leistungsspitzen in Höhe von bis zu knapp 500 Watt abgerufener
Leistung gemessen, diese Spitzen sind zwar nur einige Millisekunden lang,
Schau dir das Video noch mal an. Die knapp 500W kommen glaube ich (ich erkennst auf dem Handy grad schlecht) nur bei unter 1ms zustande. Bei 1-5 sind wir bei "nur" knapp über 400w. Und er hat offensichtlich auch andere Karten getestet, über die er nur noch nicht reden durfte - er weist ja auch immer wieder drauf hin, dass die Messwette nur gelten wenn man die FE to spec betreibt und es bei Boardpartnern evtl. anders aussehen könnte.
 
Zuletzt bearbeitet:
Fühlt sich so eine Enteignung an? Also für die RTX2000 Käufer?
 
  • Gefällt mir
Reaktionen: Mcr-King und poly123
Taxxor schrieb:
Nicht, wenn vorher beide GPUs limitiert wurden und die 2080Ti dann durch die schnellere CPU in mehr Spielen zu 100% ausgelastet werden kann, während die 3080 weiterhin limitiert wird.
Dann wäre bei einem solchen Test mal eine Angabe zur Auslastung noch interessant.
So kann man doch gar nicht zu 100% eine korrekte Aussage treffen.
 
gr3if schrieb:
2k sind halt nicht das Ziel der 3080.
2K sind ja auch eher 1080p^^

Und zu 1440p: Also ich sehe hier im Test einige Spiele, wo die 3080 um oder unter 100fps liegt, ob 1440p das Ziel der 3080 ist oder nicht, hängt davon ab, ob man eher 60 oder eher 120fps von der Karte erwartet.

rowein schrieb:
Dann wäre bei einem solchen Test mal eine Angabe zur Auslastung noch interessant.
So kann man doch gar nicht zu 100% eine korrekte Aussage treffen.
Die könnte CB uns sogar liefern, da sie für jeden Bench zur Verfügung steht, den sie gemacht haben^^
 
Zurück
Oben