Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

FÜr "richtige" Next-Gen Ports und konstante 60FPS wird mindestens eine RTX2080S von nöten sein.
So sicher wie das Amen in der Kirche !

Die ganzen AMD karten ala VII und 5700 und co. haben keine Zukunft mehr, viel zu langsam !
AMD muss praktisch mir RDNA2 abliefern und zwar richtig !

Screenshot_2020-09-16 Nvidia GeForce RTX 3080 FE im Test Benchmarks in Full HD, WQHD und Ultra...png
 
Wadenbeisser schrieb:
Praktisch alle 8 GB Modelle brechen @UHD gleich stark ein und lediglich die Modelle mit mehr Speicher können sich absetzen.

Praktisch alle 8GB Modelle sind leistungstechnisch weit von 2080Ti und noch weiter von 3080 entfernt, logischerweise, wenn man das CPU Limit rausnimmt, werden sie in Relation langsamer.
Dass kein V-ram Bottleneck im CB Parcour vorliegt, siehst du an den 0,2% Percentilen, da holt die 5700XT gegenüber der 11GB 1080Ti auf und auch diese bleiben mit 50% weniger Leistung zur 3080 identisch zu den FPS Werten. Du verwechselst ein CPU Limit mit V-ram Limit, weil deine vorgefertigte Meinung (Die 3080 wäre gar nicht doppelt so schnell wie die 5700XT) bestätigt werden muss, das ist doch durchschaubar.

Jeder sieht, dass der V-ram im Mittel keine Rolle spielen kann, ich hab die einzelnen Spiele schon durchgeschaut.

Das einzige Spiel in dem die Leistung zwischen 2080 Super und 2080Ti von den üblichen +19 bis +24% abfällt ist Doom Eternal in UHD mit +31%, während die 5700XT aber stabil bleibt und auf die 2080 Super aufholt.
Zu keiner Zeit limitiert der Speicher der 5700XT was die AVG FPS angeht, bei der 2080 Super nur ein einziges mal im kompletten Parcour.

Du hast also ein CPU Bottleneck im Schnitt von fast 10% Punkten in Full HD, siehst aber ein V-ram Limit, was rechnerisch im Mittel weit unter Messungenauigkeit fällt. Ich verstehe nicht wie du auf sowas kommen kannst.

Und nein, die Modelle mit mehr Speicher setzen sich nicht ab, weil die Modelle mit mehr Speicher vor allem eins haben: Wesentlich mehr Cores.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: adAstra und stevefrogs
MarcoMichel schrieb:
Alle Spiele unterstützen das. Du kannst ja mit der AMD- oder NVIDIA-Software 3 Monitore zu einem großen Monitor zusammenfassen. Das Spiel, das man dann startet, erkennt dann eben eine Auflösung von 11520x2160. Das macht unterstützten sogar ältere Spiele wie DirtRally. Zwei 4k-Monitore unterstützt es einwandfrei.
nicht alle!
Für meine Jungs bei den Lego spielen gemacht, für Splitscreen.
und es geht definitiv nicht bei allen, obwohl es sich da anbieten würde!
Bei manchen Spielen macht es auch gar keinen Sinn.
Sorry für mich war dein Beispiel einfach nur Bauernfang.
Aber jedem das seine...

MfG
 
MarkoK schrieb:
Verstehe, ein Landungsklatscher.
Das war das Minimum was nVidia abliefern musste nach der RTX2xxx Verarsche.
Dafür jetzt in Begeisterung auszubrechen ist etwas infantil.

Genauer hingesehen ist die neue Architektur 10-15% schneller bei heute relevanten Auflösungen, der Rest des Performance Vorsprungs wurde durch mehr Leistungsaufnahme erkauft.
Du wirfst auch noch mit mit Adjektiven um dich, ohne deren Bedeutung wirklich zu kennen, aber verhältst sich im gleichen Zug auch noch genauso. Dazu gehört schon wirklich ein hohes Level and Selbstironie.
Und was ist bitte ein Landungsklatscher?

Abgesehen davon, sind die "Auflösungen von heute" eben absolut nicht relevant, wenn es eben ausgerechnet um so eine Highend-Grafikkarte geht, die fast ausschließlich nur dazu dient, mind. in 1440p, aber eher in 4k zu spielen. Also sorry, aber deine Logik ist nicht ganz so bahnbrechend, wie du denkst.
 
  • Gefällt mir
Reaktionen: CrustiCroc
@sialickiz

Es ist peinlich für Nvidia trotz 8nm nicht viel schneller bei über 300W. Sie haben viel mehr Budget für die Grafikkarten als AMD und dann kommt so eine Leistung? lol
 
Jake Grafton schrieb:
Ist das Zufall oder will Nvidia das nicht, dass getestet wird ob die 10 GB reichen?
Hab jetzt schon 4 Tests gesehen und nirgends wurde es getestet.
Das braucht man auch nicht testen, da allgemeinhin bekannt, das sogar 8 GB in 4K meistens zu 99% stand Heute reichen. 10 GB dann erst Recht.
 
  • Gefällt mir
Reaktionen: Mike_MTL
sialickiz schrieb:
Die ganzen AMD karten ala VII und 5700 und co. haben keine Zukunft mehr, viel zu langsam !
Viel zu langsam für was ? Für deine Bedürfnisse oder für die Allgemeinheit?

Mit einer RX 5700/5700 XT wird man noch wunderbar in full HD oder WQHD (mit angepassten settings) je nach Spiel zocken können.
 
  • Gefällt mir
Reaktionen: Derenei
Tja, dann bin ich mal gespannt was AMD zu bieten hat. Mein PC ist inzwischen deutlich in die Jahre gekommen, da ist bald ein Rundumschlag fällig.
Die stark verbesserte Effizienz bei Reduzierung des PL war ja fast schon zu erwarten, die letzten Prozent benötigen immer überproportional Leistung. Dann reicht auf einmal das alte Netzteil doch noch, bei minimaler Leistungseinbuße...
Gespannt bin ich ja auf Sampler Feedback Streaming, bei dem Video von MS zur Vorstellung der Series S hat man ja kurz gesehen, wie die Technik den VRAM Bedarf quasi halbiert hat. Wenn die Konsolen die Technik beherrschen, werden auch auf dem PC neuere Spiele zunehmend darauf setzen, wodurch die 10 Gig der 3080 vielleicht doch wesentlich später zum Flaschenhals werden. Die Konsolen selbst haben ja keinen so großen Sprung beim Speicher hingelegt - von PS3 und 360 auf die Nachfolger wurde der RAM ja um den Faktor 16 vergrößert, während es in der jetzigen Generation nur den Faktor 2 gibt (vergleicht man die One X zur Series X ist es sogar gerade mal ein drittel mehr Speicher)
 
Zuletzt bearbeitet:
monitorhero schrieb:
Denkst du Entwickler versuchen nicht eher auf das zu optimieren was die Masse verwendet? Rhetorische Frage. Sie wollen das möglichst viele Menschen ihre Spiele zocken und das in bestmöglicher Optik.

Verstehst du immer noch nicht, dass ich das auf meinen Fall beziehe? Für mich macht eine 10GB halt keinen Sinn und deswegen kaufe ich keine.
 
Nahrungsmittel schrieb:
Ich schrieb: Wenn man sich Mal die WQHD Ergebnisse anschaut ist der Vorsprung gegenüber der rtx 2080 TI ernüchternd. Nichts anderes sagt der Test auch aus wenn man sich die Ergebnisse bei WQHD anschaut

Die 3080 ist 28% schneller und dabei 44% billiger als eine 2080 Ti (UVP-Preise). Macht unterm Strich gut doppelt so viel FPS pro Euro. Was ist daran "ernüchternd"?
 
  • Gefällt mir
Reaktionen: adAstra, tomasvittek, Mike_MTL und 7 andere
Pisaro schrieb:
Verstehst du immer noch nicht, dass ich das auf meinen Fall beziehe? Für mich macht eine 10GB halt keinen Sinn und deswegen kaufe ich keine.
Und die 1Gb mehr helfen bei ner 1080ti oder 2080ti?
 
  • Gefällt mir
Reaktionen: Mike_MTL
New beta is around the corner, we'll release it with 30x0 reviews. Changes list includes:

· Added NVIDIA Ampere GPU architecture support:
o Added new fan control 3.0 API support
o Added new integrated OC Scanner API support, please read below to get more info about new OC Scanner implementation
· Updated bundled MSI Overclocking Scanner application:
o Starting from 455.xx drivers family, NVIDIA OS Scanner is no longer implemented as a separate software component redistributed with each AIC partner’s overclocking software. Now NVIDIA OC Scanner is integrated into the driver and third party software can natively access it via NVAPI. Such implementation simplifies the process of OC Scanner maintenance for NVIDIA, it is no longer necessary to ship updated software components to AIC partners and re-release each partners’s software when something needs to be changed inside OC Scanner from NVIDIA side. MSI Overclocking Scanner supports both implementations of NVIDIA OC Scanner API:
§ Old legacy implementation of NVIDIA OC Scanner via separate software components for NVIDIA Pascal and Turing architectures for pre-455.xx drivers family
§ New integrated NVAPI based implementation of NVIDIA OC Scanner for 455.xx and newer NVIDIA display drivers
o New NVAPI based OC scanner implementation features the following changes and improvements:
§ Automated overlocking support for both core and memory clocks
§ OC Scanners’s results are now persistent. It means that once the scanning process succeeds, NVIDIA driver internally saves optimized voltage/frequency curve and overclocked memory clock and apply them as new system defaults after reboot, even if you close or uninstall overclocking application. Now there is new “Revert” button inside MSI Overclocking Scanner, which allows you to revert overclocked curve and memory clocks to their real defaults
o Manually adjusted clock/frequency curve stability testing functionality is deprecated and no longer available
· Added voltage control for reference design NVIDIA GeForce RTX 30x0 series graphic cards
· Added new MSI Ampere and MSI Indigo skins by Drerex design

Stay tuned!
https://forums.guru3d.com/threads/rtss-6-7-0-beta-1.412822/page-125#post-5829832
 
warum dieses Geheule wegen den 10GB Speicher?
Würde der Trend so weitergehen, wären 10GB wirklich bald zu wenig, aber die neue DirectX Version, sowie die Next Gen Konsolen haben ja dafür eine Lösung, sodass sie nicht alles dauerhaft im Speicher halten und direkt ohne die CPU zu belasten auf die Festplatenresourcen zugreifen können.
 
  • Gefällt mir
Reaktionen: Mike_MTL, icetom und Kenjiii
Ich finde die Ergebnisse ehrlich gesagt enttäuschend dafür dass im Vorfeld von 50 % und mehr Vorsprung zur 2080ti die rede war
 
  • Gefällt mir
Reaktionen: Clutch04
drunk_chipmunk schrieb:
Die 3080 ist 28% schneller
Das ist eben nur eine normale zu erwartende Steigerung für eine neue Generation. Nicht das wie es doch so großartig überall vorher angekündigt und prophezeit wurde. Genau das ist der Punkt warum ich es ernüchternd finde. Ich habe einfach mit mehr gerechnet.
 
  • Gefällt mir
Reaktionen: Beneee, Vendetta, Froz0ne und 2 andere
Schranz0815 schrieb:
Leistungskrone in Spielen interessiert nur Fanboys, wie du es gerade wieder bewiesen hast. Für Leistungskrone vergessen die Fanboys gern Ihre eigenen Prinzipien der letzten Jahre um die Konkurrenz schlecht zu Reden. Wie gesagt, es ist sehr amüsant die Kommentare den beiden Lagern in den Foren zu lesen Viel Spaß mit der Karte. Vergiss nicht, dir ein starkes Netzteil zu kaufen.

Ich habe 850 Watt, das reicht. ;)

Lustig wie du mir etwas unterstellst.
Mir, der seit 10 Jahren stets zwei Rechner gleichzeitig am Laufen hat, einen mit einer AMD, einen mit einer NV Karte bestückt.
Mir, der solange es "sinnvoll" war auch immer Crossfire laufen hatte.
Und das, obwohl es aus meiner Sicht als Spieler eigentlich keinen Grund gibt noch AMD zu kaufen...außer man ist Fan.

Ich habe auch keine Ahnung von welchen seltsamen Prinzipien du redest, im Bereich hardware habe ich keine.
Wer bei einem solch großen Konzern kauft, braucht sich moralisch nichts schön reden, die haben alle Dreck am Stecken und sind nicht die Heilsarmee.
Nur weil NV evtl. schlimmer ist, macht es AMD nicht zu einem guten. ;)

Übrigens hat auch die 3080 nicht die Leistungskrone inne, bzw. nur kurz.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: psychotoxic und monitorhero
Na dann pflücken wir die 3080 doch mal auseinander...

Leistung:
Schneller als eine 2080Ti und damit zunächst offiziell die schnellste Consumer-Grafikkarte. In Anbetracht dessen, dass die 3080 nicht die Speerspitze darstellt und trotzdem round about 20% schneller als die vorherige Gen. ist, wirklich beeindruckend.

Kühlung:
Ich war von Anfang sehr angetan, als der Kühler da erste Mal gezeigt wurde. Das gab es bisher eben noch nicht. Für die zu bewältigende Abwärme ist das ein durchaus gelungenes Konzept.
Meine anfänglichen Bedenken bzgl. der höheren Temperatur beim RAM und der CPU konnte CB widerlegen. Also bleibt nur: Hervorragende Arbeit!

Leistungsaufnahme:
Thermi 2.0? 320W ist schon eine ordentliche Ansage. Ich hatte zunächst mit den typischen 250W gerechnet. Das wurde mit den ersten Gerüchten aber schnell begraben.
Untypisch für nvidia, da man gerade mit der GTX10 und darauf aufbauend mit der RTX20 sehr gute Effizienz abgeliefert hat. Mit Blick auf die Leistung ist das aber durchaus zu vertreten, zumal die Effizienz ja weiter gesteigert werden konnte, wie der 270W-Vergleich gezeigt hat.
Der proprietäre Stecker hat sicherlich seine Vorteile, ist aber natürlich völlig deplatziert.

Fazit (aus Sicht eines 5700XT-Nutzers):
Ich bekomme knapp die doppelte Leistung (WQHD; Stock vs. Stock) für knapp den doppelten Preis (369,-€; WaKü nicht eingerechnet) bei ca. 50% höherer Leistungsaufnahme. Da kann man nicht meckern.
Auch ggü. anderen Karten muss man die 3080 wohl als gelungenes Paket bezeichnen, auch wenn die 320W einen (ganz) leichten, bitteren Beigeschmack hinterlassen. Die 3070 könnte diesbezüglich einen noch besseren Eindruck machen.

Ich freue mich auf die Customs, vor allem natürlich auf weiße Derivate, bzw. auf die Verfügbarkeit des Eiswolf 2 und bin weiterhin nicht abgeneigt, nach der 7950 GX2 mal wieder ins grüne Lagern zu wechseln. Mal schauen, was AMD dagegen zu setzen hat und in welcher Farbe dann der Weihnachtsbaum "leuchtet" (Verfügbarkeit vorausgesetzt).
 
  • Gefällt mir
Reaktionen: Derenei, Mike_MTL, AUTScarab und eine weitere Person
Zurück
Oben