Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Rock Lee schrieb:
Die Frage ist ja, ob Nvidia überhaupt ein Interesse daran hat ;)
Die FE scheint mehr ein Lockvogelangebot zu sein...
Frage ich mich auch. Aber was wollen sie machen, bis zur 4080 in 2 Jahren keine Karten mehr verkaufen?
Kann ich mir auch wieder nicht vorstellen...
 
Ja, ja klar es sind 81% und nicht schlappe 55%
Das ist schon mehr als ordentlich.

WQHD

RTX3080FE = 181%

VII = 100%

https://www.computerbase.de/artikel...itt_benchmarks_in_2560__1440_sowie_1920__1080

Das sind schon Welten !
RTX3080Ti incoming !



RDNA2 wird da nie und nimmer rankommen, schwer vorstellbar ! Vega und Fury sahen auf dem Papier auch nicht schlecht aus. :skull_alt:

Eine GPU besteht zudem nicht nur aus Shadern !
 
  • Gefällt mir
Reaktionen: gr1nd
Was versteht denn ihr denn unter "Lockvogelangebot"? :D
 
Payne19 schrieb:
Das Auto bringt mir im Alltag aber deutlich mehr als eine GPU.
"Bringen" ist wörtlich korrekt :D Aber der Rest ist Sichtweise.

Wieviele Stunden am Tag sitzt Du da drin, und wieviele am Rechner? Just saying ;)

Ein Wochende mal daddeln ist netto mehr Zeit als ich die Woche im Auto sitze. Das kostet mich jedes Jahr mehr als eine 3090 schon dafür, dass es da ist.

Geht nur um die utilization, nicht um die "Rolle" im Alltag.

Vom Wertverlust und der Standkosten (nicht gefahrene Autos kosten auch Geld, immer) aller meiner meiner Autos seit 1994 kann ich direkt 10 oder so 3090er SLI Daddel PC Gespanne bauen, denn in den 26 Jahren habe ich von allen meiner Daddelkisten mehr gehabt, in jeder Hinsicht.

Alles eine Frage der Perspektive.


Daher amüsieren mich die Echauffierungs-Emotionen hier über 1000 Euro für ein Hobby alle paar Jahre.
 
  • Gefällt mir
Reaktionen: Drummermatze
Wadenbeisser schrieb:

Na du bist schon ein Fuchs, als erstes behauptest du die 8GB Karten verlieren alle bei den AVG FPS wegen zu wenig Speicher in 4K an Leistung und es liege nicht an dem wegfallenden CPU Bottleneck, obwohl CB schreibt:

8 GB reichen im neuen Grafikkarten-Testparcours nicht immer aus: In Horizon Zero Dawn rechnen alle Grafikkarten mit nur 8 GB in Ultra HD deutlich zu langsam und haben mit Stottern beim Spielen zu kämpfen. Das zeigt sich an den Perzentil-FPS. Während die GeForce RTX 2080 Ti mit 11 GB im Durchschnitt nur 15 Prozent mehr FPS...
Und für eine 2080 Super und 5700XT jeweils bei den AVG FPS nur ein einziger Titel überhaupt in Frage käme (Doom Eternal), argumentierst du nun ausschließlich noch mit der Vega 64 und überträgst das Verhalten der schrottigen Karte bei den AVG FPS auf alle anderen Karten.

Im Mittel gibt es keinen signifikanten Einfluss des V-ram Mangels bei den AVG FPS (2080 Super, 2070 Super, 5700XT), ja noch nicht mal bei den Percentilen. Warum die Karten abfallen liegt bei den AVG FPS rein an der geringeren Leistung, welche erst durch ein wegfallendes CPU Bottleneck zum Tragen kommt.

Wie kann man das beweisen? Na, man nimmt alle Spiele die einen kolportiert hohen V-ram Verbrauch haben aus der Rechnung und schaut dann auf die Leistung. :rolleyes:
Nehmen wir doch mal deine 3 Games die du verdächtigst, aus der Rechnung.

Das wären Doom Eternal, Breakpoint und Zero Horizon Dawn.
Einmal Original.

Aldaric oroiginal.PNG

Und einmal mit deinen 3 verdächtigen Spielen....

Aldaric ---.PNG


Wie man sieht, verändert sich nichts signifikantes, alles bleibt innerhalb der Messungenauigkeit stehen.
Während die 3080 vorher 100% schneller als die 5700XT war, sind es jetzt 99%.
Die Radeon VII ist bei den AVG FPS nun 36% schneller als die Vega 64, original sind es 37%.
Soviel also zu deinen Verschwörungstheorien, der V-ram sei hier ein Problem.

Von 47,7% von der 5700XT zur OC 3080, auf 48,0% der OC 3080... ja wahrlich ein mega Speicherproblem.

Ich habe auch noch mit anderen speicherlastigen Spielen herumgespielt, etwa Res Evil, oder Call of Duty bzw Control mit rausgenommen, was keinen signifkanten Unterschied macht.

Deine Argumentation dürfte jetzt umfassend widerlegt sein. Speicher ist nicht das Problem.
Schuld ist die CPU.

Wadenbeisser schrieb:
, du willst dich also mal wieder rausreden indem du nicht auf meine Inhalte eingehst...

Ich habe genau deine These, Inhalt, Argument benutzt und dich mit den Werten des Tests widerlegt.

Wadenbeisser schrieb:
Damit kann ich mir also weitere Diskussionen sparen.

Da stimme ich zu, es macht wirklich keinen Sinn, da du, bevor du dich festgelegt hast, ganz offenbar nicht die Werte aus dem Test zur Rate gezogen hast. V-ram ist bei den AVG FPS kein Performancekiller, nicht annähernd.

Wadenbeisser schrieb:
... bei UHD geht der Radeon mit ziemlicher Sicherheit der Speicher aus also wäre bestenfalls 2.560 × 1.440 sinnvoll vergleichbar.

Nein. q.e.d. Die Differenz liegt <1%.

Fun Fact: Die Vega 64 hat auf die 3080 trotz des schlimmen Speichermangels bei den AVG FPS 0,1% Punkte gut gemacht.:D
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: adAstra, Gr3yh0und, engineer123 und 3 andere
Esenel schrieb:
Der 3900X ist einfach zu lahm für die Karte in 1440p und 1080p :-D

Aber wollte ja bis gestern keiner glauben :-P

Schau mal bei Igor vorbei. Selbst der stärkste Intel bringt zwar mehr, aber kaum mehr...
 
Laphonso schrieb:
Wieviele Stunden am Tag sitzt Du da drin, und wieviele am Rechner? Just saying ;)
Ein Wochende mal daddeln ist netto mehr Zeit als ich die Woche im Auto sitze. Das kostet mich jedes Jahr mehr als eine 3090 schon dafür, dass es da ist.
Der Vergleich hinkt, wie fast jeder Autovergleich. Die wenigsten fahren durch die Gegend, weil das ihr Hobby ist. Es geht hier um einen "Gegenstand", der einen erforderlichen Zweck erfüllt. Die Grafikkarte ist, wenn man damit nicht unbedingt Geld verdient o.Ä., nice to have. Ein Auto ist für viele Menschen kein nice 2 have, sondern ein must.
 
sialickiz schrieb:
Ja, ja klar es sind 81% und nicht schlappe 55%
Das ist schon mehr als ordentlich.

WQHD

RTX3080FE = 181%

VII = 100%

https://www.computerbase.de/artikel...itt_benchmarks_in_2560__1440_sowie_1920__1080

Das sind schon Welten !
RTX3080Ti incoming !



RDNA2 wird da nie und nimmer rankommen, schwer vorstellbar ! Vega und Fury sahen auf dem Papier auch nicht schlecht aus. :skull_alt:

Eine GPU besteht zudem nicht nur aus Shadern !
Wieso schaust du Vega an? Navi ist Shader und Taktmäßig gleichauf mit Turing. Ampere legt ja nur 7% drauf, da muss AMD nun wirklich nicht so viel heben.
Und man vergleicht 250mm² Navi vs 770mm² 2080Ti und 630mm² 3080. Logo das da eine "kleine" Differenz ist?
 
  • Gefällt mir
Reaktionen: Holindarn
Taxxor schrieb:
Wenn es bei 250W dann 6% sind, merkt das immer noch niemand.

Aber warum wurde dann in den letzten Tagen soviel im anderen Thread diskutiert, dass GPU-Tests mit dem 3900XT so gar nicht gehen, weil da 10% Leistung verloren gehen? Und nu merkt man 6% gar nicht? :D
 
  • Gefällt mir
Reaktionen: Grundgütiger und bad_sign
Esenel schrieb:
Nö.
Weil alle blindlings auf Zen2 umgesattelt haben und nun im CPU Bottleneck hängen :hammer_alt:
Weil auch ALLE eine 2080ti oder eine 3080 haben ! Ist klar! :D
 
  • Gefällt mir
Reaktionen: Setting und Monstranz
Was ist mit SLI kommt da ein Test? Unterstützen die Dinger das überhaupt noch?
 
Das Bottleneck hält sich auch in Grenzen wenn ich mir den Test von Hardware Unboxed anschaue
Screenshot_1.png
 
  • Gefällt mir
Reaktionen: Col.Maybourne, McTheRipper, yummycandy und 3 andere
Payne19 schrieb:
Also meine Lebensmittel bestelle ich mir bestimmt nicht im Internet :D
Und nicht jeder Arbeitet mit dem PC die überwiegende Mehrheit muss sich wohl bewegen in ihren Jobs^^

Sonst wären die Straßen und Städte ja von 9-17 Uhr Menschenleer, wenn alle im Homeoffice wären. :D
 
frkazid schrieb:
Aber warum wurde dann in den letzten Tagen soviel im anderen Thread diskutiert, dass GPU-Tests mit dem 3900XT so gar nicht gehen, weil da 10% Leistung verloren gehen? Und nu merkt man 6% gar nicht? :D
Erstens sind es je nach Spiel bis zu 20% und zweitens geht es da um das Prinzip von ordentlichen Tests und nicht um die persöhnliche Wahrnehmung als Privatnutzer.
 
  • Gefällt mir
Reaktionen: Esenel, KlaraElfer und .Sentinel.
Zurück
Oben