Test GTX 1080 Ti vs. RX Vega 64 (2024): Wie steht es um „fine wine“ im Duell Pascal gegen Vega?

DevPandi schrieb:
Du weißt aber schon, dass 2K entweder 1920 * 1080p oder eben 2048 * 1080 meint, was eben etwas mehr als ca. 2,1 MegaPixel entspricht. Hier wird in 2560 * 1440 gemessen, das sind ca. 3,7 MegaPixel. Das sind also knapp 80 % mehr an Pixeln.

Die 25 fps wären pi mal Daumen in FHD knapp bei 40 - 45 fps. Da ich in einer besonders fordernden Szene in Dog Town messe, kann man in der Regel in 1080p auf der 1080 Ti durchaus 60 erreichen.

Es ist halt alles eine Frage der Szene die man misst und der Auflösung.
Sorry für die verspätete Antwort:
Ok, dachte du (ihr) verwendet den internen Benchmark. Ja, Dogtown ist schon stellenweise heavy aber selbst dort ist (nur wenn man den Rauch etwas runterschraubt) von 25fps nie etwas zu sehen. 25fps 4k ohne DLSS etc ok aber nicht in 2560x1440...ihr suggeriert hier nur ständig, dass man mit älterer (Top of the Line) Hardware heutzutage einfach nicht mehr zocken kann sondern am besten NEUE Mittelklasse Karten kaufen soll die in etwa gleich schnell, jedoch in der Nutzungszeit nie und nimmer an Top of the Line Hardware rankommt anstatt eben für die gleiche Kohle eine deutlich bessere, wenn auch etwas ältere Karte zu holen.....das ist der Kern meiner Kritik. Wie gesagt, ich kann auf meiner 1080ti mit meinem System Cyberpunk2077+DLC mit weit mehr als 25fps (58fps Lock+Gsync) besser als mit einer neueren RX5700 zocken, mit 95% aller Optionen auf Ultra.
 
DrSmile schrieb:
Wie gesagt, ich kann auf meiner 1080ti mit meinem System Cyberpunk2077+DLC mit weit mehr als 25fps (58fps Lock+Gsync) besser als mit einer neueren RX5700 zocken, mit 95% aller Optionen auf Ultra.
sollte eigentlich auch so sein, da die rx5700 nunmal langsamer war als ein rx1080ti, die sind 2klassen auseinander. die 1080ti war/ist auch schneller als die rtx2070. vor allem die 12gb RAM hilft ihr heute nich sehr.

die Rx5700 ist gleich auf mit der Vega64 und Rtx2060super.
 
Northstar2710 schrieb:
die Rx5700 ist gleich auf mit der Vega64 und Rtx2060super.
Das "beste" an der 2060S und allgemein der 20xxer Reihe ist denke ich das Übertaktungspotential, nachdem ich die Kühlung meiner 2060S "verbessert" habe, konnte ich den Boost-Takt mit Zuhilfenahme von Afterburner auf rund 2,1 GHz (2083 MHz) erhöhen.^^

Ohne diese Änderung würde ich die vermutlich nicht mehr nutzen wollen, auch nicht für 1080p/60Hz welches ich noch nutze.^^
 
DeltaPee schrieb:
Man hätte ja meinen können, dass sie nach dem Release von RDNA 2 einiges an Boden gut machen können, gelang aber nicht, trotz der LEistung auf Augenhöhe und in Sachen Effizienz überlegen, griffen die Leute lieber zu Ampere.
Tatsächlich war die Leistung garnicht auf Augenhöhe, hatte eine 6900XT zum Release Ende 2020 (von alter 1000er Nvidia zu AMD gewechselt weil ich dem mal eine Chance geben wollte und man die recht einfach bekommen konnte) und hab Ende 2021 mal eine 3080Ti probieren können und das war ja Wahnsinn, in jedem Shooter war quasi schon DLSS 2 und das sah ja schon damals echt gut aus, plötzlich hatte ich überall viel mehr FPS bei gleicher Bildqualität. Verbrauch der beiden Karten war identisch, wobei die 3080Ti brutal gut mit UV funktioniert hat. Reflex war damals in den Shootern auch schon implementiert, was AMD ja erst dieses Jahr (2024, also 4 Jahre später) mal bringen will. Dann noch die Treiberfehler oder Miniruckler die plötzlich alle weg waren. Die Hardware fand ich schon echt gut von AMD, aber leider hat man damals schon bei den Features, bzw. der Software hinterhergehangen, FSR2 gab es in keinem Spiel damals das kam zum Beispiel in Warzone erst in der ersten Hälfte 2023 meine ich. Verständlich das die logische Wahl da auf Ampere viel.
 
warum sind denn die 1% lows der 4090 realtiv zu den anderen Karten so "schlecht"?
 
DrSmile schrieb:
Ja, Dogtown ist schon stellenweise heavy aber selbst dort ist (nur wenn man den Rauch etwas runterschraubt) von 25fps nie etwas zu sehen.
Die Szene, die ich zum testen nutzem, ist ein absoluter Worst-Case und wenn dort die fps bei 20 - 25 liegen, dann erreichst du in der Regel an anderen Stelle durchaus deutlich mehr.

Spätestens wenn man FSR auf Quality stellt, hat man auch in der Szene gut 40 - 50 fps trotzt der gewählten Einstellungen. Nur wie ich mehrfach auch schon geschrieben habe: Es ging bei diesem Test nie um die Spielbarkeit und dass man 60 fps erreicht. In diesem Test ging es alleine darum sich anzusehen, wie gut Pascal und Vega im Vergleich zu Turing mit modernen Workloads umgehen.
DrSmile schrieb:
Wie gesagt, ich kann auf meiner 1080ti mit meinem System Cyberpunk2077+DLC mit weit mehr als 25fps (58fps Lock+Gsync) besser als mit einer neueren RX5700 zocken, mit 95% aller Optionen auf Ultra.
Wenn ich auf der 1080 Ti und Vega die Mengendichte reduziere sowie die Einstellungen von Psycho maximal auf Ultra limitiere - also nicht Max-Out, wie im Test, dann kann man bei beiden Karten in der Regel um die 40 - 50 fps erreichen in der gleichen Szene. Gerade die SSR und die Mengendichte machen hier verdammt viel aus.

Mit FSR sind dann sogar relativ entspannt die 60 fps drin. Das wäre aber etwas für einen eigenen Test. Nur allgemein muss man dazu sagen, dass solche Tests, die auf die Spielbarkeit mit älterer Hardware schielen, immer etwas verfälschend sind, wenn ich jetzt mein System als Grundlage nehme. Die Paarung eines 7800X3D mit einer 1080 Ti oder Vega 64 ist doch etwas "exotisch".
 
da kannst du lange warten, da ich nur AMD Hardware besitze, und für mich auch keine andere kaufe.

Deine Antwort zeigt mir aber das du es einfach nicht verstehst. Besonders was dieser Test aussagen soll.
 
  • Gefällt mir
Reaktionen: Taxxor
Naja so lange AMD keine absolutes High-End mehr bietet muss ich bei Nvidia bleiben. Wird vermutlich die nächste Gen so bleiben und ich denke auch mindestens die übernächste
 
Wenn AMD das weiter durchzieht, was sie gesagt haben, wirds wohl keine übertriebenen GPUs wie die 4090 mehr geben.
 
@Replay86

Richtig, das ist wie mit HBM juckt auch niemand mehr.
 
Bestätigt was ich denke und was ich früher mit nvidia Karten selbst erlebt habe. AMD reift sehr oft besser.
 
MegaDriver schrieb:
AMD reift sehr oft besser.
Ist die Frage was man möchte. Möchte man für sein Geld die volle Leistung jetzt oder in 7 Jahren haben?
 
MegaDriver schrieb:
Bestätigt was ich denke und was ich früher mit nvidia Karten selbst erlebt habe. AMD reift sehr oft besser.
Ist das die AMD-Marketing Übersetzung für: Produkt reift beim Kunden?

Ich will die Leistung jetzt und nicht irgendwann später. Gleichzeitig ist das auch noch ein Glücksspiel. Vielleicht legt die Karte nochmal 10 % drauf, vielleicht aber auch nicht. Wir erfahren es in 7 Jahren bei den modernen Games.
 
Naja, aber man kauft sich die Karte ja mit der Leistung zur aktuellen zeit und nicht was eventuell sein könnte.
Dass dann später nochmal 10%+ drauf kommen ist nur ein Goody, welches du bei NVidia eben nicht hast.
Dort zahlst du für die gleiche Leistung wie bei AMD locker 150 - 200€ mehr
 
Zurück
Oben