Test GTX 1080 Ti vs. RX Vega 64 (2024): Wie steht es um „fine wine“ im Duell Pascal gegen Vega?

Ruff_Ryders88 schrieb:
Also ich sehe eigentlich nur, dass 1080 nach wie vor durch die Bank besser ist als AMDs Vega Graka. Von feinem Wein kann da nicht die Rede sein. Die Grafikkarte war damals schneller und ist es heute einfach auch noch. Fakt.
Nur war zu Release die normale 1080 der Gegner, und nicht wie hier die 1080ti.
Das hat sie in ihrem Artikel an diversen Stellen auch angemerkt, aber gelesen wird es scheinbar nicht.
 
  • Gefällt mir
Reaktionen: Bänki0815, eastcoast_pete, Ruff_Ryders88 und eine weitere Person
@Phobsen:
Wenn dem so ist, dann grenzt das ja schon an Irreführung was CB hier macht. Denen muss ja bewusst sein, dass nicht jeder den Artikel bis ins Detail liest. Es erschliesst sich mir nicht, weswegen ich eine Graka mit einer anderen Graka aus einer anderen Leistungsklasse vergleichen sollte, wenn es darum geht zu beuerteilen, wie sich die Leistung über die Jahre hin verändert hat. CB muss sich bewusst sein, dass viele nur das Fazit überfliegen und sich die Balken anschauen. Dann ist der Test und Vergleich letztlich total für die Katz und meine Aussage falsch, weil der Test falsches suggeriert. (Hinweise hin oder her).
 
  • Gefällt mir
Reaktionen: DevPandi
Super Artikel und tolle Artikel-Serie.
Habe schon die anderen Artikel sehr interessiert gelesen. Toll, dass jemand der so viel Ahnung von der Materie hat solche Artikel schreibt. :daumen:

Vielen Dank dafür, freue mich auf mehr. :heilig:

Seit meine 7900XTX defekt ist nutze ich eine Vega64 zusammen mit einem 7800x3D und bin sehr zufrieden. Aber bei Zeiten kommt wieder eine 7900XTX rein. Warte nur ob es nicht vielleicht doch einen RDNA 3.5 Refrsh für den Desktop gibt. 🤔
 
  • Gefällt mir
Reaktionen: daknoll
Ruff_Ryders88 schrieb:
Dann ist der Test und Vergleich letztlich total für die Katz und meine Aussage falsch, weil der Test falsches suggeriert. (Hinweise hin oder her).
Der Titel suggeriert ein wenig was anderes als die Fragen des Artikels waren.

Der richtige Titel wäre: "GTX 1080 Ti und RTX 2080 Ti, wie gut ist Pascal gealtert und kann Turing sich in modernen Spielen wirklich stärker absetzen und wie was ist eigentlich mit Vega, reicht es jetzt sogar zur 1080 Ti?"

Sehr lang!

Deine Kritik ist also berechtigt.
 
  • Gefällt mir
Reaktionen: eastcoast_pete
Absoluter hammer was die 1080ti immer noch raushaut. Wer 1080p zockt braucht nichts neues
 
  • Gefällt mir
Reaktionen: Pro_Bro und Ruff_Ryders88
Ruff_Ryders88 schrieb:
@Phobsen:
Wenn dem so ist, dann grenzt das ja schon an Irreführung was CB hier macht. Denen muss ja bewusst sein, dass nicht jeder den Artikel bis ins Detail liest. Es erschliesst sich mir nicht, weswegen ich eine Graka mit einer anderen Graka aus einer anderen Leistungsklasse vergleichen sollte, wenn es darum geht zu beuerteilen, wie sich die Leistung über die Jahre hin verändert hat. CB muss sich bewusst sein, dass viele nur das Fazit überfliegen und sich die Balken anschauen.
Mit Verlaub, aber es ist doch nicht das Problem der Redaktion das manche(viele) eine Aufmerksamskeitspanne haben die einem durchschnittlichen Tik-Tok Video entspricht ?
Wenn es schon am grundsätzlichem Leseverständnis mangelt, kann man sich die Kritik solcher "Leser" direkt in die Haare schmieren.
DevPandi hat die Prämisse dieses Artikels klar und deutlich in ihrem Artikel erklärt. Dafür das viele nicht lesen WOLLEN hat sie erstaunlich viel Geduld, und nimmt wie man hier im Thread mitlesen kann, Kritik durchaus dankend an.
Und ja, einen Artikel der mich interessiert lese ich auch bis ins Detail, sonst könnte sich der Schreiberling die Arbeit direkt sparen, und eine KI das Ganze schreiben lassen.
Das eigene Unvermögen der Redaktion anlasten wollen, finde ich tatsächlich dreist.
 
  • Gefällt mir
Reaktionen: Colindo, MoinWoll, Slim.Shady und eine weitere Person
Den Vergleich mit den Werten von damals (in graphischer Form) hätte ich gut gefunden:
Vergleich mit Werten von 2019 aus diesem Artikel.
(habe Ratched & Clank rausgenommen wegen VRAM mangel)


AVG - FPS:

1718177455404.png


zum Vergleich: mit Ratched & Clank:
1718177486082.png
1718177547822.png


Perzentile (damals 0.2%, heute 1%)
1718177593534.png


1718177613002.png

1080​
Vega 64​
1080 Ti​
2080 Ti​
Vorsprung 1080 TI​
Vorsprung 2080 Ti​
1440p AVG​
2019​
97​
100​
125​
168​
25% (Baseline)​
68% (Baseline)​
2024​
??​
100​
118​
188​
-5.9%​
+10.6%​
1440p Perzentile​
2019​
96​
100​
119​
155​
19% (Baseline)​
55% (Baseline)​
2024​
??​
100​
114​
185​
-4.4%​
+16.2%​

1080​
Vega 64​
1080 Ti​
2080 Ti​
Vorsprung 1080 Ti​
Vorsprung Veränderung​
Vorsprung 2080 Ti​
Vorsprung Veränderung​
1440p AVG​
2019​
97​
100​
125​
168​
25​
68​
2024​
??​
100​
118​
188​
18​
-28.0%​
88​
+29.4%​
1440p Perzentile​
2019​
96​
100​
119​
155​
19​
55​
2024​
??​
100​
114​
185​
14​
-26.3%​
85​
+54.5%​

Fazit:
Vega 64 kann den Rückstand gegenüber der 1080 Ti deutlich messbar, aber vermutlich wenig fühlbar verringern (um 4-6%[absolut] bzw 26-28% [relativ]). Nimmt man den einen Titel dieses Test (Ratched & Clank) dazu, wo die 11 GiB vs 8 GiB zum tragen kommt, ist die Verbesserung fast komplett zerronnen.
Die Attraktivität von Vega wird erst richtig spannend, wenn man die Preisentwicklung hinzu nimmt.
Ohne harte Fakten gesammelt zu haben, erinnert sich der Autor an Zeiten, wo Vega 56/ 64 deutlicher im Preis gefallen waren als die Nvidia Pendants. Umgekehrt gab es von Ethereummining beeinflusste Zeitabschnitte, in denen Vega Besitzer sich über hohe Gebrauchtpreise freuen konnten, ein Kauf sich aus Spielersicht jedoch nicht lohnte.

Der wahre "fine Wine" in diesem Test ist jedoch die 2080 Ti:
1080 Ti​
2080 Ti​
2080 Ti auf 1080 Ti normiert​
1440p AVG​
2019​
125​
168​
134%​
34% (Baseline)​
2024​
118​
188​
159%​
+15.6%​
1440p Perzentile​
2019​
119​
155​
130%​
30% (Baseline)​
2024​
114​
185​
162%​
+19.7%​

1080 Ti​
2080 Ti​
2080 Ti auf 1080 Ti normiert​
Änderung​
Vorsprung Turing vs Pascal​
Vorsprung Veränderung​
1440p AVG​
2019​
125​
168​
134%​
34% (Baseline)​
34.4%​
2024​
118​
188​
159%​
+15.6%​
59.3%​
+72.4%​
1440p Perzentile​
2019​
119​
155​
130%​
30% (Baseline)​
30.3%​
2024​
114​
185​
162%​
+19.7%​
62.3%​
+105.9%​

Bei gleichem VRAM kann die 2080 Ti ihren Vorsprung gegenüber Pascal um knapp 15/20%(absolut, relativ: 70/105%) ausbauen.
Gegenüber Vega kann Turing den (relativen) Vorsprung "nur" um 30% (avg) bzw. 55% (Perzentile) steigern.
 

Anhänge

  • 1718177417358.png
    1718177417358.png
    61,7 KB · Aufrufe: 41
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, R O G E R und DevPandi
Meine Vega56 damals war schon ein zweischneidiges Schwert, unendlich viele Probleme aber mega viel Spielspaß gehabt
 
Vor allem wurden in den Foren damals die 1080 ja als die total überlegene Karte dargestellt. Ich erinnere mich sehr gut an diese Beiträge. Mittlerweile muss die 1080 Ti, mit Betonung auf "Ti" ran, um überhaupt mit Vega 64 mithalten zu können. Und das alles ohne HDR10+ , "Fine Wine" gilt eben nur für Vega uArch. Merkt euch dies.

Dann fehlen auch im CB-Artikel einige beliebte Engines (Frostbite, Dunia Engine, UE4 / UE5, Cry Engine, usw.) mit Titeln aus dem Jahr 2018, 2019, 2020, 2021, 2022, 2023 und 2024. 7 bzw. 8 ganze Jahre Zukunftsmusik für Vega 64.
 
Interessant zum Thema Fine Wine, hier für RDNA3 war für mich dieses YT Video.
Was die Leistung zwischen dem 22.12.1 und dem 24.5.1 vergleicht.

 

Anhänge

  • Screenshot_2024-06-12-12-01-34-287_com.google.android.youtube.jpg
    Screenshot_2024-06-12-12-01-34-287_com.google.android.youtube.jpg
    433 KB · Aufrufe: 74
  • Gefällt mir
Reaktionen: Corpus Delicti, Slim.Shady und DevPandi

Anhänge

  • IMG_0392.png
    IMG_0392.png
    432,8 KB · Aufrufe: 46
  • Gefällt mir
Reaktionen: DevPandi
na super freu mir :) das 8GB heute nicht mehr reichen ist in 1440p ja eh bekannt
 
Phobsen schrieb:
Und ja, einen Artikel der mich interessiert lese ich auch bis ins Detail, sonst könnte sich der Schreiberling die Arbeit direkt sparen, und eine KI das Ganze schreiben lassen.
Es gibt Artikel die mich sehr interessieren und solche die mich "etwas" interessieren. Letztere lese ich mir nicht im Detail durch, sondern in Auszügen und es ist daher eher anmaßend zu denken, dass deine Ansicht auf die Dinge allgemeingültig sind. Mit Aufmerksamkeitsspanne eines Tiktok-Videos hat das ganze nichts zu tun - diese polemischen Äußerungen kannst du dir daher sparen. Wenn ein User wie ich, der mit Blick auf meine Signatur, in Sachen Grafikkarten nicht mehr sooo up-to-date ist und diesbezüglich eine Headline wie diese hier sehe, denke ich, dass zwei Grafikkarten derselben Leistungsklasse verglichen werden. In der Tat mag der Disclaimer nun auf der ersten Seite bei genauem Hinsehen zu sehen sein, aber auch da erschließt sich das nur indirekt.

Hier wird aber insgesamt etwas wärmer gekocht als gegessen wird. Mir hat sich der Sinn eines solchen Vergleichs nicht erschlossen und ein zweiter Blick ins Forum hat diese Sache geklärt. Ich finde den Titel nach wie vor irreführend. Mehr ist es eigentlich nicht.
 
Ein spannender Artikel @DevPandi :). Vielen Dank dafür!

Was Nvidia heute noch zusätzlich in die Karten spielt ist ganz klar Social Media. Hier werden die ganzen Kids geradezu gehirngewaschen. Das gilt aber selbstverständlich nicht nur beim Thema Grafikkarten...
 
vinacis_vivids schrieb:
Cyberpunk 2077 2024 1440p QHD Ultra AMD Vega 64 OC FSR2 3 + AMD Frame Generation AMD Ryzen 9 7950X
Geht noch ganz gut.

Aus Spaß habe ich mal meine RTX 4090, bei sonst gleichen Einstellungen, auf 80 FPS limitiert. Statt der FPS schwankt jetzt nur der Stromverbrauch zwischen 85 und 115 Watt.

Das wäre doch mal eine interessante Methode für einen Generationenvergleich: Welche Einstellungen braucht man für ein flüssiges Spielerlebnis und wie viel Energie schlucken die neuen Generationen, um das Gleiche zu erreichen?

Ich begrenze die FPS nämlich ziemlich häufig auf 80 und nutze optimierte Einstellungen – trotz meiner 4090. Besonders im Sommer ist mir nämlich lieber, dass mein System bei 150 Watt läuft und mein Zimmer kühl bleibt, als bei 500 Watt alle Regler auf Anschlag zu haben und dabei in meiner eigenen Sauna zu sitzen.
 
Schinken42 schrieb:
Ist doch Quark. Cyberpunk, Metro Exodus und Watchdogs Legion sind keine Beispiele, sondern waren ein, zwei Jahre die einzig nennenswerten Spiele mit RT.
Ist doch Quark. Schau mal hier rein:
https://www.pcgamingwiki.com/wiki/List_of_games_that_support_ray_tracing

Allein in dem Zeitraum als Ampere und RDNA2 aktuell waren (Oktober 2020 bis Oktober 2022) kamen 84 Spiele mit RT-Effekten auf den Markt. Und bzgl. "nennenswert": Darunter waren DIRT 5, Call of Duty, Hitman, Resident Evil, F1 2021/2022, Deathloop, Far Cry 6, Crysis 2 und 3 Remastered, Guardians of the Galaxy, Forza Horizon 5, Battlefield 2042, Dying Light 2, Spider-Man und A Plague Tale: Requiem. Aber ich weiß, alles NVIDIA-Techdemos, die niemanden interessieren. Die Leute kaufen nur NVIDIA weil sie verblendet sind.

Schinken42 schrieb:
Und mit welcher Karte kann man RT bitte nach 4-8 Jahren noch nutzen?
2080 (Ti), 3070 (Ti), 3080 (Ti) und 3090 (Ti) sind jetzt fast 4 bzw. 6 Jahre alt und Du kannst damit immernoch alles mit RT zocken, was Du möchtest. Man muss halt, wie immer bei älteren Karten, ggf. die Settings anpassen.
 
Zuletzt bearbeitet:
DevPandi schrieb:
Der Titel suggeriert ein wenig was anderes als die Fragen des Artikels waren.

Der richtige Titel wäre: "GTX 1080 Ti und RTX 2080 Ti, wie gut ist Pascal gealtert und kann Turing sich in modernen Spielen wirklich stärker absetzen und wie was ist eigentlich mit Vega, reicht es jetzt sogar zur 1080 Ti?"

Sehr lang!

Deine Kritik ist also berechtigt.
Die 2080 und 2080ti Turing Karten waren (IMHO) wirklich gute GPUs fürs Geld. Und (wahrscheinlich) auch die letzte Generation, in der die mobilen dGPUs identische Grundausstattung (Zahl der CUDA Kerne usw) mit den gleichnamigen Desktop GPUs mitbrachten. In Ada hat sich da ja leider sehr viel geändert, die 4080 Mobile ist in vieler Hinsicht eine Mogelpackung.
 
DevPandi schrieb:
An der Titelauswahl kann man immer etwas machen und auch in dem Fall ist die Auswahl auch nur ein "kleines" Fenster.
Das Ding ist halt, wenn du Titel wählst, wo unspielbar niedrige FPS Raten raus kommen, dann spielt das einer Vega GPU in der Form zumindest pauschal in die Karten, dass die Last auch in aller Regel entsprechend hoch ausfällt.

Natürlich kann man über die Titelauswahl streiten - wenn allerdings zumindest durch Titel, wo keine 20 FPS in der Messung stehen, dann Fragezeichen über bleiben, wie aussagekräftig sowas ist? Dann ist das doch eher ungünstig gewählt?
-> wenn du darauf dann "Unterschiede zwischen Vega, Pascal und Turing heraus arbeiten" möchtest, kommt am Ende aber nur raus, das die Last so hoch ist, dass Vega sehr gut skaliert - was ist ja hinlänglich bekannt, dass die GPUs besser abschneiden um so mehr Last man da drauf legt. Aber was bringt die Erkenntnis in der Praxis? Bei niedrigerer Last (Auflösung runter, Details runter, weniger AA, ...) würde Vega womöglich ähnlich den damaligen Titeln/Benches weniger der Rohleistung auf die Straße bringen, während Pascal bzw. Turing das tut. Ich denke das ist ein valider Punkt zu kritisieren.
DevPandi schrieb:
Ich hätte die Auswahl auch so treffen können, dass Vega noch stärker dasteht und noch näher an der 1080 Ti ist und an manchen auch überholt und umgekehrt. Ich nehm aber gerne auch mal Wünsche für die Zukunft mit.
Dagegen ist man ja nie geschützt - pauschal wären um so mehr um so besser. Weil damit Ausreißer unter gehen und Cherry Picking im Schnitt verschwindet. Was ja im Endeffekt das ist, was so ein Baseline Test dann auch sein möchte. Nämlich in der Basis vergleichbar zu sein. -> da wo du die Prozente zu relativen Zuwächsen ansetzt.
DevPandi schrieb:
Das geht so in dem Fall besser.
Wie gesagt, bedingt, weil die Last halt so hoch ist, dass es zumindest Fragezeichen über lässt, ob man sowas real praktisch überhaupt erreichen kann.
Auch FSR ist da ein gutes Beispiel. FSR, je nach dem, welches, wird ja bei der Messung, wo keine 20 FPS stehen, nicht auf einmal 60+ FPS hinzaubern.
-> Tendentiel sinkt die Leistungsskalierung der GPUs etwas, wenn man mit der Renderauflösung runter geht. Alte GPUs haben das Verhalten analog. Nur ist dort die Schwelle wo das wirklich stark nachlässt mit der Leistungsskalierung einfach viel niedriger als bei aktuellen GPUs.
DevPandi schrieb:
Ich werde aber mal sicher auch einen Test machen, bei dem es dann um die Spielbarkeit geht. Versprochen!
Kannst du ja direkt in einen Skalierungszusammenhang stellen mit den GPUs jetzt hier? Bzw. den Ergebnissen?
Dann räumt man da auch direkt mit Orakeln auf. Auch nett sind bei sowas immer Frameverlaufsdiagramme. Also ein Diagramm mit den Frametimes übereinander (anstatt den FPS Wert als Balken) -> weil gerade zwischen NV und AMD im Vergleich kann das gut anders ausfallen.
-> wichtig ist dabei nur, diese Diagramme müssen auf die Zeit - nicht auf den Framecount! - konsolidiert werden. Sonst sind schnellere GPUs einfach schneller fertig und die Kurve ist kürzer.
DevPandi schrieb:
Den GPU-Load kann ich dir liefern, den Verbrauch wird es in Zukunft geben, wenn die Werkzeuge da sind. Ich will hier nicht nur mit den Verbräuchen aus dem Softwaremonitoring wiedergeben.
GPU Load wie auch (selbst der Software) Verbrauch liefern einen guten Indikator ob die GPU einfach nicht richtig rund läuft oder wo es klemmen könnte.

Was halt zumindest hier etwas erschwerend hinzukommt - soll natürlich keine Ausrede sein - NV hat drei vollständige Lineups nach Pascal geliefert und AMD nur zwei und ein bisschen - und diese sind auch noch vom Prinzip und Aufbau ähnlich, genau so wie AMD weiterhin die Vega Technik als solches aktuell pflegt, weil es nach wie vor aktiv vertriebene APUs mit Vega gibt.
Für NV gibt es keinerlei Gründe mehr, Pascal weiter zu supporten. Die sind drei Generationen weiter... Und mit Turing und dem RT Fokus gabs nen stärkeren Bruch bei der Technik. Ebenso ist NV als Markt Leader der, der vorgibt, wann sich neue Technik am Markt durchsetzt. Das ist für neues ein Vorteil - für alles alte aber ein Nachteil. Denn ist der Punkt überschritten, wo der alte Kram aus dem Raster fällt, dann kommt dafür auch nix mehr rum.
Pascal auf DX12 Titel zu testen ist perse irgendwie nur bedingt sinnig - weil das war nie der Entwicklungsfokus für den Kram. AMD hat mit Hawaii ja Mantle gebracht, was am Ende in Vulcan aufgegangen ist, weil sie unter DX11 anders als NV ihre Leistung nicht auf die Straße bekommen haben. Ist ja logisch, dass damit die Lücke schwindet bis sich umkehrt, wenn man jetzt voll auf Lower Level APIs geht. Jetzt wo das Zeug auch verfügbar ist - was früher halt nicht der Fall war. Da kann man AMD weitsicht nachsagen - durchaus möglich, wird ja in den Foren auch gern getan. Andererseits könnte man ihen aber auch einfach unfähigkeit nachsagen, weil sie das zur damaligen Zeit notwendige nicht anständig abliefern konnten. Sie hatten mit Hardware auf ein Problem geschossen (im Kompromuss durch mehr Rohleistung, mehr Verbrauch und schlechtere Effizienz) -> natürlich lebt das hintenraus einfach länger. Aber wer hat was davon? -> bei unter 20 FPS wahrscheinlich Niemand.
 
MoinWoll schrieb:
Ist doch Quark. Schau mal hier rein:
https://www.pcgamingwiki.com/wiki/List_of_games_that_support_ray_tracing

Allein in dem Zeitraum als Ampere und RDNA2 aktuell waren (Oktober 2020 bis Oktober 2022) kamen 84 Spiele mit RT-Effekten auf den Markt. Und bzgl. "nennenswert": Darunter waren DIRT 5, Call of Duty, Hitman, Resident Evil, F1 2021/2022, Deathloop, Far Cry 6, Crysis 2 und 3 Remastered, Guardians of the Galaxy, Forza Horizon 5, Battlefield 2042, Dying Light 2, Spider-Man und A Plague Tale: Requiem. Aber ich weiß, alles NVIDIA-Techdemos, die niemanden interessieren. Die Leute kaufen nur NVIDIA weil sie verblendet sind.
"In dem Zeitraum in dem Ampere aktuell war" ist halt eine andere Aussage als " bei Erscheinen oder kurz danach". Letzterer hab ich widersprochen.
MoinWoll schrieb:
2080 (Ti), 3070 (Ti), 3080 (Ti) und 3090 (Ti) sind jetzt fast 4 bzw. 6 Jahre alt und Du kannst damit immernoch alles mit RT zocken, was Du möchtest. Man muss halt, wie immer bei älteren Karten, ggf. die Settings anpassen.
Klar, alles auf Mittel, 1080p mit Upscaling aber RT einschalten. Macht Sinn...
Kann ich mit der 6700XT auch, ergibt aber ebensowenig Sinn. Übrigens sind "fast vier Jahre" weit entfernt von den 8 die du mal nanntest.

Es ergibt einfach keinen Sinn zu behaupten, die RT Leistung der ersten RT fähigen Karten würde heute noch für alles ausreichen. Das ist noch nicht mal ein Problem, nichts was man NV vorwerfen könnte. Ich kritisiere nicht NV, sondern deine Aussage.
 
Zurück
Oben