Test GTX 1080 Ti vs. RX Vega 64 (2024): Wie steht es um „fine wine“ im Duell Pascal gegen Vega?

TruForm kam vor der 9000er Serie mit der 8500 auf die Welt, wurde seinerzeit massiv beworben.
Aber auch als ehemaliger 8500er Nutzer kannte ich kein Spiel was das unterstützt hatte, oder die gerade nicht besessen.
 
  • Gefällt mir
Reaktionen: Redirion und DevPandi
0x8100 schrieb:
jeder, der diese karten noch einsetzt, wird das wohl in fullhd machen.

Weil die Karte nicht mehr schnell genug ist, kauft man sich einen kleineren Monitor, oder wie!? Die Karten waren mal für WQHD gedacht, daher auch der Test. Mal abgesehen davon, dass 1080p einfach nicht mehr Zeitgemäß ist.
 
Wieso wird das nicht mit ner RTX 2060, 2070, 3060, 3070 und 4060, 4070 verglichen ?!?
Wäre doch viel sinnvoller gewesen.


Bei den Vergleichsdiagrammen sieht das natürlich so aus als würde ne GTX 1080ti oder ne Vega64 heute nix mehr taugen. Dabei sind die mit bissel Feintuning Leistungsmäßig immernoch irgendwo zwischen RTX 3060 und RTX 4060.
 
  • Gefällt mir
Reaktionen: Redundanz
Blackfirehawk schrieb:
Vega war eine der größten Lügen AMDs.. als Konkurrenz zur GTX1080Ti vorgestellt und im maximalen Ausbau zu Release lag man ca 10% hinter der GTX1080.. und wollte 100€ mehr haben..
Lüge weiß ich jetzt nicht, aber Vega wie auch schon davor Fury waren Papiertiger.
Die Leute, die später eine 1080 Ti gekauft haben, haben alles richtig gemacht.
 
kicos018 schrieb:
@0x8100
Die 1070 oder 1080(ti) hat man sich damals ja durchaus gekauft um damit einen WQHD Monitor zu befeuern. Ich mach doch aber kein Downgrade beim Monitor oder setze die Auflösung runter um Pixelbrei zu erhalten?
Ich habe mir einen 4k 42 Zoll OLED gekauft, betreibe Desktop und Spiele aber in WQHD und empfinde es als angenehm, nicht zu scharf, kein Pixelbrei für mich :D
 
MoinWoll schrieb:
Wenn es tatsächlich Probleme gibt, sollten sie angesprochen werden, ja.
und das mache ich jetzt hiermit noch einmal zusammenfassend und dann bin ich hier raus:
  • der test möchte amds "fine wine" anhand der vega64 vs. 1080 ti testen
  • das kann man historisch betrachten, dann hätte man eher die 1080 als damaligen gegenspieler gewählt und hätte die spiele aus dem damaligen test mit alten/aktuellen treibern verglichen
  • man kann das technologisch betrachten (wie hier geschehen) und untersuchen, wie aktuelle spiele mit der damaligen architektur klar kommen.
  • für den gewählten ansatz wurden settings genommen, die keine praxisrelevanz haben, da unspielbar -> vergebene gelegenheit zu zeigen, was mit z.b. medium settings/fsr heute noch möglich wäre
  • wenn man schon die architektur testet, dann hätte man mit unterschiedlichen auflösungen und settings untersuchen können, wie die sich auswirken (z.b. unterschiedliche auslastung der shader, speicherbandbreite usw.)
  • anscheinend wurden lieber extratests mit der 2080ti/4090 gemacht, die im kontext vega64 vs 1080ti nicht viel bzw. keinen mehrwert bringen, statt die zeit in den vorherigen punkt zu stecken.
  • der text wurde künstlich und unnötig aufgebläht
das ist mein feedback richtung devpandi / cb. könnt damit machen, was ihr wollt.
MaverickM schrieb:
Weil die Karte nicht mehr schnell genug ist, kauft man sich einen kleineren Monitor, oder wie!?
nein, man benutzt upscaling und/oder bedient die regler.
 
  • Gefällt mir
Reaktionen: Krazee, AMD64freak, Innocience und 3 andere
Was in dieser Serie sicher auch ein interessanter Vergleich wäre ist AMD 1700 X vs. 7700 K.
 
  • Gefällt mir
Reaktionen: Slim.Shady und drake23
MaverickM schrieb:
Aber nicht bei nVidia. :evillol:
Wieso nicht? Karten können alle FSR/XESS.. sonst wird doch auch immer rumposaunt das es mit den GTX Karten auch geht als einer der größten plus punkte
 
Ich bin gespannt, wie sich das in Zukunft bei den Leistungsklassen generationsübergreifend entwickeln (egal ob bei nVidia, AMD oder Intel), von den hier getesteten Kartenmodellen/-klassen habe ich leider nicht eine besessen und nur eine Vega 8 APU Grafik in meinem Ultrabook, über die ich aber im nachhinein nicht wirklich klagen kann.

Wenn die neuesten Gerüchte von kopite7kimi zu nVidia Blackwell GeForce Karten auf WccfTech stimmen sollten, dann dürfte die kommende nVidia Blackwell Generation gerade für RTX 5070 Käufer nicht wirklich lohnen (und das, obwohl sicherlich einige auf eine RTX 5070 endlich mit 16 GB gehofft haben und natürlich auch kräftigen Kerne-/Leistungszuwachs):

  • GB202 = 24,576 Cores (512-bit G7) / +33% More Cores Vs AD102
  • GB203 = 10,752 Cores (256-bit G7) / +5% More Cores Vs AD103
  • GB205 = 6,400 Cores (192-bit G7) / -16.6% Cores Vs AD104
  • GB206 = 4,608 Cores (128-bit G7) / Same Cores Vs AD106
  • GB207 = 2,560 Cores (128-bit G6) / -16.6% Cores Vs AD107
Die kolportierten dann nur noch ca. 26% an Cores einer Blackwell 70er Karte (GB205 und eben kein 04er Chip mehr) im Vergleich zur 90er Karte (GB202) erscheinen aus Kundensicht witzlos und wenig lohnend (bei nur mageren 12 GB VRAM an einem 192-Bit Speicherinterface), aber mangels schlagkräftiger Konkurrenz von AMD mit RDNA4 und dem Monopolisten-Mindshare wird man damit und ggf. weiteren Preiserhöhungen für immer weniger Leistungszuwachs bei nVidia wohl durchkommen.

Tja, ich sehe eine traurige Zeit auf Gamer zukommen, was Grafikkarten angeht.
 
Der Wein ist gereift, leider etwas zu lange, gemessen daran, wie viel Speicher Spiele sich heute auf einer Graka selbst in 1080p gönnen.

Ich habe damals Vega gemieden, war um die Zeit, wo ich meine 1070 ablösen wollte, doch Preis und Leistung haben für mich ebenso wenig wie mit Turing gepasst.
Da war mir die 580 lieber, denn auch wenn diese keine 1070 ersetzen konnte, war der Verbrauch gering und unter Linux war sie plug and play.
 
0x8100 schrieb:
und das mache ich jetzt hiermit noch einmal zusammenfassend und dann bin ich hier raus:
Ich stimme Dir in keinem Kritikpunkt zu und habe zu den meisten auch schon geschrieben warum. Deine Meinung akzeptiere ich aber natürlich.

Hier noch meine Antworten zu den Punkten, zu denen ich bisher nichts gesagt habe:
0x8100 schrieb:
  • der test möchte amds "fine wine" anhand der vega64 vs. 1080 ti testen
Ja, und das tut er auch.

0x8100 schrieb:
  • das kann man historisch betrachten, dann hätte man eher die 1080 als damaligen gegenspieler gewählt
Man nimmt die Karten die vorhanden sind. Wenn z. B. keine 1080 da war, dann kann man auch keine testen. Die Aussagekräftigkeit in Bezug auf das Ziel des Tests (Vergleich der Performance-Entwicklung verschiedener GPU-Architekturen) ist durch die Verwendung einer 1080 Ti allerdings nicht eingeschränkt.

0x8100 schrieb:
  • und hätte die spiele aus dem damaligen test mit alten/aktuellen treibern verglichen
Zur Isolierung des Einflusses der Treiber kann man das machen, aber es wäre ein riesiger Aufwand mit relativ geringem Mehrwert. Hier wird eben beides gleichzeitig getestet, Treiber und Zukunftsfähigkeit der Architekturen.

0x8100 schrieb:
  • man kann das technologisch betrachten (wie hier geschehen) und untersuchen, wie aktuelle spiele mit der damaligen architektur klar kommen.
Ja, das war das Ziel des Tests.

0x8100 schrieb:
  • wenn man schon die architektur testet, dann hätte man mit unterschiedlichen auflösungen und settings untersuchen können, wie die sich auswirken (z.b. unterschiedliche auslastung der shader, speicherbandbreite usw.)
Kann man machen, dann muss aber auch die Zeit dafür da sein. Soweit ich weiß, schreibt @DevPandi Artikel neben ihrem eigentlichen Beruf, also quasi in ihrer Freizeit. Bin mir aber nicht sicher.

0x8100 schrieb:
  • anscheinend wurden lieber extratests mit der 2080ti/4090 gemacht, die im kontext vega64 vs 1080ti nicht viel bzw. keinen mehrwert bringen, statt die zeit in den vorherigen punkt zu stecken.
Dass die 2080 Ti so stark ggü. der 1080 Ti zugelegt hat, finde ich durchaus ebenfalls interessant und wie sie sich im Vergleich zur 4090 schlägt auch. Auf jeden Fall wesentlich interessanter als zum x-ten Mal festzustellen, dass unterschiedlich schnelle Grafikkarten bei reduzierten Settings näher zusammenrücken. Zwei weitere Karten bei gleichen Settings zu testen ist übrigens wesentlich weniger Aufwand (4 Tests pro Spiel), als 2 Karten mit drei verschiedenen Auflösungen und drei verschiedenen Detaileinstellungen zu testen (18 Tests pro Spiel).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Phobsen
Wäre meine 1080 nicht hops gegangen hätte ich sie noch. Dank EVGA RMA gab es aber eine 2070.
 
Leute was los mit euch?? Ich habe die Vega 56 und 64 nur unter wqhd genutzt und der RAM hat immer locker ausgereicht.
Frage mich wirklich was so einige im Spiel einstellen das der Vram nicht reicht? Und bitte nicht mit 4k kommen. Vega super Karten mit UV. Das Gejammer wegen wqhd ist wieder Mal völlig mimimi auf sehr hohem Niveau.

@ CB super Test und Artikel weiter so .
 
  • Gefällt mir
Reaktionen: Zarlak und ComputerJunge
Fine Wine… ja nee, iss klar :-)

Wenn der Abstand zwischen zwei Produkten mit der Zeit geringer wird durch Treiberoptimierung war der Treiber wohl anfangs bei einem der Produkte einfach nicht gut. Ich habe lieber direkt volle Leistung statt Monate oder Jahre später wenn schon die nächste Generation ansteht.
 
  • Gefällt mir
Reaktionen: Capthowdy und Fallout667
@DevPandi Danke für den interessanten Artikel! @0x8100 und @MoinWoll verschiebt eure Diskussion doch mal in die PNs ;) Richtig Cringe
 
Chismon schrieb:
Ich bin gespannt, wie sich das in Zukunft bei den Leistungsklassen generationsübergreifend entwickeln (egal ob bei nVidia, AMD oder Intel), von den hier getesteten Kartenmodellen/-klassen habe ich leider nicht eine besessen und nur eine Vega 8 APU Grafik in meinem Ultrabook, über die ich aber im nachhinein nicht wirklich klagen kann.

Wenn die neuesten Gerüchte von kopite7kimi zu nVidia Blackwell GeForce Karten auf WccfTech stimmen sollten, dann dürfte die kommende nVidia Blackwell Generation gerade für RTX 5070 Käufer nicht wirklich lohnen (und das, obwohl sicherlich einige auf eine RTX 5070 endlich mit 16 GB gehofft haben und natürlich auch kräftigen Kerne-/Leistungszuwachs):

  • GB202 = 24,576 Cores (512-bit G7) / +33% More Cores Vs AD102
  • GB203 = 10,752 Cores (256-bit G7) / +5% More Cores Vs AD103
  • GB205 = 6,400 Cores (192-bit G7) / -16.6% Cores Vs AD104
  • GB206 = 4,608 Cores (128-bit G7) / Same Cores Vs AD106
  • GB207 = 2,560 Cores (128-bit G6) / -16.6% Cores Vs AD107
Die kolportierten dann nur noch ca. 26% an Cores einer Blackwell 70er Karte (GB205 und eben kein 04er Chip mehr) im Vergleich zur 90er Karte (GB202) erscheinen aus Kundensicht witzlos und wenig lohnend (bei nur mageren 12 GB VRAM an einem 192-Bit Speicherinterface), aber mangels schlagkräftiger Konkurrenz von AMD mit RDNA4 und dem Monopolisten-Mindshare wird man damit und ggf. weiteren Preiserhöhungen für immer weniger Leistungszuwachs bei nVidia wohl durchkommen.

Tja, ich sehe eine traurige Zeit auf Gamer zukommen, was Grafikkarten angeht.
Ich glaube, und da hast Du recht, dass sich weder die rtx 5070 noch die rtx 5080 lohnen wird.
Leider.
Die rtx 5070 als solche wäre ja zu gut, als dass man bei Nivea was wagen würde.
Und mit innerem und äußerem Ki-klimbim wird dann noch weiter heruntergedrückt.

Die Resumes dazu, werden wir um 2028 lesen. ( eher ein Gejaule..)

Eine RTX 5070 sollte 24 gbt Ram haben oder die nächst höhere Technik und wenigstens 16 gbt.
16 Gbt im Jahr 2025! Und wetten die 5070 wird 1000 kosten. Aber fix.
Das war ja genau so mit der rtx 4060 ti-- mit einer 256 Schnittstelle wäre die halt die kleine 4080ger
geworden. Never. LG :)
 
  • Gefällt mir
Reaktionen: Chismon
Hätte erwartet, dass die 1080 mehr zu AMD verliert, weil die Architektur doch einige moderne Direct X12/Vulkan Features nicht so richtig umsetzen konnte.
Letztlich ist der Abstand nicht wirklich kleiner als zu Release Zeiten.
 
thermalpaste schrieb:
@DevPandi Danke für den interessanten Artikel! @0x8100 und @MoinWoll verschiebt eure Diskussion doch mal in die PNs ;) Richtig Cringe
Was meinst Du wofür Kommentarthreads zu Artikeln da sind, wenn nicht für Diskussionen über den Inhalt des Artikels? Für Danksagungen wie Deine eignen sich PNs wesentlich eher. Dafür reicht sogar das Liken des 1. Posts, so wie ich es gemacht habe.
 
  • Gefällt mir
Reaktionen: Tzk und thermalpaste
Zurück
Oben