Test GTX 1080 Ti vs. RX Vega 64 (2024): Wie steht es um „fine wine“ im Duell Pascal gegen Vega?

0x8100 schrieb:
warum den test in wqhd machen? jeder, der diese karten noch einsetzt, wird das wohl in fullhd machen. ein vergleich mit linux wäre auch interessant gewesen, immerhin gibt es dort noch entwicklung für vega.
Nicht ganz.
Im Zweitsystem habe ich noch eine 64er sitzen bei 1500GPU/1100HBM und max 160w.
Die befeuert einen 75hz Asus 1440p Monitor.

Geht in den meisten Spielen schon klar, entweder mit Details Mittel oder aber hohen und dafür FSR Q.
Mit Ziel bei 60 FPS, klappt das in den allermeisten fällen.

Bei eSports titeln ist es gleich noch entspannter, ein Apex Legends läuft mit einen Mix aus Hoch/Mittel bei konstant - wenn auch knapp - über 100 FPS.

Mit FSR3 wie in Ghost of Tushima funktioniert sogar FG :D
 
  • Gefällt mir
Reaktionen: DevPandi
MoinWoll schrieb:
Durch das Wählen "praxisnaher" Settings, wird die Aussagekraft in Bezug auf dieses Ziel stark vermindert,
das kannst du sicherlich auch begründen? weisst du, das wäre nämlich ein super test gewesen, wie max. settings und praxisnahe einstellungen sich bei beiden karten auswirken. bekanntlich mag amd tesselation ja nicht sonderlich, vielleicht wäre die vega mit "medium" ja noch ein gutes stück schneller gewesen - wir werden es wohl nie erfahren.
 
0x8100 schrieb:
weil ich dann wüsste, dass eine alte karte für dieses spiel noch ok wäre.
Eben, für "dieses" Spiel. Hier geht es aber nicht darum, ob meine alte Karte xyz dieses eine Spiel noch flüssig darstellen kann, sondern wie gut diese alten Karten im Allgemeinen mit aktuellen Spielen klar kommen.
 
0x8100 schrieb:
das kannst du sicherlich auch begründen?
Klar: Wenn Du die Auflösung und die Settings reduzierst, dann werden die Karten nicht mehr voll ausgelastet und Du bekommst keine Aussage darüber wie die Architekturen relativ zueinander gealtert sind (was aber das Ziel ist).

0x8100 schrieb:
weisst du, das wäre nämlich ein super test gewesen, wie max. settings und praxisnahe einstellungen sich bei beiden karten auswirken.
Dann lies doch die entsprechenden Spieletests, dort wird sowas getestet. Hier geht es um etwas Anderes. Wenn Dich dieses Andere nicht interessiert, ist es ja OK. Zu dem was Dich interessiert gibt es bereits unzählige Artikel. Es ergibt allerdings keinen Sinn einem Artikel vorzuwerfen, dass er sich mit etwas anderem beschäftigt, als dem was bereits zig mal getestet wurde.
 
Ich hab hier ne VEGA56 und eine GTX1080 im Einsatz. Absolut tauglich für FHD und auch WQHD. Hatte vor meiner 4070 lange Zeit eine 1080 im Einsatz. In WQHD z.B. für Star Citizen. Und das lief damit auch ordentlich.

Für die "ich brauch mindestens 144 fps Fraktion" natürlich untragbar, aber für mich und aktuell meine Kinder mehr als in Ordnung.

Danke für den Test. Immer wieder schön sowas zu lesen !

Gruß
Holzinternet
 
MoinWoll schrieb:
Wenn Du die Auflösung und die Settings reduzierst, dann werden die Karten nicht mehr voll ausgelastet
das kannst du doch gar nicht mit sicherheit sagen! oder hast du das getestet und kannst belegen, dass die gpu-auslastung bei 1080p und 1440p bei den alten karten und aktuellen spielen unterschiedlich ist?

darthbermel schrieb:
Eben, für "dieses" Spiel. Hier geht es aber nicht darum, ob meine alte Karte xyz dieses eine Spiel noch flüssig darstellen kann, sondern wie gut diese alten Karten im Allgemeinen mit aktuellen Spielen klar kommen.
die getesteten spiele sollen also die allgemeinheit abbilden, aber die absoluten werte darf ich nicht für mich betrachten? ok...

jonderson schrieb:
Nutze meine Vega56 in 3440*1440 unter Ubuntu Mate 22.04 noch heute
aber sicherlich nicht in cyberpunk auf hoch/ultra.
 
HAse_ONE schrieb:
Testergebnisse von Avatar: AMD 20,3 FPS und Nvidia 19,9 FPS. Woohooo go AMD yay xD


Ja früher war AMD mutiger...
Das Problem ist halt auch, mit so geringem Marktanteil, kannst du eigentlich nur was neues bringen...
Das AMD hier ein Henne-und-Ei Problem hat, ist klar. Allerdings ist die Firma nun wirklich keine kleine Klitsche, sondern ein sehr wohl fähiger IT Konzern mit entsprechenden Resourcen. Treiber werden ja v.a. von den GPU Herstellern entwickelt, optimiert und gepflegt. Wenn Intel sich bei ihren ARC GPUs trotz unterirdischer Marktanteile Mühe geben kann (und das haben sie ja, nach einem ziemlich vergeigten Start) und viel nacharbeitet, kann AMD das schon länger. Momentan wäre ja ein fast idealer Zeitpunkt hier Nvidia zu überfliegen, denn Nvidia ist sehr auf KI Beschleuniger fokussiert, weil sie da noch mehr Geld verdienen können. Nur ist AMD genauso auf KI fokussiert. Es sieht es ja tatsächlich so aus, daß ausgerechnet Intel mit Battlemage der nächste echte Herausforderer von Nvidia bei GPUs sein wird.
 
  • Gefällt mir
Reaktionen: DevPandi
0x8100 schrieb:
warum den test in wqhd machen? jeder, der diese karten noch einsetzt, wird das wohl in fullhd machen. ein vergleich mit linux wäre auch interessant gewesen, immerhin gibt es dort noch entwicklung für vega.
Nutze meine Vega56 in 3440*1440 unter Ubuntu Mate 22.04 noch heute
 
0x8100 schrieb:
das kannst du doch gar nicht mit sicherheit sagen! oder hast du das getestet und kannst belegen, dass die gpu-auslastung bei 1080p und 1440p bei den alten karten und aktuellen spielen unterschiedlich ist?
Du kannst das in jedem Spiele- und jedem Hardwaretest beobachten, der jemals mit verschiedenen Settings, Auflösungen und Grafikkarten durchgeführt wurde. Je höher die Settings und Auflösung, desto mehr werden die Leistungsfähigkeiten zwischen den unterschiedlichen Karten bzw. Architekturen herausgearbeitet. Es kann natürlich sein, dass durch eine leichte Reduktion der Auflösung und der Settings noch keine Unterschiede auftreten. Durch das Testen in der maximal möglichen Auflösung und den maximal möglichen Settings wird aber so gut es geht ausgeschlossen, dass die Karten nicht voll ausgelastet sind. Ist einfach das ganz normale Vorgehen bei Hardwaretests, seit es Hardwaretests gibt.
 
Sorry aber das ist doch mal wieder ein typischer Nvidia-base Artikel, Test überschrift:

GTX 1080 Ti vs. RX Vega 64​


Fazit AMDs Karten sind nicht wie alter wein gealtert weil RTX 2080 mehr dazu gewonnen hat, eine deutlich teurere Karte die 1 Jahr später raus kam... Thema verfehlt setzen 6.

Die Zahlen sagen das Gegenteil die vega hat zur GTX 1080 in der Zeit der Abstand verringert also wie alter Wein gealtert.

Wenn man was mit RTX 2080 vergleichen will muss man es mit AMDs Generation von Ende 2018 vergleichen, ja 2018 kahm offenbar nichts raus aber wenn man 1 Jahr mit Nvidia vor geht wieso nicht auch 1 jahr vor mit AMD und die 5700 xt kam ja sogar nur gutes halbes jahr später raus.

Hier ist ein fairerer Vergleich:
https://tweakers.net/reviews/7770/1...t-welke-winst-kun-je-verwachten-tot-slot.html

Zusammen gefasst hat AMD bei 1080p dazu gewonnen bei 1440p ists ungefähr gleichstand und bei 4k hat Nvidia dazu gewonnen. Da Leute sicher nicht mit so alter Karte 4k Gamen ausser sehr Hardwarefreundliche Strategiespiele oder sowas, ist 4k hier weniger relevant imho.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Ich denke das ist in Summe mehr Zeitaufwand als mehrere Tests mit nur 2 Karten zu machen.
MoinWoll schrieb:
Guter Punkt. Allerdings muss man nicht für jeden Test die GPU wechseln.
Ich mische mich mal ganz frech ein: Es kommt darauf an und alles hat seine Tücken.

Taxxor schrieb:
Das geht ja mit CapFrameX zum Glück alles automatisch^^
Auch wenn euer Tool toll ist und man vieles "automatisieren" kann, am Ende muss man immer noch mal alles Prüfen und diese Arbeit nimmt das Tool nicht ab.

Von der Komplexität der Tests ist es am einfachsten weitere Spiele hinzuzufügen. Pro Spiel sind das "mindestens" 3 Runs, die dazu kommen. Der Zeitaufwand pro Spiel liegt in dem Fall wirklich zwischen 5 - 10 Minuten. Je nach Länge der Testszene und ob man auch "Schnellladen" muss und wie lange das dauert.

Nach den Spielen steht bei der Komplexität für mich die Auflösung, weil in dem Fall in der Regel das Umstellen der Auflösung reicht - Ausnahmen bestätigen die Regel (JA STARFIELD UND DIABLO 2 ICH MEINE EUCH BEIDEN!). Weitere 5 - 10 Minuten. Beiden Punkten ist gemein, dass man relativ gut den Arbeitsablauf optimieren kann.

Nach der Auflösung folgen weitere Grafikkarten in den Tests. Dabei ist der Umbau als auch die Treiberinstallation sogar relativ harmlos. Zwischen Pascal bis hin zu Ada Lovelace muss man bei Nvidia keinen neuen Treiber installieren, bei AMD mit RDNA 1 - 3 ist es das Gleiche. Natürlich hab ich den Treiber aber dazu allzeit bereit.*

Das Problem beim Umbau der Grafikkarte ist heute, dass bestimmte Spiele die Settings zurücksetzten, ohne dass man das direkt mitbekommt. Man muss also die Einstellungen vorher prüfen und dann ggf. sogar das Spiel neu starten. Man kann also pro Spiel noch mal 2 - 3 Minuten obendrauf schlagen, nach dem Wechsel.

"Einstellungen" lasse ich jetzt bewusst weg, weil sich das zwischen Auflösung ändern und neuer Grafikkarte bewegt und eben auch Neustarts des Spiels nach sich ziehen kann.

Wenn ich das in eine Formel gießen müsste:

Anzahl der Spiele * Anzahl der Läufe * Anzahl der Grafikkarten * Anzahl der Auflösungen * 2:30 min + Anzahl der Grafikkarten * 15 Min + Anzahl der Grafikkarten * Anzahl der Spiele * 5 Min
Gerade die Grafikkarte gehen halt besonders oft als Zeitfaktor mit rein.

Blackfirehawk schrieb:
Wobei man bei 7 Jahre alten Karten vielleicht besser mit Minimalisten settings abseits der Auflösung und Texturen testen sollte..
Kann man natürlich machen, es ist aber auch eine Frage der Frage und in dem Fall passt es halt nicht, dass man alles quasi so weit minimiert, damit man "brauchbare" FPS bekommt.

0x8100 schrieb:
weil ich dann wüsste, dass eine alte karte für dieses spiel noch ok wäre.
Ich verstehe durchaus die Intention hinter deiner Kritik und ebenso auch den Wunsch, an der Stelle bedanke ich mich auch für dein Feedback.

Allerdings würde sich hier der Hund in den eigenen Schwanz beißen und ich persönlich denke nicht, dass du aus so einem Test wirklich wüsstest, welche Einstellungen für ein Spiel noch okay wären und das aus verschiedenen Gründen.

Der Hauptgrund ist die CPU, ich teste hier auf einem 7800X3D, auch wenn es möglich ist, eine Vega 64 oder 1080 Ti mit einem 7800X3D zu paaren, wird das wohl eher nicht der Fall sein. Auch wenn eine 1080 Ti oder Vega 64 mit einem damaligen Prozessor wie dem 6700K oder 5820K - beide waren sehr beliebt - eher selten in einem CPU-Bottleneck befanden und selbst in 1440p und gerne auch mal in 1080p eher im GPU-Limit waren, kann dir es mit modernen Spielen schnell passieren, dass man selbst in 1080p mit den entsprechenden Prozessoren eher im CPU-Bottleneck ist, trotz GTX 1080 Ti oder Vega 64.

Alles andere sind dann eher unwichtigere Punkte, aber auch Betriebssystem und Co können sich auswirken.

In so einem Fall wäre es in meinen Augen sinnvoller, man würde ein 5820K, 6700K und ähnlich als Ausgangsbasis mit GTX 1080 Ti und Vega 64 nehmen und dann testen und da dann auch sehen, wie man möglichst an die 60 fps kommt.

Das wäre durchaus spannend.


-- Edit --
Ich will zudem anmerken: Wir sind wieder Nvidiabase! ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zoba, Quidproquo77, darthbermel und 3 andere
vinacis_vivids schrieb:

Cyberpunk 2077 2024 1440p QHD Ultra AMD Vega 64 OC FSR2 3 + AMD Frame Generation AMD Ryzen 9 7950X​

Pfui Deibel 70 fps mit fsr3, na das fühl sich wie kaugummi an.
 
0x8100 schrieb:
warum den test in wqhd machen? jeder, der diese karten noch einsetzt, wird das wohl in fullhd machen. ein vergleich mit linux wäre auch interessant gewesen, immerhin gibt es dort noch entwicklung für vega.
Ich nutze eine Vega56 an einem Ultra Wide mit 3440x1440
 
DevPandi schrieb:
Ich will zudem anmerken: Wir sind wieder Nvidiabase! ;)
Wusst ich's doch! Das Beweismaterial ist bereits abgespeichert, um bei der nächsten rot-grün-Debatte hier im Forum punkten zu können. :D
 
  • Gefällt mir
Reaktionen: Slim.Shady, MoinWoll und DevPandi
Flossen_Gaming schrieb:
Ich habe noch eine 1080 Ti im Einsatz und mir fehlt es in WQHD nicht an Leistung, ich kann immer noch alles zufriedenstellend spielen.
DirectX 12.2 ist das Problem, aber auch grundsätzlich gestiegene Leistungsanforderung der Spiele. Das Spiel startet, aber DX wird per Software berechnet, als Simulation, was extrem viel Leistung frisst. UE5 ist grundsätzlich wohl die Zukunft und erst der Anfang. Everspace 2 hat z.B. einfach auf UE5 umgestellt. Ich schliesse sogar nicht aus, dass vor der DX13 noch DX12.3 rauskommt oder so und schon sind alle heutigen Kartenbesitzer angeschmiert.
 
Habe vor 6 Monaten von einer RX5700 auf eine 1080ti gewechselt und frage mich mal wieder, mit welchen Setting hier auf CB Cyberpunk2077 getestet wird......25FPS @2K?!?! Das läuft auf max Details @58FPS mit Gsync auf nem Freesync Monitor @2k butterweich bei mir, selbst 4k wäre flüssig möglich wenn man auf low/med Settings runterschraubt - besser als auf der RX5700..... auf nem AM4 X570 Board mit 5700G CPU....wie eigentlich auch alle anderen Spiele viel besser laufen als auf der AMD GPU, dazu auch keine ständigen Treiberfails mehr und 100% stabil selbst mit OC/UV......Nvidiabase ich bin zurück.....seit der AGP 6800 @6800GT nur AMD Karten gehabt.....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Romanow363
Kleine Korrektur:
Vega wurde nicht bei TSMC, sondern bei GF gefertigt
 
  • Gefällt mir
Reaktionen: xXDariusXx und DevPandi
Tolle Arbeit! Mir persönlich wäre auch 1080p lieber gewesen, aber ich kann die Schwerpunktsetzung so trotzdem nachvollziehen.
Einfach mal danke, ist nämlich selten geworden so professionelle Arbeit.
 
Zurück
Oben