Test GTX 1080 Ti vs. RX Vega 64 (2024): Wie steht es um „fine wine“ im Duell Pascal gegen Vega?

Schinken42 schrieb:
"In dem Zeitraum in dem Ampere aktuell war" ist halt eine andere Aussage als " bei Erscheinen oder kurz danach". Letzterer hab ich widersprochen.
Es ging um das Thema "warum haben die Leute mehr Ampere als RDNA2 gekauft, obwohl RDNA2 mit Ampere auf Augenhöhe war". Wenn sich bereits bei Erscheinen abzeichnet, dass es jetzt mit RT so richtig losgeht - darauf waren die Beispiel-Spiele in meinem ursprünglichen Post bezogen - dann kaufen die Leute mit höherer Wahrscheinlichkeit die Karten, welche bei RT mehr Zukunftssicherheit versprechen. Und dieses Versprechen wurde ja dann offenbar auch eingelöst - worauf sich, unter anderem, die Beispiele in meinem nächsten Post bezogen.

Wenn Du mit Deinem ursprünglichen Post gemeint hast, dass die ersten 1 bis 2 Jahre nach dem Erscheinen von Turing sehr mau bzgl. RT waren, dann stimme ich Dir diesbezüglich zu. Das war aus Deinem Post allerdings nicht ersichtlich und dem habe ich auch nirgends widersprochen. Deine Aussage "Cyberpunk, Metro Exodus und Watchdogs Legion sind keine Beispiele, sondern waren ein, zwei Jahre die einzig nennenswerten Spiele mit RT." würde vermutlich fast jeder so interpretieren, dass nach dem Erscheinen dieser Spiele nichts nennenswertes mehr kam. Darauf habe ich dann auch reagiert.

Schinken42 schrieb:
Klar, alles auf Mittel, 1080p mit Upscaling aber RT einschalten. Macht Sinn...
Kommt auf das Spiel und die Grafikkarte an wie weit man mit den Settings runter muss, wie immer. Mit einer 3070 (Ti)/2080 (Ti) mag das in Extrembeispielen wie Cyberpunk oder Alan Wake 2 mit PT hinkommen, mit einer 3080 (Ti) oder 3090 (Ti) nicht. Die 4090 ist etwa doppelt so schnell wie eine 3080 und und packt so ziemlich alles auf maximalen Settings in 4K mit DLSS Quality über 60 FPS. Daher ist die Performance auf einer 3080 mit maximalen Settings in 1440p mit DLSS Quality (Bildqualität in etwa wie 1440p mit TAA) ähnlich. Mit 3090 (Ti) nochmal entsprechend höher.

Schinken42 schrieb:
Kann ich mit der 6700XT auch, ergibt aber ebensowenig Sinn.
Wie weit musst Du denn die Settings mit einer 6700 XT reduzieren um mit RT zu spielen und wie weit mit z. B. einer 3080? Was Du schreibst ist komplett undifferenziert. Eine 3080 ist im Schnitt z. B. 2,4 mal so schnell wie eine 6700 XT in RT, sogar eine 2080 Ti ist noch 79% schneller. Dass es in den meisten Fällen wenig Sinn ergibt mit der 6700 XT RT zu nutzen, da stimme ich Dir zu. Z. B. bei der 3080 aber absolut nicht.

Schinken42 schrieb:
Übrigens sind "fast vier Jahre" weit entfernt von den 8 die du mal nanntest.
Ich nannte 4-8 Jahre als übliche Verwendungsdauer für die sich Leute eine Grafikkarte kaufen. Ich habe in diesem ursprünglichen Post nichtmal behauptet, dass Du mit einer 4-8 Jahre alten Karte noch aktuelle Spiele mit RT spielen kannst, das war Deine Interpretation. Netterweise bin ich trotzdem auf Deine Frage, mit welcher 4-8 Jahre alten Karte man heute noch mit RT-Spielen kann, eingegangen und habe Dir 8 Karten genannt, die fast 4 bis fast 6 Jahre alt sind, mit denen man heute noch alles (= jedes Spiel, das RT unterstützt) mit RT-Effekten spielen kann. Ältere RT-Karten gibt es bisher nicht. Da die aktuelle Konsolengeneration noch mindestens bis 2026 dauern wird, wird es voraussichtlich 2026 8 Jahre alte Karten geben, mit denen man in dann aktuellen Spielen RT nutzen kann.

Schinken42 schrieb:
Es ergibt einfach keinen Sinn zu behaupten, die RT Leistung der ersten RT fähigen Karten würde heute noch für alles ausreichen.
Zwischen "für alles ausreichen" und dem was ich tatsächlich geschrieben habe "alles mit RT zocken, was Du möchtest" gibt es einen klaren Unterschied. "Für alles ausreichen" impliziert "alles auf maximalen Settings in 4K ohne Upscaling". "alles mit RT zocken, was Du möchtest" impliziert dagegen nichts bzgl. der genutzten Settings, der Auflösung oder der Agressivität des Upscalings. Daher zitiere ich mich nochmal: "Man muss halt, wie immer bei älteren Karten, ggf. die Settings anpassen.". Dass Du mit einer 5,5 Jahre alten 2080 Ti mit reduzierten Settings und ggf. Upscaling jedes aktuelle RT-Spiel mit RT-Effekten spielen kannst ist Fakt und keine Behauptung. Und genau das habe ich gesagt.

Schinken42 schrieb:
Das ist noch nicht mal ein Problem, nichts was man NV vorwerfen könnte. Ich kritisiere nicht NV, sondern deine Aussage.
Ich warte noch auf Gegenargumente. Bisher lese ich nur "ergibt keinen Sinn" und "Behauptung" ohne Begründung, trotz reichlich Beispielen die ich gebracht habe, sowie zielgerichtetes Verdrehen oder Ausblenden von Dingen, die ich bereits gesagt habe.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und Taxxor
ArrakisSand schrieb:
Deswegen kommt bei mir seit Jahren, egal ob es sich dabei um GPU's oder CPU's handelt nur AMD zum Einsatz.

Ich gebe einen feuchten auf das überteuerte Schickimicki Bling! Bling! Blendwerk was einem da Nvidia jährlich vorsetzt.

Anstatt einem mit künstlichen Süßstoffen und an den Geschmack von Gummibärchen erinnernden Energiedrink wie ihn uns Nvidia seit etlichen Jahren vorsetzt, ist mir ein Glas gut gealterter Rotwein, wie uns
AMD seit so langem bietet 1000 Mal lieber.
Ist das Satire oder kann das weg ?
 
MoinWoll schrieb:
Es ging um das Thema "warum haben die Leute mehr Ampere als RDNA2 gekauft, obwohl RDNA2 mit Ampere auf Augenhöhe war". (...)
Nein. Es ging um deine Aussage. es hätte bei Erscheinen von Ampere bereits viele Spiele mit RT gegeben und um die Aussage, die RT Leistung würde 4-8 Jahre lang reichen um neue Spiele mit RT spielen zu können. Nur darauf hab ich reagiert. Die andere Diskussion findet vielleicht in deinem Kopf statt, aber nicht mit mir.
Lass stecken wir sind dann auch durch.
 
Schinken42 schrieb:
Nein. Es ging um deine Aussage. es hätte bei Erscheinen von Ampere bereits viele Spiele mit RT gegeben
Ich habe "einiges" geschrieben, nicht "viele". Und ersteres war nunmal der Fall.

Schinken42 schrieb:
und um die Aussage, die RT Leistung würde 4-8 Jahre lang reichen um neue Spiele mit RT spielen zu können.
Zeig mir wo ich das geschrieben habe. Einfach zitieren.

Meine Aussagen waren

"Und da die meisten Leute sich Grafikkarten für 4-8 Jahre Nutzungszeit kaufen, wird auf die möglichst gute Unterstützung von halbwegs neuen Grafikfeatures eben Wert gelegt."

und

"2080 (Ti), 3070 (Ti), 3080 (Ti) und 3090 (Ti) sind jetzt fast 4 bzw. 6 Jahre alt und Du kannst damit immernoch alles mit RT zocken, was Du möchtest."

Zu beiden Aussagen hast Du bisher keine Gegenargumente gebracht.

Schinken42 schrieb:
Nur darauf hab ich reagiert.
Du hast also auf etwas reagiert, was nur in Deinem Kopf stattfand.

Schinken42 schrieb:
Die andere Diskussion findet vielleicht in deinem Kopf statt
Die andere Diskussion habe ich mit jemand anderem geführt. Du bist dann reingegretscht und hast Dinge als "Quark" bezeichnet, die Du Dir ausgedacht und ich nie geschrieben habe.

Ich habe jetzt übrigens auch keine Lust mehr, es fühlt sich an als würde ich mit nem Goldfisch (Gedächtnis und so) diskutieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Taxxor
Ich kann mich nur den wenigen kritischen Stimmen anschließen. Dieser "Artikel" ist schlecht. Alleine Methodisch. Es fängt schon damit an, dass was nun Fine Wine sein soll bzw. nach derr Autorin sein soll.
Ich habe nicht die Vergleichsgrundlage entdecken können. Technik, Technikverbesserungen Performanceverbesserungen, Vergleich auf Grund gleicher Leistungsklassen oder Kaufpreiseinordnung, damaliger Vergleich? So richtig passt eher Persönliche Vorlieben?
Die damalige Vergleichspartner GTX 1080 ist nicht mit dabei, obwohl
Vega hält bei heutigen Games besser mit als der DirectX-11-König Pascal. Reicht es für die Vega 64 in diesem Zusammenhang sogar dafür, dass statt der GTX 1080 inzwischen die GTX 1080 Ti in Schlagweite kommt, gar überholt wird?

In Forum kann man nun dieses lesen:
Der Gegener der Vega 64 ist nicht mehr die 1080, sondern wirklich die 1080 Ti. Vega ist nun von den Eckdaten genau da, wo sie 2017 hätte sein sollen. ;)

Nicht nur das diese Aussage in der Mitte des Forums deplatziert ist , sie deckt sich nicht mit dem Fazit des Artikels dort steht:

Genau das zeigt sich auch an den getesteten Grafikkarten: Die GeForce GTX 1080 Ti war 2017 unangefochten die schnellste Grafikkarte für DirectX-11-Spiele. Vega lag im Mittel 31 Prozent zurück und benötigte dazu sogar mehr Energie. Es war tendentiell für die Games der nächsten Generationen ausgelegt und aktuell liegt der Rückstand nur noch bei 23 Prozent;
Da nun 23% Rückstand im Gegensatz zu 31% eine neue Einteilung rechtfertig. Ist das nun überall so?
Noch hat diese Aussage eine Grundlage im Artikel. Wieso statt dessen eine GTX 2080 Ti oder gar RTX 4090 dabei ist, ist auch nicht nachvoll ziehbar. Wäre eine Vega7 getestet worden oder die Ergebnisse der Vega 64 besser als die GTX 1080Ti, wäre das passender.


Ein richtiger Technikartikel ist das auch nicht. Bei den ganzen Testergenissen fehlt die Testsequenz und eine Erklärung was nun vermessen wurde und wie das ganze nun m it dem Fine Wine zusammen hängt, fehlt auch. Die Erkärungen die zu den Spielen und Spieleauswahl sind nur Aussagen von den Werbetexten der Spielehersteller.
Der Beweis wieso die verwendeten "Test" keinen Speichermangel oder auf Grund andere Parameter limitieren können, wunden nicht gemacht.


Hätte ich mich bei dem Test auf Spiele seit 2020 und nur DirectX 12 gestürzt, wäre es noch mal etwas anders gewesen und Vega 64 wäre im Mittel noch näher dran gewesen.

Würde man nun FSR aktivieren bei den Spielen, die es können, könnte Vega sogar noch stärker profitieren, als die 1080 Ti.

Jaein, das Bild wird durch Anno 1800 als auch Total War: Warhammer 3 zu gunsten von Pascal etwas "geschönt". TW:W3 ist DirectX 11 - war etwas Absicht - und Anno 1800 hat zwar DX 12, aber das wirkt sich eher auf die CPU aus.
Diese Aussage sind verstörend. Man macht etwas nicht, weil die Ergebnisse (unerwünscht) besser sein könnten. Mit solchen Aussagen braucht man sich nicht wundern, wenn die eigene Arbeit als Herstellerlastig bezeichnet wird.

Nimmst du Diablo 2, Anno 1800, TW:W 3 und Ratched & Clank raus bei den Avg. FPS, dann liegt die Vega 64 nur noch 9 % zurück.
Dann suchen wir noch weiter und schlagen irgendwann mal eine RTX 5090.

Vega ist halt durchaus gut gealtert, nur die großen Versprechen konnte Vega nicht halten.
Dieses Machwerk taugt nicht dazu diese Aussage zu machen.

Die ganze Ausführung zu den Innovation ist seltsam und wiederspricht sich selbst. Ich habe keine Lust auf weitere Ausführungen.
 
  • Gefällt mir
Reaktionen: Qualla und Romanow363
Da habt Ihr ja mal wieder einen GIK hingelegt...

Das hier ist die Vega64:
thepriceisright.png

Quizfrage: Wie lautet der Name des Nvidia-Pendants in derselben Preisklasse?

Ich freue mich schon jetzt auf den zukünftigen Artikel "RTX 4090 vs. RX 7800 XT (2031): Wie steht es um 'fine wine' im Duell Ampere gegen RDNA3?"
 
Zuletzt bearbeitet:
StockholmSyndr. schrieb:
Quizfrage: Wie lautet der Name des Nvidia-Pendants in derselben Preisklasse?
Quizfrage: Worum geht es in dem Artikel?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bänki0815, Fallout667 und Taxxor
StockholmSyndr. schrieb:
Quizfrage: Wie lautet der Name des Nvidia-Pendants in derselben Preisklasse?
Wozu muss man denn die Karte mit dem direkten Konkurrenten vergleichen?
Ist doch vollkommen egal ob die GTX 1080 oder die 1080ti als Vergleich genommen wurde.
Um die Architekturen miteinander zu Vergleiche wie sie in neuen Spielen performen ist das vollkommen egal.

Ob man jetzt sieht wieviel Prozent der Unterschied zur 1080 oder 1080ti vorher und nachher beträgt ist doch egal.
Wo sollte das ein Problem sein?
 
  • Gefällt mir
Reaktionen: Bänki0815, Quidproquo77, Taxxor und eine weitere Person
Fallout, deine Ausführungen ergeben keinen Sinn.
 
@Lord Maiki: Lupenrein argumentiert, Respekt. Die Argumentationstechnik mache ich mir jetzt mal zu eigen:

Lord Maiki, Deine Ausführungen ergeben keinen Sinn.
 
  • Gefällt mir
Reaktionen: Taxxor
Ganz klar, Turing ist hier der Gewinner. :D
Gute Arbeit von CB und danke für den Test der alten Karten, welcher mir aber auch bestätigt das Turing erst heute so richtig in fahrt kommt. :daumen:

Hab noch eine RX5700xt und eine GTX1080 in Nutzung, und beide Karten haben ihre Stärken und Schwächen.
Nur richtig zufrieden war bzw. bin ich dann erst mit der 2080S für mein Usecase geworden, und hoffe die Karte hält mit neuen Pads und Wlp noch ein wenig durch, bis die 4080S dann in die Preisregion sich befindet wo ich auch die 2080S gekauft habe.:smokin:
 
  • Gefällt mir
Reaktionen: DevPandi
0x8100 schrieb:
statt praxisfremder tests hätte mich tatsächlich mehr interessiert, wie die karten auf 1080p/medium heute abgeschnitten hätten.
1080p ist eine praxisfremde, da nicht mehr zeitgemäße Auflösung. Klar, 4k braucht kein Mensch, aber deswegen muss man nicht auf Matsch-Auflösung runtergehen. In einem GPU-Test sollte man ja sowieso eine ordentliche Auslastung sicherstellen.
WQHD ist bei heute typischen Monitorgrößen eine adäquate und sehr übliche Auflösung (mal von so LowRes-Marotten im kompetitiven Bereich abgesehen), Settings kann man dort trotzdem noch runterschrauben, wenn es nicht reicht.
 
Xul schrieb:
1080p ist eine praxisfremde, da nicht mehr zeitgemäße Auflösung.
WQHD + DLSS/FSR = 960p dürfte ne ziemlich große Nutzerbasis haben
 
  • Gefällt mir
Reaktionen: Fallout667
Lord Maiki schrieb:
Fallout, deine Ausführungen ergeben keinen Sinn.
Das würde ich auch sagen, wenn ich wie du offensichtlich keine Ahnung von der Materie hätte und zudem nicht fähig wäre Texte zu lesen und zu verstehen.
Aber da ich im Deutschunterricht aufgepasst habe und mich ein wenig mit den Prinzipien von Hardwaretests auskennen, finde ich meine Ausführungen ergeben durchaus Sinn.

Aber da viele Leute sich hier jedes Mal über die Tests beschweren weil ihnen die Settings nicht passen und sie unfähig sind denn Sinn der hier durchgeführten Tests zu verstehen, wundert mich dein Kommentar nicht wirklich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MoinWoll
MoinWoll schrieb:
Lord Maiki, Deine Ausführungen ergeben keinen Sinn.
Ach, im Endeffekt ist es seine Meinung und er versucht sie zu begründen. Mir war von Anfang an klar, dass aus einer bestimmten Gruppe her Kritik an diesem Artikel kommt.

Wenn ich ehrlich bin: Sehe ich mir hier die Beiträge der "Hauptkritiker" an, dann fällt auf, dass Kritik an Artikeln von CB in der Regel dann geäußert wird, wenn AMD in ihren Augen unfair behandelt wurde. So langsam verstehe ich durchaus, warum manche Forenmitglieder hier schreiben, dass AMD von der Community eher positiv gesehen wird und vieles verklärt wird.

Ich bin aber ehrlich: Das Duell GeForce GTX 1080 gegen Radeon RX Vega 64 wäre weitgehend langweilig gewesen, denn das Duell hätte Vega spielend gewonnen. Man sollte im Kopf behalten, 2017 musste sich Vega oft selbst der GTX 1080 geschlagen geben, heute liegt Vega 64 in der Regel deutlich vor der GTX 1080 und kommt näher an die GTX 1080 Ti und kann sie sogar schlagen. Das ist durchaus eine beachtliche Entwicklung.

Bei "Fine Wine" kann ich die Kritik "nachvollziehen", nur kann man es auch anders sehen und auch weit aus differenzierter. "Fine Wine" kann man negativ sehen, weil die Grafikkarten NIE zum Release die Leistung zeigte, die nach einiger Zeit abrufbar war. Ich nähere mich an dieser Stelle dem "Fine Wine" über die Architektur und das GCN allgemein und auch Vega mit all den Änderungen lange Zeit auf moderne Workloads ausgelegt war, die damals aber von Spieleentwickler nicht unterstützt wurden. Vega ist als Grafikkarte besser gealtert als Pascal. Die Leistungssteigerung während der "Lebenszeit" bei Vega durch die Treiber haben aber eben auch sehr viel mit der Architektur zu tun und auch damit, dass neben den Treibern auch Spiele Updates erhalten haben, die mit Vega besser umgehen konnten.

Die Thematik von "Fine Wine" ist weitaus komplexer, als selbst die Kritiker hier erfassen können. An der Stelle gibt es so viele Ebenen, die man beleuchten könnte, dass das durchaus sogar einen eigenen Artikel wert wäre.

Und natürlich hätte man FSR nutzen können bei Spielen, auch die Einstellungen herunterregulieren. Nur war nie die Intention hinter diesem Test "spielbare" fps zu bekommen, sondern die Leistung von Pascal, Turing und Vega bei modernen Spielen zu ermitteln. In letzter Zeit gibt es einige Leser, die beschweren sich darüber, dass in 4K DLSS/FSR standardmäßig genutzt wird und dass das ja verfälscht. Hier wird effektiv nach dieser Verfälschung verlangt. Ja, ich weiß, es sind nicht die gleichen Mitglieder.

Und ja FSR läuft auf Vega-Grafikkarten besser, genug Shader "frei" sind und damit der Impact geringer bei der Leistung. In diesem Fall würde sich Vega 64 im Mittel noch näher an die 1080 Ti schieben und in anderen Spielen sogar davor.

Das würde am Ende aber nichts am Fazit: Vega ist besser gealtert als Pascal, Turing wiederum kann die Versprechen von 2018 die Nvidia gemacht hat, heute noch besser einlösen.

Und es würde am Ende auch dabei bleiben, dass AMD zwar auf Ebene der Hardware heute immer noch Innovationen umsetzt - MCD, GCD, rBAR, Infinity-Cache. Sie aber leider im Bereich der Spieleentwicklung es nicht mehr tun. AMD konnte immer irgendwie "Nadelstiche" setzen und hat tolle Ideen gehabt. Das ist etwas, was ich bei AMD seit RDNA vermisse.

Ja, es ist verständlich, aber wie oft lese ich hier, aber auch pcgh, hardwareluxx und in anderen Foren, dass AMD von Nvidia ja nur kopiert und sie nie was Eigenes geleistet haben. Das stimmt nicht, aber genauso wird das von vielen empfunden - was ja auch ein Grund ist, warum ich mal all das aufgezählt haben, was wir heute ATi und AMD zu verdanken haben.

Ich finde es ein wenig lustig, wie hier AMD "in Schutz" genommen wird, dabei hat AMD es in diesem Artikel überhaupt nicht notwendig, denn Vega ist super gealtert und wer sich 2017 für eine Vega 64 entschieden, statt einer 1080 oder 1080 Ti, der hat alles richtig gemacht, denn mit FSR kann man mit der Vega selbst in 1440p durchaus noch echt gut spielen, und genau das zeigt der Test eben auch, wenn man sich die 60 - 80 % an FPS zu den Ergebnissen dazudenkt.

Ich selbst hoffe, dass AMD ihr "Mojo" wieder findet und sie eben auch auf der "Softwareseite" wieder mitmischen wollen, da gestalten wollen. Denn für den Markt kann es nicht gut sein, wenn alle nur Nvidia hinterher rennen.
 
  • Gefällt mir
Reaktionen: Quidproquo77, SweetOhm, ElliotAlderson und 5 andere
Zumindest zeigt es, dass GPU Leistung auf Vorrat kaufen eher sinnlos ist ist. Karten müssen beim Launch liefern.
Ob jetzt die Vega wirklich an die 1080Ti rankommt ist eher unerheblich. Beide haben nach dem jetzigen Stand einfach eine zu geringe Leistung.
 
  • Gefällt mir
Reaktionen: calippo
Xul schrieb:
1080p ist eine praxisfremde, da nicht mehr zeitgemäße Auflösung.
Sag das mal den zig millionen steam nutzern. Dort ist FHD noch die vorherrschende Auflösung mit 58% gegen 18% WQHD.Meine beiden Söhne haben auch nur FHD bekommen. Das Reicht völlig um spass am spiel zuhaben. Es soll sogar Gamer geben die sich mit 720p zufrieden geben.

neue Spiele brauchen auch wieder mehr leistung GPU‘S altern, dann müssen die Auflösungen runter. mittlerweile nutzt man dazu upscaler, ändert aber nix an der render Auflösung.
 
  • Gefällt mir
Reaktionen: Bänki0815 und LeckerRK
Die 1080Ti ist chancenlos wenn Vega Fine Wine 64 FSR3 + AMD Frame Generation auf "on" schaltet. Dürfte 70-80% schneller sein als die 1080Ti. Arbeite gerade an einem CP2077 Video, welches diesen CB-Artikel obsolet machen wird.
 
vinacis_vivids schrieb:
Die 1080Ti ist chancenlos wenn Vega Fine Wine 64 FSR3 + AMD Frame Generation auf "on" schaltet.
Kann man das bei der 1080 Ti nicht ebenfalls aktivieren?
 
  • Gefällt mir
Reaktionen: LeckerRK, Romanow363 und Northstar2710
Zurück
Oben