Test GTX 1080 Ti vs. RX Vega 64 (2024): Wie steht es um „fine wine“ im Duell Pascal gegen Vega?

DevPandi schrieb:
Wie schlägt sich die ehemals schnellste DirectX-11-Karte von Nvidia in modernen Spielen?

Dass ich das noch erleben darf... top top top!

aehm, was heisst hier 'ehemals'? - 2 Luefter-Design Mini in Silent-PC, 0db-Zero-Fan, selbst beim Spielen hoert man (fast) nix...
:)
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Wenn ich nun Settings und Spiele nehme die eher der Leistung einer 1080Ti oder Vega 64 entsprechen ( ESports, Indie usw.), wird sich nicht so viel tun.
am ranking wird sich wohl nicht viel tun (bzw. wissen wir das nicht, wurde ja nicht getestet...), aber jetzt haben wir einen test, der nur aussagt "alles nicht spielbar". warum nicht gleich die gelegenheit nutzen und settings wählen, mit denen ein potentieller kartenbesitzer auch was anfangen kann?

und noch ein rant zu dem artikel: der aufmacher beschreibt die zielstellung mit "Kann eine RX Vega64 heute also eine GTX 1080 Ti schlagen?". und dann kommt eine abhandlung wie toll nvidia mit raytracing und ki sei und die richtung vorgäbe. das fazit biegt dann nochmal richtung amd cpus ab und fabuliert von amds "verlorener stärke". das ist hochgradig tendenziös - kann man nicht einfach beim thema bleiben oder sollte das einfach nur für mehr aufrufe/klicks im forum sorgen? hat jedenfalls alles nichts mit vega64 vs. 1080ti zu tun.
 
  • Gefällt mir
Reaktionen: bibler
Interessanter Einblick in die Historie. Gibt ein Gefühl dafür, wie Zukunftsweisend manche Ideen damals waren. Leider nie in eine Netto-technologieführerschaft umgemünzt.
Zu etwa der Hälfte der Kommentare hier sage ich lieber nichts…
 
  • Gefällt mir
Reaktionen: Tzk
0x8100 schrieb:
aber jetzt haben wir einen test, der nur aussagt "alles nicht spielbar".
Der Test sagt, unter anderem, aus, dass Vega über die Zeit mit neueren Spielen und ggf. neueren Treibern näher an Pascal herangerückt ist, auch wenn Du dieses Ergebnis des Tests weiterhin ignorieren möchtest. Um Spielbarkeit geht es wie gesagt nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: interesTED, YY247, Tzk und eine weitere Person
MoinWoll schrieb:
Der Test sagt aus, das Vega über die Zeit mit neueren Spielen und ggf. neueren Treibern näher an Pascal herangerückt ist,
woher hast du diese erkenntnis? es gibt keinen vorher/nacher-vergleich, wie kannst du da auf ein "heranrücken" schliessen?
 
@0x8100: "Und wie sieht es heute in überwiegend aktuellen Spielen aus? Dem nachfolgenden Performance-Rating zufolge kann Vega 64 den ursprünglichen Abstand im Mittel von 31 auf 23 Prozent verkürzen, das entspricht 26 Prozent Zuwachs und ist durchaus beachtlich für diese Zeit. Bei den Frametimes kann Vega den Abstand stärker verringern und liegt im Mittel nur noch 14 Prozent statt der ursprünglichen 26 Prozent zurück, also 46 Prozent weniger."
 
  • Gefällt mir
Reaktionen: Dalu, YY247, darthbermel und eine weitere Person
0x8100 schrieb:
am ranking wird sich wohl nicht viel tun (bzw. wissen wir das nicht, wurde ja nicht getestet...), aber jetzt haben wir einen test, der nur aussagt "alles nicht spielbar". warum nicht gleich die gelegenheit nutzen und settings wählen, mit denen ein potentieller kartenbesitzer auch was anfangen kann?
Weil das mehr Aufwand bedeuten für kaum Erkenntnisgewinn hinsichtlich der Zielsetzung des Tests bringen würde. Man müsste erst einmal schauen ob niedrige Settings die Karten überhaupt ordentlich auslasten. Bei Vega war es ja durchaus so, dass die Karten nicht ordentlich ausgelastet werden konnten. Natürlich kommt die Wahl Testmethodik Vega entgegen, aber auch der 2080Ti, von daher ist da nichts tendenziös.
0x8100 schrieb:
und dann kommt eine abhandlung wie toll nvidia mit raytracing und ki sei und die richtung vorgäbe. das fazit biegt dann nochmal richtung amd cpus ab und fabuliert von amds "verlorener stärke". das ist hochgradig tendenziös - kann man nicht einfach beim thema bleiben oder sollte das einfach nur für mehr aufrufe/klicks im forum sorgen? hat jedenfalls alles nichts mit vega64 vs. 1080ti zu tun.
Tendenziös? Das trifft das ganze doch ziemlich auf den Punkt wenn du mich fragst. Nvidia hatte früher auch ohne Technik-Vorreiterrolle die Oberhand und nun hat Nvidia beides. Natürlich gab es auch Ausnahmen, aber AMD hatte zumindest mit GCN 2011 bis 2018 etwas mehr Zukunft in den GPUs. Diese Kombination führt bei Nvidia momentan zu einem enorm hohen Marktanteil. Aus dem Teufelskreis muss AMD ausbrechen.
 
  • Gefällt mir
Reaktionen: MoinWoll
ruthi91 schrieb:
Warum denn immer diese Bröselauflösung?
Mit 8GB / 11GB haben auch beide Karten genug Speicher um WQHD zu befeuern.
Übrigens soll es sogar vorgekommen sein, dass sich schon Anno2017 Leute einen 4K Monitor geholt haben....
hatte die Vega auch damals gebraucht (Gewinner eines Gewinnspiel wollte sie nicht) für wqhd geholt
 
MoinWoll schrieb:
Falls das gemeint war und all diese Vermutungen irgendwann eintreffen werden, stimme ich zu. Allerdings ist das nicht der Inhalt des verlinkten Heise-Artikels, der von der Gegenwart spricht und auf der Grundlage faktisch falscher Behauptungen Panikmache betreibt.
Hab den Heise artikel nicht gelesen, wie du schon sagst, sind die oft sehr tendentiös.
Da kucke ich mir lieber C'T an da lerne ich was ;)
Aber ja, wenn dann machen die das irgendwann in der Zukunft. Aber noch nicht jetzt.
Und selbst in der Zukunft muss das nicht passieren, denn die Gaming-GPUs können halt auch einfach seperat in einem anderen Node gebaut werden oder einfach als Abfall der KI-Sparte dienen.
Ist wie bei X4. Ich mache mit bestimmten Waren massiv Reibach. Baue trotzdem andere Waren, die nur einen Bruchteil einbringen, einfach, weil ich die anderweitig nutzen kann und es ganz nett ist, wenn man ein wenig breiter aufgestellt ist (die Gewinne sind aber wirklich marginal. Mit Mikrochips, Substraten und anderem Krams mache ich 90% meiner Profite, der Rest ist nice to have).

Genug von X4. Wir werden sehen was Nvidia macht. Aus rein wirtschaftlicher Sicht würde ein Switch später Sinn ergeben, aber es gibt genug andere Faktoren die eine Rolle spielen könnten.
 
  • Gefällt mir
Reaktionen: MoinWoll
TrueForm, das 'Wort' hab ich seit meiner Radeon9700XT nicht mehr gehört/gelesen.

Damals ist das völlig untergegangen.
Gab nen patch für Unreal Tournament dafür. Damit sah alles "runder" aus. War interessant.

Musste bei nVidias Tesselation damals schon daran zurückdenken (Unigine Heaven).
 
  • Gefällt mir
Reaktionen: drake23
Quidproquo77 schrieb:
Tendenziös? Das trifft das ganze doch ziemlich auf den Punkt wenn du mich fragst.
es hat aber nichts in einem vergleich vega64 vs. 1080ti zu suchen. genau wie die persönliche spielbeschreibungen wie:
Diablo II bleibt ein Klassiker, der zwischendurch Spaß machen kann. Keine Season-Pässe, bei denen man Belohnungen hinterherhetzt, kein Ingame-Shop, bei dem man besondere Outfits versteckt, und eine relativ freie Charakter-Entwicklung.
Hogwarts Legacy ist ein fast wahr gewordener Traum jedes Harry-Potter-Fans und konnte zum Release Anfang 2023 viele Menschen begeistern. Sowohl Fachpresse als auch Gamer mögen das Spiel und wirtschaftlich war es erfolgreich. Die Lehre daraus für WB Games ist, dass sie lieber weitere Games wie Suicide Squad entwickeln wollen. Verwunderlich und nicht wirklich nachvollziehbar, ist der Markt an Service-Games doch bereits gut gefüllt.
Bei all dem Lob, das Horizon Forbidden West in der Fachpresse einheimste, muss eine Frage doch gestellt werden: Warum wird ein Spiel, das so nahe an der Ubisoft-Formel ist, so positiv aufgenommen? Vielleicht liegt es an einem entscheidenden Faktor: Dinosaurier. Denn die machen bekanntlich alles besser.
Ein solides Gameplay, eine großartige Grafik und vier grundsympathische Protagonisten mit einer abgefahrenen Story: Mehr braucht es für ein gutes Spiel nicht. Die Liebe zum Detail ist spürbar.
Massenschlachten sind eine Stärke von Warhammer III und entsprechend versucht der Spieler, als Chaos-Anhänger die alte Welt in den Untergang zu führen oder als eine der anderen Fraktionen genau das zu verhindern, auch wenn die Weltherrschaft das eigentliche Ziel ist.
das sind so textbausteine, die interessieren hier einfach nicht. das und das ganze nvidia vs. amd geschreibsel wirken auf mich, als müsste noch irgendwie eine anzahl an worten erreicht werden. bei einer deutscharbeit hätte "sinnvoll kürzen" drunter gestanden. ist einfach kein guter artikel.
 
  • Gefällt mir
Reaktionen: Coeckchen, TomH22 und IBMlover
Deswegen kommt bei mir seit Jahren, egal ob es sich dabei um GPU's oder CPU's handelt nur AMD zum Einsatz.

Ich gebe einen feuchten auf das überteuerte Schickimicki Bling! Bling! Blendwerk was einem da Nvidia jährlich vorsetzt.

Anstatt einem mit künstlichen Süßstoffen und an den Geschmack von Gummibärchen erinnernden Energiedrink wie ihn uns Nvidia seit etlichen Jahren vorsetzt, ist mir ein Glas gut gealterter Rotwein, wie uns
AMD seit so langem bietet 1000 Mal lieber.
 
DevPandi schrieb:
Die Wave64-Unterstützung haben sie ja auch nie gestrichen. Eines der "Geheimnisse" von RDNA war ja, dass die primären "Wave64" damals dann in 2 Takten, statt 4 und in einem, wenn es weniger gleich 32 Warte waren.

Den Treiber hat man auf Wave32 umgebaut, weil Nvidia weitgehend mit Warp32 arbeitet. Bei RDNA 3 ist es ja so, dass die neuen Vec32 sich entweder wie eine Vec64 Verhalten (Wave64 in einem Takt), oder eben 2 Wave32 "gepackt" bearbeiten.
Das ist aber schon wieder problematisch. Bei GCN waren es ja 4 Takte auf SIMD16, v.a. weil es dadurch keine Abhängigkeiten gab. Das ist dann ziemlich anders zu RDNA mit SIMD32 und expliziten Abhängigkeiten, v.a. gab es dann auch gleich 4x so viele Scheduler. Da kann ich Dir meinen Vortrag zu empfehlen: https://gpuopen.com/wp-content/uploads/2020/11/RDNA_Architecture_public-1.pdf

Und Wave32 hat viele Gründe, ist bei divergenten Workloads z.B. besser. Das mit RDNA3 funktioniert aber auch nicht so. Normalerweise wird eine Wave64 über zwei Takte ausgeführt - steht ja auch so in der Doku: "Wave64 waves typically issue each instruction twice". Das manche Skalaren Instruktionen nur einmal pro Wave64 laufen ist irgendwo logisch, wie willst Du auch ein Skalar 2x issuen.

Ich bin da völlig bei Dir, es ist kompliziert, allerdings war das mit dem Kontext halt "so falsch" dass es mich getriggered hat hier nach Jahren mal einen Kommentar abzulassen, und das will schon was heißen. Ich würde es eher so formulieren, dass AMD mit den Jahren immer besser den Dreh raus hatte wie man die GPU füllt, und deswegen Async Compute ein wenig hinten an gestellt wurde. Zu den Wave-Sizes hätte ich geschrieben, AMD hat sich da an NVIDIA angeglichen und die Wave-Größe reduziert, was insbesondere bei vielen kleinen Workloads hilft (RT, etc.) Dann ist da nichts dran auszusetzen (und bei großen Workloads wird eben weiterhin Wave64 genutzt.)
 
  • Gefällt mir
Reaktionen: Volvo480 und DevPandi
Zündkerze schrieb:
Ich quäle derzeit noch die Vega FE mit Helldivers 2, BF:V und WoW auf UWQHD
HD2 verlangte schon etwas Regler Akrobatik, aber das geht schon klar so^^ (FPS im Bereich 60 - 100).

Je nach Preis und (für mich) interessante Spiele wird geschaut, was der Duopol für eine neue Karte verlangt.

Flossen_Gaming schrieb:
Ich habe noch eine 1080 Ti im Einsatz und mir fehlt es in WQHD nicht an Leistung, ich kann immer noch alles zufriedenstellend spielen.
Genau das ist der Punkt, man muss halt auch einmal die Regler etwas zurückfahren. Bis letzte Woche hatte ich noch eine 1080er im alten Rechner und habe damit zuletzt Diablo IV gespielt, sah wunderbar aus und war noch vor Raytracing, das sogar in 4K, bis es mich dann gelangweilt hatte.

Als ich damals kurz nach Release die 1080 geholt hatte wurde freudig Crysis installiert, lief gut, aber der eine oder andere Regler war auch nicht auf Anschlag.

Inzwischen werd ich zu alt für die neuen Spiele, ich hab einfach keinen Bock mehr drauf. Der neue PC hat nur eine 3060 12 Gb drin und wird eher für PS und Lightroom genutzt, die alten Spieleperlen laufen darauf aber wunderbar in 4K und der Alte wird entweder komplett oder in Teilen vertickt.

Aber der Vergleich war gut, bin gespannt wie es bei dem ewigen Kampf der beiden Kontrahenten weitergeht, AMD bzw. ATI hatte ich auch welche in meinen Rechnern.
 
0x8100 schrieb:
das sind so textbausteine, die interessieren hier einfach nicht.
Wenn sie Dich nicht interessieren, dann ließ sie halt nicht.
 
  • Gefällt mir
Reaktionen: interesTED und Quidproquo77
Ich mag tests mit solch alten Karten, weil ich selbst noch eine Nutze, sie aber gegen eine 4090 anlaufen zu lassen ist doch sinnlos. Lieber eine 4070 Super. Da würde man dann sehen, ob sich upgraden lohnt. Wer jetzt noch eine 1080TI im Rechner hat, würde niemals 2k für eine 4090 ausgeben
 
  • Gefällt mir
Reaktionen: BeowulfAgate
Super Test, zeigt für mich im Einzelfall einfach nur wie sinnlos es wäre 2k für ein Topmodell auszugeben, wenn selbst die 2XXX und 3XXX Reihe locker reicht.

Dann upgrade ich halt nächstes mal auf ne gebrauchte 3090 oder eine 4070, sobald Nvidia und AMD neue Grafikkarten releasen
 
MoinWoll schrieb:
Wenn sie Dich nicht interessieren, dann ließ sie halt nicht.
bei schlechten nachrichten machst du auch lieber den fernseher aus? probleme nicht anzusprechen ist nunmal auch nicht die lösung.
 
Wurde hier mit der kühler Limitierten GTX1080TI FE getestet oder mit einer der Costum Karten die locker 15-20% drauf gepackt haben?

Vega war eine der größten Lügen AMDs.. als Konkurrenz zur GTX1080Ti vorgestellt und im maximalen Ausbau zu Release lag man ca 10% hinter der GTX1080.. und wollte 100€ mehr haben..

Man hat fast 1 Jahr gebraucht um die Differenz aufzuholen und der Vega64 Beine zu machen so daß sie schlussendlich mit der GTX1080 Leistungsparität hatte... AMD hat hier eine Menge Federn gelassen.

Für die GTX1080TI brauchte es einen node shrink.. erst Vega2 (VII) war endlich in der Lage mit der GTX1080TI gleichzuziehen..

Und Navi1 war im Vollausbau ebenfalls auf dem Level.. wärend Nvidia mit ihrer RTX2000 Reihe Konkurrenzlos war.

Das einzige was AMD den Hintern bei den Vegas gerettet hatte war der erste Miningboom wo die Karten extrem gut performten.. selbst alte gebrauchte Karten gingen zu höchstpreisen bei eBay weg
 
0x8100 schrieb:
bei schlechten nachrichten machst du auch lieber den fernseher aus?
Bei Programmen die mich nicht interessieren, mache ich den Fernseher aus. Wieso kurze Einleitungstexte für Einzeltests von Spielen für Dich "schlechte Nachrichten" sind, ist mir nicht klar.

0x8100 schrieb:
probleme nicht anzusprechen ist nunmal auch nicht die lösung.
Wenn es tatsächlich Probleme gibt, sollten sie angesprochen werden, ja. Wenn einen etwas nur nicht interessiert, kann man das natürlich auch äußern, verbietet ja niemand. Man muss dann aber damit rechnen, dass auch andere Ihre Meinung dazu sagen.

Ich habe so langsam den Eindruck Du suchst aktiv nach Gründen, um den Artikel weiter kritisieren zu können, weil Deine ursprüngliche Kritik ins Leere gelaufen ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ghostfacekalle, Sirhaubinger und interesTED
Zurück
Oben