Test GTX 1080 Ti vs. RX Vega 64 (2024): Wie steht es um „fine wine“ im Duell Pascal gegen Vega?

Hätte man sich 2017 lieber 20 Nvidia Aktien im Wert von ca. 800 Euro anstelle einer 1080Ti gekauft, dann wärst heute bei 80.000 Euro. Jedes Jahr ne neue GPU für den Rest Deines Lebens^^
 
@DevPandi Kannst du vielleicht noch was zu Taktverhalten, Temperaturen und Stromverbrauch (evtl. auch als Grafik) im Benchmark ergänzen? Mich würde interessieren, wie stark die Vega 64 im Test drosselt oder ob das mittlerweile besser ist. Die Vega 56 (ich hatte eine MSI Air Boost 2019 für 260 € gekauft) z.B. konnte man ja prima undervolten und durchgängig mit knapp 1,5 GHz GPU- und 1,1 GHz RAM-Takt (mit Samsung Speicher) bei geringerer Abwärme und geringerem Stromverbrauch betreiben. Unter WQHD konnte man damit eigentlich alles einwandfrei spielen, sofern es keine Treiber-Probleme gab. :)
 
@DevPandi Ich kann die Aussage

Raytracing wird durch Nvidia dominiert, die entsprechend Ressourcen aufwenden, sowohl Studenten als auch Spielestudios unterstützen und damit wichtige Erfahrungen sammeln. Auch im KI-Markt ist AMD hinten dran .

nur halb unterstützen. nVidia interessiert sich nicht mehr für gamer.
Dazu ein Kommentar (heise.de).
Ein (noch aktueller) Hopper-Beschleuniger H100 kostet weit jenseits der 20.000 Euro und treibt Nvidias Nettomarge nah an die 80 Prozent. Beim Nachfolger B100 werden Preise von mindestens 60.000 Euro erwartet. Dagegen stehen GeForce-Grafikkarten, deren schnellste Versionen Nvidia mit Ach und Krach für 2000 Euro verkauft bekommt. Und die Fertigungskapazität des Zulieferers TSMC ist begrenzt.
So weit ich das verstehe, kann man ungefähr 4 RTX4090 bauen oder einen KI-Beschleuniger, limitieren tut hier die Fertigungskapazität bei TSMC.
Das wären also 16.000 € Reingewinn bei einem Beschleuniger oder margere 8.000 Umsatz bei 4 x 4090.

Mit anderen Worten: Wir werden bei Grafikkarten von nVidia quasi Stagnation bei der Leistung erleben und eher Effizienzsteigerungen (weniger Fläche des Chips und ggf. einfacheres Packaging bei eher gleichbleibender Rechenleistung und ggf. weniger Stromverbrauch) sehen.

Für Spieler könnte es bei der übernächste Generation bedeuten, vergleichbar schnelle Modelle von AMD und nVidia vergleichen zu können/müssen aber auch, dass es nur wenig Geschwindigkeitszuwachs zwischen den nVidia Generationen geben wird. Oder einfach viel längere Zyklen zwischen neuen nVidia-Serien.
 
0x8100 schrieb:
um was geht es denn? laut titel um die ausage "fine wine", also ob sich vega im laufe der zeit verbessert hat. und was wird dann getestet? cyberpunk und avatar, von denen beim release der karte niemand auch nur geträumt hat.
Wie willst Du denn Veränderungen über die Zeit feststellen? Indem Du Spiele von 2016 testest?

0x8100 schrieb:
gerne, auch unter linux - brauchst mir nur die hardware zukommen lassen
Kannst ja mal bei CB fragen, ob sie Dir die Karten für einen LeserInnentest leihen können. Ich bezweifel allerdings, dass das passieren wird, da Du hier unter Beweis gestellt hast, dass Du nicht weißt, was der Sinn und Zweck eines GPU-Tests ist.
 
  • Gefällt mir
Reaktionen: Sirhaubinger, Poati und Quidproquo77
danke für den Test. Sehr interessant, als technik vergleich.

Ich hätte mir zwar gewünscht das die beiden Karten mit einem praxistauglicherem setting gebecht worden wären, aber man kann nicht alles haben.
 
Man kann aus dem Tests mehrere Schlüsse ziehen. Ja, scheinbar ist die Vega besser gealtert und hat weniger Performance eingebüßt. HBM ist hier sicher zuträglich.
Allerdings muss man auch festhalten, dass entweder
  • auf beiden Karten das Spiel mit den gewählten Settings eher unspielbar ist
  • auf der Vega das Spiel trotz kleinerer Verluste in den gewählten Settings eher nicht mehr spielbar ist
  • es im Endeffekt keinen Unterschied macht, weil es auf beiden Karten noch sehr gut spielbar ist (und die 1080 Ti trotzdem schneller)

Vielleicht wäre der Test gegen die 1080 doch der "bessere" gewesen, da zum Release-Zeitpunkt ja auch ähnlicher Preis (und ähnliche Performance)
 
budspencer schrieb:
Hätte man sich 2017 lieber 20 Nvidia Aktien im Wert von ca. 800 Euro anstelle einer 1080Ti gekauft, dann wärst heute bei 80.000 Euro. Jedes Jahr ne neue GPU für den Rest Deines Lebens^^
Mit der Aussage wäre ich vorsichtig :D
 
  • Gefällt mir
Reaktionen: stevefrogs
Mega cool, dass hier noch so alte GPUs wieder rangezogen werden für Tests. Man mag es nicht glauben, aber sie haben noch ausreichend viel Leistung für den Großteil der Spieler.

Warum auch immer, aber ich mochte die Vega Grafikkarten eigentlich sehr gerne (bzw. mag sie immernoch).

Ich denke die Vega könnte in diesen Tests die 1080Ti besser einholen, bzw teils sogar überholen - wenn man sie tunen würde. Ein Problem der Vega GPUs war ja, die schlechte out of the box Performance, mit Tuning war da viel Leistung zu holen (bei meiner Vega56 waren es teils 200-300MHz Unterschied die man erzielen konnte)
 
  • Gefällt mir
Reaktionen: M11E
scooter010 schrieb:
Heise ist leider mittlerweile häufig unseriös. Für eine Analyse und Bewertung des Heise-Artikels kannst Du Dir den Artikel hier mal durchlesen:

https://www.3dcenter.org/news/news-des-7-juni-2024

Derzeit limitiert bei der Fertigung von KI-Chips das Advanced Packaging und der HBM-Speicher. Beides Dinge, die man für Consumer-GPUs nicht braucht. Die Fertigungskapazität ist daher nicht der Flaschenhals. Kann sich natürlich zukünftig ändern, ist aber noch nicht absehbar.

Dass NVIDIA auf der Computex nichts zu RTX 50 gesagt hat, liegt daran, dass die Karten voraussichtlich Ende des Jahres/Anfang nächsten Jahres kommen und NVIDIA, zumindest in den letzten 10 Jahren, neue Consumer-Karten immer etwa einen Monat vor Release vorgestellt und davor dazu geschwiegen hat. Ergibt ja anders auch keinen Sinn, weil die Konkurrenz dann weiß was Sache ist und ggf. entsprechend reagieren kann. Das war auch komplett ohne KI-Boom/Hype der Fall. Dass Letzterer enden kann, ist auch NVIDIA bewusst, daher werden sie sicherlich in absehbarer Zeit nicht an ihrem immernoch sehr lukrativen Gaming-Standbein sägen, das sie im Falle des Einbrechens des Marktes für KI-Hardware vor der Insolvenz retten würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: nyster, Tzk, stevefrogs und 2 andere
Sehr interessant, danke für die Mühen!
Es ist schade zu sehen, dass AMD die richtigen Ansätze und Ideen hatte und nie wirklich die Lorbeeren in Form von Marktanteilen einfahren konnte. Ich stelle mir die Frage ob man damals bei der Architekturentwicklung zu blauäugig war und davon ausgegangen ist, dass die Software/Spieleentwickler die Architekturvorteile direkt nutzen werden. Dass sie damals richtig unterwegs waren sieht man ja durch den Test.
 
  • Gefällt mir
Reaktionen: M11E, nyster und Epistolarius
Zenx_ schrieb:
Vega 64 ne geile Karte gewesen, für 550€ gekauft und 750€ nach 2 Jahren in 2021 verkauft. Hatte viel spaß mit dem Teil.
Same hatte auch ne Vega64 Nitro+ gekauft für so 500€ damals zum Mining Boom dann auch für so 700 verticket, das hat sich gelohnt.
 
kicos018 schrieb:
Ja, es macht sicherlich mehr Sinn Hilfsmittel wie FSR anzuwenden, aber was genau erwartest du jetzt von diesem Test? Einen Vergleich mit identischer Ausgangsbasis oder einen Test unter Realbedingungen mit unterschiedlichsten Variablen?
Weil wenn ich Manor Lords mit mittleren bis hohen Einstellungen spiele, dann habe ich unter WQHD mit meiner 1070 nicht nur 30 FPS, wie im Community-Benchmark, anliegen.
beide Karten können FSR. Damit gibt es keine unterschiedlichen Variablen innerhalb eines Spiels. Direkt vergleichbar sind verschiedene Spiele untereinander eh nicht. Wenn es mehr Sinn macht, wie du sagst und das tut es bei 20 FPS zweifelsohne, hätte man das bei den Spielen mit FSR Support aktivieren müssen.
 
Ohne hier jemandem auf die Füße treten zu wollen. Dem Artikel hätten ein paar Kommentare beim Korrekturlesen ganz gut getan. So liest sich dass meiner Meinung nach verwirrend und sehr anstrengend.

Absatz 1:
1718106504557.png


Absatz 2:
1718106553554.png
 
  • Gefällt mir
Reaktionen: Epistolarius und DevPandi
0x8100 schrieb:
um was geht es denn? laut titel um die ausage "fine wine", also ob sich vega im laufe der zeit verbessert hat. und was wird dann getestet? cyberpunk, avatar und cities skyline 2 - also titel, von denen beim release der karte niemand auch nur geträumt hat.
Natürlich soll der Test ein bestimmtes Ergebnis provozieren. Wenn ich nun Settings und Spiele nehme die eher der Leistung einer 1080Ti oder Vega 64 entsprechen ( ESports, Indie, aktueller Parcour), wird sich nicht so viel tun, auch wegen V-ram.
Aber mit der gezielten Auswahl von aktuellster Software mit modernen Features , war Vega seiner Zeit offensichtlich ein Stück voraus gewesen, übrigens auch GCN, mit Ausnahme der Fury vielleicht.
 
  • Gefällt mir
Reaktionen: stevefrogs
MoinWoll schrieb:
Derzeit limitiert bei der Fertigung das Advanced Packaging und der HBM-Speicher. Beides Dinge, die man für Consumer-GPUs nicht braucht. Die Fertigungskapazität ist daher nicht der Flaschenhals. Kann sich natürlich zukünftig ändern, ist aber noch nicht absehbar. Dass NVIDIA auf der Computex nichts zu RTX 50 gesagt hat, liegt daran, dass die Karten voraussichtlich Ende des Jahres/Anfang nächsten Jahres kommen und NVIDIA, zumindest in den letzten 10 Jahren, neue Consumer-Karten immer etwa einen Monat vor Release vorgestellt und davor dazu geschwiegen hat. Ergibt ja auch keinen Sinn, weil die Konkurrenz dann weiß was Sache ist und entsprechend reagieren kann. Das war auch komplett ohne KI-Boom/Hype der Fall.
Naja, aber es ergibt trotzdem wirtschaftlich Sinn, wenn man sich auf das fokussiert, dass am Ende mehr Marge bringt als das andere Produkt. Natürlich ist es richtig, dass momentan das Packaging und der HBM speicher nicht in den Mengen verfügbar sind, wie sie gebraucht würden, aber wenn man mal ein Gedankenspiel macht, in dem das eben der Fall wäre, dann ist die Schlussfolgerung eigentlich passend.
Aber wie so oft bei Wirtschaftstheorien, sind diese nicht 1 zu 1 auf die Wirklichkeit anzuwenden.
Und wenn man davon ausgeht, dass in Zukunft der Bedarf an KI-Beschleunigern ungebrochen hoch bleibt, die Verfügbarkeit des HBM steigt und auch das packaging den Bedarf decken kann, dann kann man schon zu der Schlussfolgerung kommen, dass der Fokus in erster Linie auf der Produktion dieser Chips liegt und weniger auf dem von Grakas für Spieler.
Das ist allerdings eine Annahme für die Zukunft. Und ich glaube, dass meinte der Forist auch, dass es in 5-6 Jahren nicht mehr wirklich interessant ist für Nvidia viel in normale Grakas zu investieren.
 
edenjung schrieb:
Das ist allerdings eine Annahme für die Zukunft. Und ich glaube, dass meinte der Forist auch, dass es in 5-6 Jahren nicht mehr wirklich interessant ist für Nvidia viel in normale Grakas zu investieren.
Falls das gemeint war und all diese Vermutungen irgendwann eintreffen werden, stimme ich zu. Allerdings ist das nicht der Inhalt des verlinkten Heise-Artikels, der von der Gegenwart spricht und auf der Grundlage faktisch falscher Behauptungen Panikmache betreibt.
 
Zuletzt bearbeitet:
Interessant zu sehen, dass die 4090 in bestimmten Szenarien fast 10 mal mehr Lesitung hat als eine 1080ti. Ist doch ne ordentliche Weiterentwicklung innerhalb von 7 Jahren.
 
Anteru schrieb:
Und ja, zwar hat man von SIMD16 auf SIMD32 umgestellt, aber unterstützt weiterhin Wave64
Die Wave64-Unterstützung haben sie ja auch nie gestrichen. Eines der "Geheimnisse" von RDNA war ja, dass die primären "Wave64" damals dann in 2 Takten, statt 4 und in einem, wenn es weniger gleich 32 Warte waren.

Den Treiber hat man auf Wave32 umgebaut, weil Nvidia weitgehend mit Warp32 arbeitet. Bei RDNA 3 ist es ja so, dass die neuen Vec32 sich entweder wie eine Vec64 Verhalten (Wave64 in einem Takt), oder eben 2 Wave32 "gepackt" bearbeiten.
Anteru schrieb:
Die SIMD-Breite ist jetzt zwar nicht völlig egal, aber wenn Du Dir mal anschaust welche Shader in welcher Breite auf einer RDNA3 Karte laufen, wirst Du wahrscheinlich überrascht sein
Ich bin an der Stelle nicht überrascht. Das AMD bei RDNA 3 mit den Dual-Issues Vec32 gerade die Wave64-Ausführung stärken wollte, findet man im Whitepaper und ist wohl besonders wichtig bei RT. ;)

Anteru schrieb:
Das hat aber damit nichts zu tun. Das sagt nur, dass ein Workload der von der Grafik-Queue aus startet Priorität hat - und das hat er auf RDNA3 auch noch. Eine Compute Unit kann trotzdem gleichzeitig arbeit aus beiden Queues am Start haben ohne "Kontext-Wechsel".
Wie geschrieben, das ganze vereinfache ich an der Stelle sehr stark, weil es viele Informationen dazu gibt, was wie wo passiert und was AMD über die Zeit bis Vega da auch alles verbessert hat, damit das alles wesentlich schneller ausgeführt wird.

Ich muss mal überlegen, wie man das "richtiger" beschreibt, ohne das so stark zu vereinfachen. Mit GCN 3 gab es in dem Bereich ja auch bereits wichtige Änderungen: https://www.amd.com/content/dam/amd...ectures/gcn3-instruction-set-architecture.pdf

Es kommt aber noch ein weitere dazu, was das ganze eben so kompliziert macht bei der Beschreibung. Ich muss daher die Kritik auch annehmen, dass man nur bis zu einem gewissen Punkt vereinfachen darf, da es sonst falsch wird.
 
  • Gefällt mir
Reaktionen: Schinken42
Zurück
Oben