Amd Radeon VII vs. RTX and so on?

stefan@x700pro

Lieutenant
Registriert
Feb. 2005
Beiträge
989
Frage,
da man ja mit der Radeon VII und ihrem Terabyte Speicherdurchsatz in manchen Anwendungen sogar einer 2080TI überlegen ist frage ich mich wie dies wohl in Zukunft sein wird.

Schon auf der Vega 64 waren HBM Speicher verbaut, warum? Und warum bei der VII gleich so viel?
Es gab ja Leute die meinten, die Karte hätte sich kaum gerechnet weil der Speicher alleine schon 350Dollar gekostet hat.

Denkt ihr AMD wollte im Vergleich zur 2080ti auch ein wenig glänzen und hat deshalb unwirtschaftliche Komponenten verbaut?

Wie wird es wohl in Zukunft weitergehen? Wenn Amd und Nvidia ihre Chips auf 7nm Produzieren und wegen beinahe gleichen IPC ähnlich schnelle Chips haben, wird auch AMD wie bei der 5700XT wieder normale Gamingkarten bringen und den Bonus einer "gleichzeitigen Workstation-Karte" wegfallen lassen?

Was denkt ihr?
Wird die VII wohl noch im Wert steigen? günstig sind sie ja gerade.
 
Ich denke ehr die Karte wird in Vergessenheit geraten.
was bringt dir der Wahnsinns Speicher, wenn der Chip zu langsam ist?
 
  • Gefällt mir
Reaktionen: Flomek
Das war einfach ein Notnagel um irgendwas bieten zu können und eine Abkopplung der Professionellen Karten (daher auch der viele Speicher).
 
  • Gefällt mir
Reaktionen: frozenCube und Conqi
  • Gefällt mir
Reaktionen: teufelernie und Conqi
stefan@x700pro schrieb:
Denkt ihr AMD wollte im Vergleich zur 2080ti auch ein wenig glänzen und hat deshalb unwirtschaftliche Komponenten verbaut?

Die Radeon VII war ziemlich sicher nur ein "Abfallprodukt" der Instinct-Karten und hat daher ihren enormen Speicher und die Workstation-Leistung. Was Besseres hatte AMD zu dem Zeitpunkt halt schlicht nicht und hat es daher auch als Consumer-Karte rausgehauen.
 
  • Gefällt mir
Reaktionen: danyundsahne und Strikerking
/glaskugelmodus on
...die menge an verbautem speicher der graka´s wird steigen.
...alle hersteller werden sowohl den endkunden- als auch den professionellen markt bedienen.
...alle hersteller sorgen dafür, daß sich endkundenware ware von profiware unterscheidet
...innovation findet statt, soviel wie gerade benötigt, zum auf augenhöhe mit dem mitbewerb zu sein.
...die preisgestaltung bleibt wie immer: soviel, wie der markt bereit ist, zu bezahlen.
...
/glaskugelmodus off
 
  • Gefällt mir
Reaktionen: rocketworm und danyundsahne
Weder Vega 1 noch Vega 2 wurden primär für den Gamingmarkt entwickelt, sondern für Computing-Anwendungen, die durchaus von sehr großen Speicherbandbreiten enorm profitieren können. Dazu ist sie bei der Rohleistung deutlich näher an der 2080Ti als in der Gamingleistung.
 
  • Gefällt mir
Reaktionen: danyundsahne
stefan@x700pro schrieb:
Frage,
da man ja mit der Radeon VII und ihrem Terabyte Speicherdurchsatz in manchen Anwendungen sogar einer 2080TI überlegen ist frage ich mich wie dies wohl in Zukunft sein wird.

Schon auf der Vega 64 waren HBM Speicher verbaut, warum? Und warum bei der VII gleich so viel?
Es gab ja Leute die meinten, die Karte hätte sich kaum gerechnet weil der Speicher alleine schon 350Dollar gekostet hat.

Denkt ihr AMD wollte im Vergleich zur 2080ti auch ein wenig glänzen und hat deshalb unwirtschaftliche Komponenten verbaut?

Wie wird es wohl in Zukunft weitergehen? Wenn Amd und Nvidia ihre Chips auf 7nm Produzieren und wegen beinahe gleichen IPC ähnlich schnelle Chips haben, wird auch AMD wie bei der 5700XT wieder normale Gamingkarten bringen und den Bonus einer "gleichzeitigen Workstation-Karte" wegfallen lassen?

Was denkt ihr?
Wird die VII wohl noch im Wert steigen? günstig sind sie ja gerade.

die Vega 64/56 haben 2 speicher chips und die Radeon VII hat 4. Also doppelt so breiter speicherbus / doppelt so schnell / doppelt so viel
In etlichen anwendungen wo es auf Speichergeschwindigkeit ankommt ist die Radeon VII extrem Gut.
Bei meiner Software ist die Radeon VII mehr als doppelt so schnell wie eine Vega64 bei gleichem Stromverbrauch.
Mein Spezial-PC hat 3 Radeon VII drin.
Ergänzung ()

Conqi schrieb:
Die Radeon VII war ziemlich sicher nur ein "Abfallprodukt" der Instinct-Karten und hat daher ihren enormen Speicher und die Workstation-Leistung. Was Besseres hatte AMD zu dem Zeitpunkt halt schlicht nicht und hat es daher auch als Consumer-Karte rausgehauen.

Als Abfallprodukt würde ich die nicht bezeichnen eher eine Machbarkeit Studie
 
Wertsteigerung: Nope
Die Karte wird auch bereits nicht mehr produziert.

Sie war zu Beginn zu teuer, ist jetzt zu teuer und nur etwas für Spinner. Ich fühle mich bei der Karte daher sehr gut aufgehoben.
 
  • Gefällt mir
Reaktionen: Strikerking, amorosa und haudegen84
HBM war eine gute idee, konnt sich aber am markt nicht durchsetzen und solang keine massenproduktions gestartet wird, bleibt er teuer und unrentable

die Radeon 7 ist tot und ist nur deswegen günstig, weil viele am markt sind
der preis wird nur steigen, wenn die lagerbestände sich leeren
 
GERmaximus schrieb:
Ich denke ehr die Karte wird in Vergessenheit geraten.
was bringt dir der Wahnsinns Speicher, wenn der Chip zu langsam ist?

Genau das!
War aber abzusehen, außer ein paar Fanboys unter anderem auf PCGH war das jedem klar.¹
Die Rohleistung reicht einfach nicht.

Toll gedacht mit dem Speicher aber für Consumer nutzlos.
In den meisten Benchmarks schlägt sie sich mit ner 1080OC rum...

Die VII ist nicht umsonst nach 6 Monaten schon end of life seit August.

¹ ) Wenn ich daran denke als die Radeon VII vorgstellt wurde, drehten alle Fanboys auf PCGH durch, sagten das Ende von NVDIA vorraus, fingen an unter den News alle andersdenkende zu beleidigen. Und natürlich die Halluzinationan ala: "Wartet ab wie die VII bald alle auspielen wird (besonders die 2080) durch ihre 16 GB HBM2 VRAM..."

Deswegen bin ich paar Monate später von PCGH weg, das ist dort extrem aber normal und wird von den Mods gefördert.
 
Zuletzt bearbeitet von einem Moderator:
wern001 schrieb:
Als Abfallprodukt würde ich die nicht bezeichnen eher eine Machbarkeit Studie

Deswegen in Anführungszeichen. Damit war nicht gemeint, dass die Karte schlecht ist, sondern lediglich, dass sie nicht für diese Aufgabe entworfen wurde. Eine Machbarkeitsstudie würde ich sie daher auch nicht nennen, denn die Instinct MI50 und MI60 sind nicht nur "weil es geht" so aufgebaut.
 
  • Gefällt mir
Reaktionen: Strikerking
Die Vegas sind keine schlechten Chips.
AMD ist und war allerdings nicht in der Lage, verschiende Chipdesigns für Consumer und den Profibereich zu erstellen. Deswegen mussten sie mit Vega und damals mit den Fiji-Chips Pokern, was sich in Zukunft durchsetzen wird.
Vergleicht man Vega 64 mit der 1080Ti rein technisch, sieht man:
Vega ist rein von der Rohleistung den Pascal-Chips ebenbürtig, wenn nicht sogar schneller.
Vergleicht man die Rohleistungen fällt folgendes auf:

SingelPrecisionDoublePrecisionRatio
Vega126647911:16
Pascal113403541:32

Vega hat also allgemein sehr viel Platz auf dem Chip benötigt, nur um DP Berechnungen schneller ausführen zu können.
Dies ist eher ein Verhalten, das im Profibreich - und da auch nicht überall - benötigt wird, weniger beim Gamen (hier reicht meist SP und IntegerOperations). Das war auch das Hauptproblem der gesamten GCN Architektur. AMD musste den Spagat machen, Profibereich und Gamingbereich gleichzeitig abzuholen.

In den Compute-Benches konnte die Vega immer ganz gut mithalten(vgl. z.B. https://techgage.com/article/radeon-pro-vs-quadro-a-fresh-look-at-workstation-gpu-performanc - außerdem war Vega/Polaris als erstes in der Mining-Hochphase vergriffen), nur Aufgrund ihrer Architekturprobleme halt nicht so ganz im Gaming.

Vega VII war einfach nur eine Vega 64 in 7nm, teildeaktiviert (60 statt 64CU) mit höherem Takt, und eben dieser massiven Speicherbandbreite, die die 16GB HBM mit sich brachten(1TByte/s vs 484GByte/s).
Das die im Vergleich zur 64 keine Luftsprünge macht war vorherzusehen.

All das korrigiert AMD jetzt mmn. peu à peu mit Navi - schlankerer Chip, mehr aufs wesentliche Konzentrieren etc.

Ein Chipdesign ist allerdings nicht von heute auf morgen aufzustellen. GraphicsCoreNext wurde über 7 Jahre mitgezogen. Ende der 2000er Jahre war AMD durch diverse Intel-Kartelle finanziell bereits angeschlagen. Also mussten sie eine Architektur entwickeln, die voraussichtlich Jahre durchhalten kann - sie sahen damals halt schon Probleme, die ein eventueller GDDR5 Nachfolger bewältigen musste und dachten wohl, das Takt runter + Bandbreite rauf der vernünftigere weg wäre - nur haben sie sich da offenbar etwas Verkalkuliert oder waren ihrer Zeit damals einfach etwas voraus - wer weiß das schon.
Allerdings zeigt die Dauer der Entwicklung (Die Massenproduktion von GDDR5 hat Anfang 2008 begonnen, die von GDDR6 hat genau 10 Jahre später Anfang 2018 gestartet), dass AMD eigentlich nicht ganz so falsch lag.

Mit ihren mitteln haben sie mmn. das beste daraus gemacht.
 
wern001 schrieb:
[...]
Als Abfallprodukt würde ich die nicht bezeichnen eher eine Machbarkeit Studie

In der Gerüchteküche hieß es, dass bei der CES 2019 eigentlich Navi vorgestellt werden sollte, doch Fehler eine Chipänderung erforderten, was wiederum eine Verschiebung um Monate zur Folge hatte. Als Notlösung gab es dann die VII.

Da Du tatsächlich Radeon Vii-Karten hast, weißt Du zufällig, ob bei dieser Pseudo-Freigabe der Radeon Pro-Treiber für die VII auch 10 bit-pro-Farbkanal in OpenGL-Fensteranwendungen (Photoshop & Co.) freigeschaltet ist?

Konnte bei Suchen nur die Frage ansich finden, nie aber eine ordentliche Antwort von jemanden, der es praktisch getestet hat.
 
wern001 schrieb:
die Vega 64/56 haben 2 speicher chips und die Radeon VII hat 4. Also doppelt so breiter speicherbus / doppelt so schnell / doppelt so viel
In etlichen anwendungen wo es auf Speichergeschwindigkeit ankommt ist die Radeon VII extrem Gut.
Bei meiner Software ist die Radeon VII mehr als doppelt so schnell wie eine Vega64 bei gleichem Stromverbrauch.
Mein Spezial-PC hat 3 Radeon VII drin.
Ergänzung ()



Als Abfallprodukt würde ich die nicht bezeichnen eher eine Machbarkeit Studie
Darf ich fragen was du genauer mit den 3 Karten machst? 8K auf Davinci resolve schneiden? :D Oder betreibst Mining mit nur 3 Karten?:D
Wäre bei ETH ja dennoch rentabel.... sogar hier in DE.

teufelernie schrieb:
Wertsteigerung: Nope
Die Karte wird auch bereits nicht mehr produziert.

Sie war zu Beginn zu teuer, ist jetzt zu teuer und nur etwas für Spinner. Ich fühle mich bei der Karte daher sehr gut aufgehoben.

In Davinci Resolve schlägt sie die 2080TI..... jedem das seine....

frost21 schrieb:
Die Vegas sind keine schlechten Chips.
AMD ist und war allerdings nicht in der Lage, verschiende Chipdesigns für Consumer und den Profibereich zu erstellen. Deswegen mussten sie mit Vega und damals mit den Fiji-Chips Pokern, was sich in Zukunft durchsetzen wird.
Vergleicht man Vega 64 mit der 1080Ti rein technisch, sieht man:
Vega ist rein von der Rohleistung den Pascal-Chips ebenbürtig, wenn nicht sogar schneller.
Vergleicht man die Rohleistungen fällt folgendes auf:

SingelPrecisionDoublePrecisionRatio
Vega126647911:16
Pascal113403541:32

Vega hat also allgemein sehr viel Platz auf dem Chip benötigt, nur um DP Berechnungen schneller ausführen zu können.
Dies ist eher ein Verhalten, das im Profibreich - und da auch nicht überall - benötigt wird, weniger beim Gamen (hier reicht meist SP und IntegerOperations). Das war auch das Hauptproblem der gesamten GCN Architektur. AMD musste den Spagat machen, Profibereich und Gamingbereich gleichzeitig abzuholen.

In den Compute-Benches konnte die Vega immer ganz gut mithalten(vgl. z.B. https://techgage.com/article/radeon-pro-vs-quadro-a-fresh-look-at-workstation-gpu-performanc - außerdem war Vega/Polaris als erstes in der Mining-Hochphase vergriffen), nur Aufgrund ihrer Architekturprobleme halt nicht so ganz im Gaming.

Vega VII war einfach nur eine Vega 64 in 7nm, teildeaktiviert (60 statt 64CU) mit höherem Takt, und eben dieser massiven Speicherbandbreite, die die 16GB HBM mit sich brachten(1TByte/s vs 484GByte/s).
Das die im Vergleich zur 64 keine Luftsprünge macht war vorherzusehen.

All das korrigiert AMD jetzt mmn. peu à peu mit Navi - schlankerer Chip, mehr aufs wesentliche Konzentrieren etc.

Ein Chipdesign ist allerdings nicht von heute auf morgen aufzustellen. GraphicsCoreNext wurde über 7 Jahre mitgezogen. Ende der 2000er Jahre war AMD durch diverse Intel-Kartelle finanziell bereits angeschlagen. Also mussten sie eine Architektur entwickeln, die voraussichtlich Jahre durchhalten kann - sie sahen damals halt schon Probleme, die ein eventueller GDDR5 Nachfolger bewältigen musste und dachten wohl, das Takt runter + Bandbreite rauf der vernünftigere weg wäre - nur haben sie sich da offenbar etwas Verkalkuliert oder waren ihrer Zeit damals einfach etwas voraus - wer weiß das schon.
Allerdings zeigt die Dauer der Entwicklung (Die Massenproduktion von GDDR5 hat Anfang 2008 begonnen, die von GDDR6 hat genau 10 Jahre später Anfang 2018 gestartet), dass AMD eigentlich nicht ganz so falsch lag.

Mit ihren mitteln haben sie mmn. das beste daraus gemacht.

Wahnsinnig interessant, man hört raus, damit man dir wohl alles glauben kann......
Wie ist das eigentlich? Kann GDDR 6 oder wann immer vielleicht auch 7 mit den HBM mithalten?
Geht es gänzlich nur um die Speicherbandbreite? oder hat HBM noch andere Vorteile?

Strikerking schrieb:
Weil die Radeon VII nichts anderes ist als eine Radeon Instinct MI50
https://www.amd.com/de/products/professional-graphics/instinct-mi50

Radeon VII taugt nur etwas wenn man einen anständigen Kühler nutzt, so wie ich.

Ist die wirklich komplett baugleich? Kostet ja 10x so viel......
 
Zuletzt bearbeitet:
JBG schrieb:
Da Du tatsächlich Radeon Vii-Karten hast, weißt Du zufällig, ob bei dieser Pseudo-Freigabe der Radeon Pro-Treiber für die VII auch 10 bit-pro-Farbkanal in OpenGL-Fensteranwendungen (Photoshop & Co.) freigeschaltet ist?

Keine Ahnung hab ich nicht ausprobiert. Hab alles auf 8 bit. 10 bit finde ich nur sinnloses aufgebausche.
Es gibt keinen Drucker der auch nur annähernd komplett 8 bit rgb (16,7 mio Farben) drucken kann.
Am witzigsten finde ich diese 8 vs 10 bit vergleiche wo ein 8 bit Bild in 5er rgb schritten angezeigt.
Oder ein Bild weniger als 65k Farben als 8 Bit dargestellt wird.
Ich hab schon etliche Bilder mit IrfanView die Farben zählen lassen und ich hatte bis jetzt noch nie ein Bild mit mehr als 1,5 Mio Farben fast immer um ca 300-600k
Das einzige was sinn macht ist 10 bit Grün. Denn das menschliche Auge kann deutlich mehr Grüntöne als Rot oder Blau wahrnehmen.
 
stefan@x700pro schrieb:
Wie ist das eigentlich? Kann GDDR 6 oder wann immer vielleicht auch 7 mit den HBM mithalten?
Geht es gänzlich nur um die Speicherbandbreite? oder hat HBM noch ander Vorteile?

Nvidia bietet als Maximum (so weit ich weiß) bei ihrer Quadro RTX 8000 und Titan RTX mit GDDR6 "nur" 672 GB/s. AMD hingegen bis zu 1 TB/s. Bringt aber natürlich nicht immer was. HBM soll aber auch deutlich sparsamer sein (laut AMD Faktor 5 gegenüber GDDR5) und Platz sparen. Dafür ist es eben deutlich aufwendiger zu fertigen.

stefan@x700pro schrieb:
Ist die wirklich komplett baugleich? Kostet ja 10x so viel......

Die MI50 liefert mehr Double Precision-Leistung und hat Zugriff auf andere Treiber mit Software-Optimierungen. Für diesen Treiber-Support zahlt man bei solchen Karten dann entsprechend.
 
  • Gefällt mir
Reaktionen: Strikerking
Zurück
Oben