Test AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2

JNS-K schrieb:
Meiner Meinung nach hätten sie diese mit einer vernünftigen AIO ausliefern sollen

Mit der Betonung auf vernünftig, denn die Liquid Editions der R295X2, der Fury und der Vega 64 waren nicht gerade leisetreter bei der Wasserpumpe, was natürlich sehr schade ist und in meinen Augen dem Prinzip und Vorteil einer Wasserkühlung konterkariert.

Vielleicht gibts ja in Zukunft noch die Custom Kühllösungen der Boardpartner und eine Liquid Edition direkt von AMD. So richtig glaube ich aber nicht dran.
 
syntanic schrieb:
Man muss aber auch ehrlich sagen das Nvidia mit der Turing Generation auch nichts bewegendes gebracht hat. Außer der 2080 TI ist das auch nur alter Aufguss welcher mindestens genau soviel kostet wie die Pascal Generation und dabei nicht wirklich schneller ist.

Turing bringt ganz neue Feature-Sets und eine Effizienzsteigerung mit sich. Während Nvidia hier wirklich "Neues" gebracht hat, hat AMD mal ein Beispiel auf den Markt gebracht, wie man es NICHT machen sollte.
Ergänzung ()

Edit: Kann man mal Leistungswerte für The Division 2 posten? Ist immerhin ein AMD / Radeon sponsored Titel. Ich bezweifle aber, dass das Spiel besser auf AMD als auf Nvidia läuft. Nur weil Einige ja der Meinung waren, dass mehr VRAM in dem Game was bringt: Das Spiel zieht mit höchster Texturenstufe 3,6GB VRAM in WQHD, während Ubisoft 8GB angibt. ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: indy1138
Hallo zusammen,

@ Taxxor

Taxxor schrieb:
Kannst du ja hier im Test sehen, sie verbrauchte mit 208W genau 1W mehr als die Radeon VII UV

Ich vermute ganz stark, daß du die RX 590 mit der RX 580 verwechselst. Denn die RX 590 zieht im Gaming allgemein so ca. 230 - 240 Watt. Wohingegen dein genannter Wert in Höhe von ca. 208 Watt für die RX 580 hingegen hinkommt, + / - X.

Dier Chip der RX 590 wurde ans absolute Limit getrieben, ohne Rücksicht auf sonstwas. Deshalb der nochmalige Anstieg des Stromverbrauchs. Die Effizienz von Polaris Respektive der VII ist im allgemeinen verheerend. Wobei Polaris mit dem ursprünglichen Ausbau der RX 480 aus meiner Sicht in dieser Fassung noch der stimmigste Chip war. So hätte man es lassen sollen.

So long...
 
SKu schrieb:
Turing bringt ganz neue Feature-Sets und eine Effizienzsteigerung mit sich. Während Nvidia hier wirklich "Neues" gebracht hat, hat AMD mal ein Beispiel auf den Markt gebracht, wie man es NICHT machen sollte.

Und welches dieser Feature-Sets kann man heute nutzen ? Bisher konnte ich in all meinen Spielen kein Raytracing bzw DLSS nutzen. DLSS soll auch erstmal nur für 4K kommen sowie ich das gelesen habe und Geforce experience welches ich nicht nutzen möchte wird auch noch gebraucht. Bis das mal (wenn überhaupt) state of the art wird ist die Turing Generation schon veraltet und zu langsam. Wenn man ehrlich ist hat Nvidia auch nix gebracht, außer das die für eine Leistung welche es schon seit über 2,5 Jahren gibt das gleiche Geld verlangen. Egal ob AMD oder Nvidia. Die größten Sprünge haben die Preise gemacht nicht die Leistung.
 
  • Gefällt mir
Reaktionen: HiT-Killer, Sennox und Ph4ntom
Zuletzt bearbeitet:
Hallo zusammen,

@ Taxxor

Taxxor schrieb:

Sowas habe ich mir schon gedacht. Was nicht böse oder negativ gemeint ist, bitte nicht Falsch verstehen. Der besagte Wert bezieht sich auch auf eine Stock RX 590 in dem besagten Test.

Und ehrlich gesagt richte ich mich seit ca. einem halben Jahr überwiegend nach den Tests von Tom`s Hardware. Aus mehreren Gründen, die ich hier nicht dediziert zum Besten geben will. Jedenfalls hier:

https://www.tomshw.de/2018/11/15/radeon-rx-590-im-test-polaris-am-absoluten-limit/15/

Der Gerechtigkeit halber muß aber auch gesagt werden, daß die RX 590 enormes UV Potenzial hat. Sogar teils mehr noch als die hier behandelte VII. Hier nachzulesen:

https://www.tomshw.de/2018/11/22/ef...n-erkenntnissen-beim-untervolting-igorslab/3/

Das ist halt so einer der Gründe, weshalb ich mehr Gewicht auf deren Tests gebe, die Dinge werden viel ausgewogener im Bezug auf die Vor- u. Nachteile gewichtet. Und vor allem abgeklopft. Eine RX 590 angesichts des besagten Potenzials im Urzustand zu belassen, ist da schon beinahe ein Verbrechen.

Taxxor schrieb:
Wir können ja nur den Referenzkühler der Radeon VII vergleichen, von daher auch die Referenz RX590

Normalerweise wäre ich da völlig an deiner Seite. Aber im eigentlichen Sinne ist das ja gar kein Referenzkühler mehr, jedenfalls nicht mehr im Sinne, wie man es gehohnt ist bzw. war. Und es kommt im Fall der VII dazu, daß diese wohl kein Custom Design bekommen wird.

So long....
 
  • Gefällt mir
Reaktionen: yummycandy
Luxmanl525 schrieb:
Der besagte Wert bezieht sich auch auf eine Stock RX 590 in dem besagten Test.
Das ist mir klar ich wollte ja auch einfach einen Vergleich mit der UV Radeon VII anstreben, und da liegt die Stock RX590 eben genau drauf vom Verbrauch.

Luxmanl525 schrieb:
Aber im eigentlichen Sinne ist das ja gar kein Referenzkühler mehr, jedenfalls nicht mehr im Sinne, wie man es gehohnt ist bzw. war. Und es kommt im Fall der VII dazu, daß diese wohl kein Custom Design bekommen wird.
Gerade deshalb ist es ja so schlimm und unverständlich, dass der Kühler der VII so schlecht ist.
 
  • Gefällt mir
Reaktionen: yummycandy
Hallo zusammen,

@ Taxxor

Taxxor schrieb:
Das ist mir klar ich wollte ja auch einfach einen Vergleich mit der UV Radeon VII anstreben, und da liegt die Stock RX590 eben genau drauf vom Verbrauch.

Jep. Deshalb habe ich den Artikel angefügt, in welchem die RX 590 im Bezug auf ihr UV Potenzial gewichtet wird. Alles andere würde die Kernaussage ja verfälschen.

Taxxor schrieb:
dass der Kühler der VII so schlecht ist.

Das sehe ich genauso. Ich halte aber für möglich, daß da mit entsprechender Feinabstimmung noch was zu machen ist. Und ich gehe davon aus, daß AMD selbst da noch nachjustieren wird. Der Tenor ist ja ziemlich einhellig in dem Bezug auf die Lautstärke. Aus meiner Sicht der einzige Kritische Punkt der VII.

So long...
 
syntanic schrieb:
Man muss aber auch ehrlich sagen das Nvidia mit der Turing Generation auch nichts bewegendes gebracht hat.

Nvidia hat mit Echtzeit-Raytracing nur mal gerade das nächste Zeitalter der 3D-Grafik eingeläutet. Das ist etwas bewegendes. Natütlich nicht für jene, die aus ideologischen Gründen an veralteter Technik festhalten wollen.
 
Luxmanl525 schrieb:
Jep. Deshalb habe ich den Artikel angefügt, in welchem die RX 590 im Bezug auf ihr UV Potenzial gewichtet wird. Alles andere würde die Kernaussage ja verfälschen.
Nicht wirklich, mir ging es ja nicht darum, was die RX590 verbrauchen kann, wenn man sie ordentlich optimiert, ich brauchte einfach nur ne Referenz mit kleinerem Die, die den gleichen Verbrauch wie die VII@UV hat.

Denn meine Kernaussage war ja, dass ich nicht verstehe, wie man einen 331mm² Die mit so einem Kühler nicht unter Kontrolle bekommen kann, wenn eine RX590 das bei gleicher Wärmeabgabe auf noch weniger Fläche hinbekommt.

Man kann sich auch die Nitro+ nehmen, die dann eben sogar 25W mehr an Wärme abgibt auf die kleinere Fläche und super leise ist mit dem Custom Kühler. Und so gut, wie der Custom Kühler einer 225W TDP Karte sollte doch der AMD eigene "Custom" Kühler für eine 300W TDP Karte eigentlich schon sein.
 
Hallo zusammen,

@ kisser

kisser schrieb:
Nvidia hat mit Echtzeit-Raytracing nur mal gerade das nächste Zeitalter der 3D-Grafik eingeläutet.

Wirklich? Wo? Wo außer in einem Spiel, welches gerade nicht für diese Technik geeignet ist, kann man diesem Zeitalter frönen?

In meinen Augen ist man nichts anderes als Beta-Tester. Das Verhalten der Spiele-Firmen wird jetzt mehr oder weniger auf die GPU umgelegt. Bis Raytracing wirklich spielbar ist, wird es mindestens noch eine weitere Generation benötigen. So denn es sich überhaupt durchsetzt.

@ Taxxor

Taxxor schrieb:
Nicht wirklich, mir ging es ja nicht darum, was die RX590 verbrauchen kann, wenn man sie ordentlich optimiert, ich brauchte einfach nur ne Referenz mit kleinerem Die, die den gleichen Verbrauch wie die VII@UV hat.

Ich halte es halt nicht für sonderlich Praktikabel bzw. gerecht, wenn man GPU`s mit UV und die andere mit Stock-Werten vergleicht. Es trifft die Dinge schlicht nicht so, wie sie sind. Sondern Verzerren sie hingegen. Das ist jedenfalls meine Meinung.

So long...
 
kisser schrieb:
Nvidia hat mit Echtzeit-Raytracing nur mal gerade das nächste Zeitalter der 3D-Grafik eingeläutet.
Ja und zwar ungefähr so, wie Tesla das Zeitalter der Elektroautos eingeläutet hat.

kisser schrieb:
Natütlich nicht für jene, die aus ideologischen Gründen an veralteter Technik festhalten wollen.
Es ist ja nicht so, dass DX12 das ebenfalls beherrscht, nicht wahr? AMD wartet nur einfach ab, bis sich das Feature auch für die Kunden lohnt und versucht nicht, sich mit sowas ein Alleinstellungsmerkmal aufzubauen, welches man außer in einem einzigen Spiel noch nirgends nutzen kann.

Luxmanl525 schrieb:
Ich halte es halt nicht für sonderlich Praktikabel bzw. gerecht, wenn man GPU`s mit UV und die andere mit Stock-Werten vergleicht. Es trifft die Dinge schlicht nicht so, wie sie sind. Sondern Verzerren sie hingegen.
Also nochmal, ich wollte ja nicht die GPUs vergleichen und da ne Wertung reinbringen, sondern lediglich eine Die Size A und eine Die Size B mit gleichem Verbrauch nehmen.
 
KlaraElfer schrieb:
Auf dem Basis wie duskstalker arbeitest du auch. Einfach aus Unwissenheit und Vergrämtheit und mangels Bereitschaft die objektive Wahrheit zu akzeptieren, unbestätigte Gerüchte oder Unterstellungen zu verbreiten.

du hast das zitat gelesen, oder?

geh doch mal bitte unreal engine 4 benchmarks durch, bevor du mir unwissenheit vorwirfst - ich habs gemacht. mir ist genau ein spiel bekannt, in denen radeon karten normal performen (gears of war 4). und das ist eben in der absolut überwiegenden mehrheit der titel nicht der fall. das problem ist die einseitige optimierung der engine (runs best on geforce). nur sekundär die amd hardware, oder auf was man das sonst noch schieben will.

in der fair optimierten frostbite engine performen sogar unter dx11 amd gpus sehr gut. man kann auch GCN so ansprechen, dass unter dx11 sehr gute fps rauskommen. offenbar ist das möglich. wenns hier geht, wieso gehts nicht auch wo anders? und dann fällt einem gears of war 4 ein - auch hier bekommt man akzeptable performance zusammen, wenn man will. das game kommt aber nicht von epic sondern black tusk studios.
es klemmt am software support seitens des studios und der engine, und nicht an der architektur.
sicherlich, eine bessere (gaming) architektur könnte besser performen. aber auch eine andere (amd) architektur als GCN braucht optimierungen. das werdet ihr in gewissem rahmen bei navi (GCN mit anpassungen) und vorallem bei arcturus (next gen) schon noch selber feststellen. hier wird sich das problem nämlich nicht von geisterhand im nichts auflösen.

und dann alle wieder so "oohhh typisch amd, haben sies wieder vergeigt, architektur XY ist voll schlecht, ineffizient".... ich frag mich, wieviele gpu releases man hier noch braucht, damit sich endlich mal ein lerneffekt einstellt. kann man wirklich so blind durchs leben laufen um hier kein muster zu erkennen?

und intel hat das selbe problem. die kommen nämlich auch nicht einfach daher und stoßen nvidia vom thron. die werden mit ihrer ersten generation mit neuer architektur und komplett ohne optimierungen schön am tabellenboden rumkrebsen, desseidenn raja macht hier gcn 2.0 und profitert von den amd-optimierungen.

auch ryzen brauchte software anpassungen, und das obwohl intel bis auf so compiler-schweinereien keinen einfluss auf das software ökosystem hat - nvidia bei gpus aber ganz massiv - wie man an gameworks, UE4, physx und rtx sehen kann.

RTX + DLSS gibts nicht deshalb, weil nvidia es nicht weiter ertragen kann, dass die armen gamer ohne raytracing auskommen müssen, sondern die wollen sich intel (und amd) mit einer software mauer vom hals halten. nvidia hat nur gpus, intel und amd haben beide noch cpus - das ist eine relativ unangenehme tatsache für nvidia - und die werden alles dafür tun ihre stellung zu erhalten und auch dedizierte gpus (ihr einziges geschäft) relevant zu halten.

KlaraElfer schrieb:
Der Redakteur hat zu der Unterstellung Nvidia-Spiele zu bevorzugen schon ausreichend Stellung bezogen und mit seiner Erfahrung die Aussagen von duskstalker bereits widerlegt.

wolfgang kann mit seiner meinung nichts widerlegen, er hat sich in den meisten aussagen selbst widersprochen. den status eines igor wallossek oder ian cutress hat wolfgang lange nicht. wolfgang hats bis jetzt nicht geschafft mit einem undervolt extra performance aus einer vega 64 zu ziehen. und volker bencht in einem gpu bottleneck einen i3 an die tabellenspitze. eine weitere sternstunde war das ryzen review mit der "nicht austricksbaren physik", die hinterher doch ein temperaturoffset war. die zwei würden bei mir höchstens reviews für mousepads schreiben.

KlaraElfer schrieb:
Wem sollte ich also mehr glauben? Wolfang Andermahr, der seit Jahren seine Tests macht, oder euch?

les mal mehrere verschiedene publikationen und bilde dir selber ne meinung. anandtech und tomshw.de sind zwei gute adressen. das rundet man perfekt mit hardcore-oc ikonen wie the stilt, buildzoid, der8auer oder 1usmus ab. und dann kannst du dir selber die frage beantworten "sollte ich wolfgang glauben?".
 
  • Gefällt mir
Reaktionen: Acedia23, Aza*, Sennox und eine weitere Person
duskstalker schrieb:
eine weitere sternstunde war das ryzen review mit der "nicht austricksbaren physik", die hinterher doch ein temperaturoffset war.
Mich wundert, dass du die Sternstunde des "Unsere Werte unterscheiden sich massiv von denen aller anderen Seiten, aber wird schon so richtig sein" nicht noch mit reingenommen hast.
 
  • Gefällt mir
Reaktionen: aldaric, Acedia23, Aza* und 3 andere
Hallo zusammen,

@ Taxxor

Taxxor schrieb:
Also nochmal, ich wollte ja nicht die GPUs vergleichen und da ne Wertung reinbringen, sondern lediglich eine Die Size A und eine Die Size B mit gleichem Verbrauch nehmen.

Alles klar. Mein Fehler, ich war schlicht wohl zu Oberflächlich.

Taxxor schrieb:
Mich wundert, dass du die Sternstunde des "Unsere Werte unterscheiden sich massiv von denen aller anderen Seiten, aber wird schon so richtig sein" nicht noch mit reingenommen hast.

Da fehlt die besondere Sternstunde der letzten Zeit. Nämlich der Artikel, in welcher angekündigt wird daß die Nvidia GTX 1160 kommt, also das Gerücht umgeht. Und dann die Einschätzung abgegeben wird, daß das nicht stimmt bzw. sie nicht kommt.

Wohingegen bei Tom`s Hardware schon zu Lesen war, daß da erheblich was dran ist. Man muß sich die beiden Artikel mal gegenüber stellen.

So long...
 
  • Gefällt mir
Reaktionen: Sennox
SKu schrieb:
Das Spiel zieht mit höchster Texturenstufe 3,6GB VRAM in WQHD, während Ubisoft 8GB angibt. ;)
Wie kommst du auf diese Idee?
Die waren schon in der Technischen Alpha bei 6.9-7.4 GB. [WQHD auf RX480]
Bei der Private Beta habe ich gerade keinen Screen zur Hand, aber unter 6 GB habe ich nie gesehen.

P.S. Des weiteren habe ich und sicher auch schon andere in dem Thread ausgeführt, dass diese Position das Pferd von hinten aufzäumt.
Solange Nvidia daher geht und den Spielern Karten mit zu wenig VRAM verkauft sind die Spieleschmieden dazu genötigt den VRAM entsprechend gering zu halten.
Es wäre eine Kleinigkeit mehr VRAM zu nutzen. Nvidia hat leider einen Marktanteil im PC-Markt, an dem die Spielestudios nicht vorbei entwickeln können.
AMD auf der anderen Seite hat Informationen über die nächste Generation Konsolen, die ihnen möglicherweise heute schon ein Hinweis geben, was ein High-End-PC zukünftig haben sollte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DF86 und Sennox
kisser schrieb:
Nvidia hat mit Echtzeit-Raytracing nur mal gerade das nächste Zeitalter der 3D-Grafik eingeläutet. Das ist etwas bewegendes. Natütlich nicht für jene, die aus ideologischen Gründen an veralteter Technik festhalten wollen.

Das mag sein, aber warum für etwas bezahlen was ich nicht nutzen kann ? Ich habe nichts gegen Fortschritt - aber dann will ich ihn auch nutzen können wenn ich schon dafür bezahle. Und ob sich Raytracing am Ende durchsetzen wird steht noch in den Sternen. Einen guten Start hatte es schon mal nicht.
 
  • Gefällt mir
Reaktionen: Sennox
SKu schrieb:
Edit: Kann man mal Leistungswerte für The Division 2 posten? Ist immerhin ein AMD / Radeon sponsored Titel. Ich bezweifle aber, dass das Spiel besser auf AMD als auf Nvidia läuft.
Also bei Farcry 5, was ja auch ein sponsored Titel ist, hat es für die VII doch ganz gut geklappt, zumindest in 1440p und 4K. Ich denke, das wird bei Division 2 nicht schlechter laufen.
 
Doch , Doch , Raytracing wird kommen , nur nicht so schnell wie es die Käufer der hochpreisigen NV RTX Karten gerne hätten ... , selbst von den von NV gesponserten Spielen , die kurz nach dem Lauch verfügbar sein sollten sind wie viele jetzt da ? 2 oder 3 ?
Solange nur ein minimaler Prozentsatz RTX Karten hat , werden die Gameschmieden , ohne Sponsoring seitens NV sich die Mühe nicht machen . Erst wenn DXR sich auf breiter Front durchsetzt wird man es häufig antreffen , dazu Bedarf es allerdings GraKa s die keine 600 - 1200 Euro kosten und trotzdem noch über 60 FPS in FHD mit DXR bringen , bis dahin ist jedoch die jetzige 2000 er RTX Reihe veraltet , fürchte ich mal ....
 
  • Gefällt mir
Reaktionen: Sennox, Cpt.Willard, Taxxor und 2 andere
Zurück
Oben