Test AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2

syntanic schrieb:
@1337404

Also bei dir hört sich das schon übel an. Ist das schon eine angepasste Lüfterkurve oder noch Stock ?

@eXtra

Man muss aber auch ehrlich sagen das Nvidia mit der Turing Generation auch nichts bewegendes gebracht hat. Außer der 2080 TI ist das auch nur alter Aufguss welcher mindestens genau soviel kostet wie die Pascal Generation und dabei nicht wirklich schneller ist. Nicht umsonst hat Nvidia die 1080 und 1080TI vom Markt genommen um diese nicht günstig verkaufen zu müssen sondern die Preise in Form von 2070 und 2080 weiterhin genauso hoch hält wie vor 2 Jahren bei eigentlich gleichbleibender Leistung. Es ist in beiden fällen nichts was man schön Reden kann, der Endkunde ist der leidtragende welcher keine Mehrleistung zum gleichen Preis bekommt.
Sie ist angepasst, da die Karte in einem mITX Case läuft und sonst zu sehr runtertaktet.
Undervolted ist sie auch. Für einzelne Specs, s. tomshardware.
 
KlaraElfer schrieb:
Zu langsam um gegen den von AMD angedachten Gegner etwas auszurichten.
In Full HD 16 respektive in WQHD 13 bzw in 4K 9% zurückliegend, ist die Überschrift so für mich nachvollziehbar.
Was soll sie denn ausrichten? AMD hat nie gesagt, dass sie die 2080 schlägt. Sie soll in der gleichen Liga spielen, sind 9% jetzt also zu langsam dafür?
Von was reden wir denn hier?
Nehmen wir mal Kingdom Come, welches mit 8% sehr nah an diesem Durchschnitt liegt
Das sind 41 gegen 44fps und damit soll man nicht konkurrenzfähig sein in der Leistung?

So sehr ich das Spiel auch mag, aber wenn dann halt noch solche Technikkrüppel wie FFXV dazukommen(á la "ich berechne im Benchmark mal hairworks für Dinge in 2km Entfernung die man nicht sieht"), wo Nvidia einfach mal 30% schneller ist, dann wird schnell klar, woher diese 9% Durchschnitt kommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA, Chismon, DarkerThanBlack und 9 andere
Sodelle. War üben beim Bastlerkollegen und hab sie live erlebt.

750€ für ne Lüfterturbine...ich brech ab...wusste gar nicht das Lüfter eine solche Lautstärke erreichen können. Er hat ein gedämmtes BeQuiet 900 Pro Gehäuse, noch mal extra gedämmt und das Ding ist in 50cm Abstand nicht unter 53DB zu bringen. Ich konnte nicht mehr vor lachen, als er den Gehäusedeckel abgenommen hat.

Auf YT ist dann ein "In-Depth-Test" der PCHW, wo erläutert wird, dass die "Turbine" wenigstens kühl hält...bei 95°C in Furmark^^

Oben bestätigt das Video die selben Tests wie beim Kollegen, BF5 63FPS@68°C und das Ding hat auf 2700 gedreht. Selbst der Störgeräuschfilter in meinem Hörgerät hat das nicht weg bekommen. Seine letzten Worte waren:"Das Ding geht zurück"...:)

Wat ham die sich nur gedacht...facepalm
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: hahaqp und t3chn0
@CrEaToXx Ich kann auch überhaupt nicht verstehen, wie es dazu kommen kann.
Ich meine die Karte hat wie die Vega ne 300W TDP, verbraucht aber Stock ja schon 25W weniger als die Vega, mit UV geht's sogar Richtung 200W und damit ganze 100W bzw 33% weniger, als die TDP der Karte. Wie kann der Kühler selbst da immer noch so laut sein bzw es nicht schaffen, die Karte ordentlich zu kühlen?
Damit wäre dieser Kühler ja nicht mal für ne RX580 zu gebrauchen, die gerade mal halb so stark ist.
 
  • Gefällt mir
Reaktionen: Chaos Theory
Taxxor schrieb:
Was soll sie denn ausrichten? AMD hat nie gesagt, dass sie die 2080 schlägt. Sie soll in der gleichen Liga spielen, sind 9% jetzt also zu langsam dafür?

Wieso der Fokus nur auf 4K? Gelten andere Auflösungen, die wesentlich mehr bespielt werden, plötzlich nicht mehr?
Taxxor schrieb:
Von was reden wir denn hier?
Nehmen wir mal Kingdom Come, welches mit 8% sehr nah an diesem Durchschnitt liegt
Das sind 41 gegen 44fps und damit soll man nicht konkurrenzfähig sein in der Leistung?

Du redest dir doch alles schön, da gibt es ja mehrere User die sich irgendwelche Orangen herauspicken.
Du pickst eben nur die 4K Werte heraus, glaubst du die interessieren die Mehrzahl der User?

Taxxor schrieb:
So sehr ich das Spiel auch mag, aber wenn dann halt noch solche Technikkrüppel wie FFXV dazukommen(á la "ich berechne im Benchmark mal hairworks für Dinge in 2km Entfernung die man nicht sieht"), wo Nvidia einfach mal 30% schneller ist, dann wird schnell klar, woher diese 9% Durchschnitt kommen.

Technikkrüppel? Bist du Spielentwickler um das beurteilen zu können?
Gameworks oder Hairworks wie auch Godray Effekte bedienen sich Tesselation und das nicht erst seit gestern, sondern seit Jahren und benötigen hohe Faktoren um das Bild entsprechend zu glätten, analog zu den Haaren von Gerald in the Witcher 3.

Tesselation.PNG


Die Radeon ist schwach gegenüber Nvidia Karten hinsichtlich Geometrieleistung und Tesselation.
Das erklärt die Werte in FFXV. Da Bedarf es vielmehr der Frage warum das so ist, anstatt irgendwelche halbgaren Verschwörungstheorien zu verbreiten.

duskstalker schrieb:
fortnite ist eines der meistgespielten spiele - gebaut in der UE4, die selbst bei entwickler EPIC absichtlich schlecht auf radeon läuft, da nvidia und epic partner sind und das auch so auf der homepage steht.

Auf dem Basis wie duskstalker arbeitest du auch. Einfach aus Unwissenheit und Vergrämtheit und mangels Bereitschaft die objektive Wahrheit zu akzeptieren, unbestätigte Gerüchte oder Unterstellungen zu verbreiten.
Der Redakteur hat zu der Unterstellung Nvidia-Spiele zu bevorzugen schon ausreichend Stellung bezogen und mit seiner Erfahrung die Aussagen von duskstalker bereits widerlegt.

Wem sollte ich also mehr glauben? Wolfang Andermahr, der seit Jahren seine Tests macht, oder euch?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: indy1138, Galatian, Rayzor und eine weitere Person
@Taxxor

Im Furmark Test. Praktisch im Gameplay BF5 waren es nur max. 68 glaub ich...also so Schnitt 65°C. Trotzdem ist das Ding fast permanent bei 2700 gedreht, was jetzt auch nicht so schlimm ist, da ich selbst die 980er manchmal so hoch bekomme. Die entwickelt da aber nicht mehr als 35DB. Ich denke die 2080er ist ähnlich "leise".

Durch die Gehäusedämmung fällt es einem nur auf wenn man hinhört, was beim Ballern jetzt nicht so tragisch ist. Wenn ich mir aber vorstelle die Karte in Witcher 3, oder mit "insert any Rendersoftware and trillions of 4k textures here" aufgebohrtem Skyrim extended, wo ich meine Ruhe haben will, zu spielen, krieg ich die Krise...:freak:
 
KlaraElfer schrieb:
Du pickst eben nur die 4K Werte heraus, glaubst du die interessieren die Mehrzahl der User?
4K ist eben die Zielgruppe für eine 16GB HBM2 Karte.
Und wenn es 13% sind in 1440p, dann reden wir hier z.B. von 64 zu 57fps, das ist immer noch nicht genug Unterschied, um der Karte die Konkurrenz zur 2080 abzusprechen.

KlaraElfer schrieb:
Gameworks oder Hairworks wie auch Godray Effekte bedienen sich Tesselation und das nicht erst seit gestern, sondern seit Jahren und benötigen hohe Faktoren um das Bild entsprechend zu glätten, analog zu den Haaren von Gerald in the Witcher 3.
Nein sie benötigen keine hohe Faktoren, in den meisten Fällen sieht man keinen Unterschied zwischen x16 und x64, natürlich laufen die Gameworks Titel trotzdem mit x64, weil die Nvidia Karten da mehr glänzen können und AMD ausgebremst wird, ohne dass der Tesselation Faktor etwas an der Optik ändert.
witcher3-2015-05-21-03-24-40-03.jpg

witcher3-2015-05-21-03-26-09-28.jpg



Oder man erinnert sich an die coolen Mauern von Crysis 2 damals, die auch garantiert nur so viel Tesselation bekommen haben, wie für die Optik benötigt:
crysis2-tesselated-mesh-barrier.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85, Player(1), yummycandy und 2 andere
Luxmanl525 schrieb:
Und im Gegensatz zu Vega 64, stimmt bei der VII vor allem das Verhältnis von Performance / Stromverbrauch Respektive Effizienz.
Für die eingesetzten 7nm ist das Verhältnis vermutlich noch weit mieser als bei Vega. Allerdings absolut gesehen wieder gerade so IO.

Am Sweet Spot müsste die Karte doppelt so effizient wie Turing sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Luxmanl525
Hab meine jetzt da. Ich finde die Grafikkarte sehr Laut ( Be quiet 900 ). Allerdings ist die Karte unfassbar klein !!!
Ich finde man hätte die Karte einfach ein Slot dicker machen müssen. So fehlt einfach Platz für Kühlrippen.

Karte wird später auf 2 x 120 MM oder Rajintek Morpheus ( nächste Generation ) umgebaut !
 
Krautmaster schrieb:
Für die eingesetzten 7nm ist das Verhältnis vermutlich noch weit mieser als bei Vega. Allerdings absolut gesehen wieder gerade so IO.
Wieso? 9% weniger Leistungsaufnahme bei ziemlich genau 20% höherem realen Boosttakt.
Das ist exakt das, was man von 7nm erwarten kann. Eben eine Mischung der -50% Power oder +25% Performance.
Das wäre vergleichbar mit einem Ryzen 3000 8C mit 5,1GHz bei 95W

Die Perf/Watt der VII ist um 37% gestiegen, natürlich auch in Zusammenhang mit den sonstigen Verbesserungen abseits des Fertigungsprozesses.
Und genau so wird's auch hoffentlich bei den CPUs laufen, also Ryzen 3000 8C= Ryzen 2000 8C +35%


Könnte mal jemand der VII Besitzer ausprobieren, wie sich die Package Power bei 1480MHz verhält? Das ist der durchschnittliche Boost der Referenz Vega64. Da müsste die VII dann theoretisch fast halb so viel verbrauchen, wie die Vega
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Aza*
Taxxor schrieb:
Wie kann der Kühler selbst da immer noch so laut sein bzw es nicht schaffen, die Karte ordentlich zu kühlen?
Damit wäre dieser Kühler ja nicht mal für ne RX580 zu gebrauchen, die gerade mal halb so stark ist.

Der Kühler ansich ist schon gut, das Problem ist die Wärmemenge von so einer kleinen Fläche (schnell genug) wegzubekommen. Das ist ganz einfache Physik und trifft jeden. Ein Shrink funktioniert nur dann zufriedenstellend, wenn man auch die Spannung und damit die Abwärme im mindenstens gleichen Verhältnis senken kann. Ansonsten ist irgendwann die maximale Wärmeleitfähigkeit ausgereizt und es kommt zu Hotspots.

Meine Vermutung ist, dass genau daran auch Intel mit dem 7(10) nm Prozess kämpfen hat, denn das sie die Technik ansich im Griff haben, zeigen ja die paar Mobilprozessoren die sie in 10 nm anbieten. Ich tippe darauf, dass sie die Spannung nicht weit genug senken können um die nötigen Taktfrequenzen fahren zu können, ohne das die CPUs ausglühen und dabei schneller sind als die Vorgänger.

Außerdem zeigen ja die Tests das die Karte weit außerhalb ihres Sweetspots betrieben wird, ich tippe mal drauf ein paar mV und Mhz weniger und es wird eine richtig gute Karte - nur halt nicht leistungsfähig genug.
 
JNS-K schrieb:
Der Kühler ansich ist schon gut, das Problem ist die Wärmemenge von so einer kleinen Fläche (schnell genug) wegzubekommen. Das ist ganz einfache Physik und trifft jeden. Ein Shrink funktioniert nur dann zufriedenstellend, wenn man auch die Spannung und damit die Abwärme im mindenstens gleichen Verhältnis senken kann. Ansonsten ist irgendwann die maximale Wärmeleitfähigkeit ausgereizt und es kommt zu Hotspots.
Das hat man aber mit der UV Konfig bereits getan, 200W sind 33% weniger als die 300W der Vega64
Und die Die Size ist auch exakt um 33% gesunken.

Und daher auch mein Vergleich zur RX580, oder nehmen wir die RX590, die hat den gleichen Verbrauch und damit die gleiche Wärmeabgabe wie die Radeon VII mit UV.

Und deren Die ist noch mal 30% kleiner als der der Radeon VII. Und dort funktioniert die Kühlung, obwohl die Kühler ja nur für 225W TDP ausgelegt sein müssen.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Wieso? 9% weniger Leistungsaufnahme bei ziemlich genau 20% höherem realen Boosttakt.
Das ist exakt das, was man von 7nm erwarten kann.
Das wäre extrem wenig ausgehend von 14 oder 16nm der Konkurrenz.
patton_7lp_fx-7_briefing_final_4_575px.png

Das sind die GF Werte von 14 zu 7nm. Bei TSMC gab es Vergleichbares beim Wechsel 16 auf 10nm und nochmal von 10 auf 7nm.

9% weniger Leistung auf 20% mehr Performance? Ohne jetzt explizit jeden GPU Review der letzten 10 Jahre anzuschauen bei denen meist nur ein Half Node oder 1 Full Node geschrinkt wurde hatten da weit weit bessere Werte (siehe zb Nvidias Wechsel 28 auf 16nm.)
 
@Taxxor Das Problem dabei ist, dass sich nicht das ganze Die gleichmäßig erwärmt, sondern Du hast immer Hotspots. Umso kleiner der Prozess umso geringer sind die Abstände, auch reduziert sich das "Füllmaterial" das einen Teil der entstehenden Wärme puffert und die Abgabefläche erhöht. Als Beispiel 400 Watt bringen einen Lötkolben zum glühen, die gleichen 400 Watt auf einem Heizkörper sind noch nicht mal kuschelig warm.

Deshalb kann man auch nicht wie in einem Post erwähnt, in Photoshop einfach verkleinern, sondern man muss umdesignen. Da wo vorher die Abstände zwischen den Hotspots gereicht haben, reichen sie evtl. nicht mehr und man muss sie verschieben.

Ohne es jetzt zu wissen, ich hoffe doch das die 590 jetzt nicht auch knapp 300 Watt braucht...
 
Krautmaster schrieb:
Das wäre extrem wenig ausgehend von 14 oder 16nm der Konkurrenz.
Das sind halt die Werte für TSMCs Prozess, das kann man schwer in Folien ablesen, weil sich TSMC ja nur mit dem eigenen größeren Prozess vergleicht, aber -50%/+25% ist die Angabe gegenüber GloFos 12nm.

-40%/+20% sagt TSMC gegenüber ihrem eigenen 10nm Prozess aus.
Von 16nm auf 10nm sollen es -35%/+15% sein.
Jetzt weiß ich nicht, wo hier der GloFo 14/12nm Prozess liegt, aber mit den -50%/+25% Angaben von AMD scheinen sie ziemlich genau zwischen TSMCs 16 und 10nm gewesen zu sein.

JNS-K schrieb:
Ohne es jetzt zu wissen, ich hoffe doch das die 590 jetzt nicht auch knapp 300 Watt braucht...
Kannst du ja hier im Test sehen, sie verbrauchte mit 208W genau 1W mehr als die Radeon VII UV
 
Zuletzt bearbeitet:
Vega war meines Wissens nicht in Goflos 12 sondern 14nm gefertigt oder?

Egal, sobald man nur etwas über den Sweet Spot raustaktet, was Vega II hier muss um überhaupt etwas Performance zu zeigen, sind diese Hersteller / Fertigungsangaben eh hinfällig. Sieht man meistens an jeder Custom die über Spannung noch etwas weiter pushed.

Mich würde interessieren wie effizient Turing auf 7nm wäre.
 
Krautmaster schrieb:
Das sind die GF Werte von 14 zu 7nm. Bei TSMC gab es Vergleichbares beim Wechsel 16 auf 10nm und nochmal von 10 auf 7nm.

Ich denke, dass zum einen diese Aussagen inzwischen vom Lauf der Zeit gefressen wurden (von wann ist denn die Folie?) und zum anderen ist das der LP, also die explizite Optimierung auf "Low Power". Hat denn AMD diese Technik für ihre Vega20 Chips gewählt? Ich meine nein.
 
Krautmaster schrieb:
Vega war meines Wissens nicht in Goflos 12 sondern 14nm gefertigt oder?
Ja, und ich bin mir auch nie sicher, ob man sich auch bei Zen 2 mit 14nm oder mit 12nm vergleicht.
Macht aber ja eh nicht viel aus, da die Perf/Watt sich nicht viel verändert hat.

Krautmaster schrieb:
Egal, sobald man nur etwas über den Sweet Spot raustaktet, was Vega II hier muss um überhaupt etwas Performance zu zeigen, sind diese Hersteller / Fertigungsangaben eh hinfällig.
Wie schon gesagt, die Fertigungsangaben passen bei der Radeon VII, so wie sie out of the box läuft, haargenau.

Voll auf Performance getrimmt hätte sie 25% mehr Takt als die Vega64 haben müssen bei gleichem Verbrauch.
Etwas vom Takt wurde weggenommen und dafür der Verbrauch gesenkt.

Krautmaster schrieb:
Mich würde interessieren wie effizient Turing auf 7nm wäre.
Also wenn man die Fertigungsangaben von TSMC vom 16/12nm runterrechnet bis 7nm, dann landet man im Optimalfall bei -70% Verbrauch oder alternativ +40% Performance
 
Meiner Meinung nach hätten sie diese mit einer vernünftigen AIO ausliefern sollen und viele der genannten Probleme wären garnicht erst entstanden. Dann würde das Fazit wahrscheinlich nur lauten ... zu teuer.
 
Zurück
Oben