News Radeon VII: AMD publiziert Benchmark­-Ergebnisse von 26 Spielen

@KillerPlauze090 naja "deutlich mehr rausbringt" kann ja auch heißen ne bessere Architektur die weniger Strom zieht bei gleich Leistung und günstiger zu Produzieren ist als der Vega-chip.

Die meisten hier regen sich ja eher über den Preis der Radeon 7 auf. Ich selbst denke auch dass die Radeon 7 eher was für Contentproduzenten ist und weniger was für Spieler und selbst wenn wir annehmen dass Navi an die Spielleistung einer Radeon 7 ran reicht (leicht drunter liegt) hat die Radeon 7 dank 16 gb HBM2 und den 1tb/s bandbreite immernoch nen Mehrwert für die die es auch nutzen können.
 
Ich sehe die Karte eher als Resteverwertung der professionellen Modelle denn wer weiss schon wieviele voll funktionsfähige GPUs in dem neuen Prozess anfallen werden. Gerade bei dem neuen Fertigungsprozess kann ich mir vorstellen dass recht viele mit einzelnen Fehlern anfallen werden, nicht umsonst hatte nvidia Modelle wie die GTX480 oder die erste Titan usw. nur in kastrierter Form auf den Desktop Markt geworfen.
 
Wadenbeisser schrieb:
Nettes Kärtchen, genau das richtige um mein neues UHD Display zu füttern denn da gib es mit der Vega64 bei Shadow of the Tomb Raider mit den höchsten Texturen schon Probleme mit Nachladerucklern durch überlaufenden Speicher, sofern HBCC nicht aktiv ist. (landet mit HBCC bei einer Speicherbelegung von ca. 10 GB)
Mit der Zusatzleistung sollten dann auch die Frameraten ein Stück weit besser werden. :)
Wie ist es eigentlich mit HBCC? Erkennt das die Karte selber, oder muss der Spieletreiber HBCC können?
 
Das musst du im Treiber selbst aktivieren und einstellen wieviel RAM davon belegt werden kann.
Bei den 32 GB RAM des Rechners habe ich 16 GB für den HBCC eingestellt, so bleibt immer genug RAM für alles andere übrig.
Wie genau das arbeitet kann ich aber nicht sagen, vermutlich werden darin vor allem nicht so oft benötigte und Bandbreitensparende Daten ind en RAM ausgelagert, was zwar einen extra Verwaltungsaufwand bedeutet (daher vielleicht auch die hin und wieder einher gehenden Leistungsrückgänge) aber den lokalen Grafikspeicher für wichtige Daten schonen.

Im normalen Betrieb, wo alle Daten in den Grafikspeicher passen, bringt es recht wenig aber beim Punkt des Speicherüberlaufs konnte ich schon mehrfach beobachten dass die typischen Nachladeruckler deutlich gemindert wurden oder gar ausblieben. Ich würde es deshalb eher als Krücke für einen zu kleinen Grafikspeicher bezeichnen, allerdings eine die auch nicht immer greift. Vermutlich muss der Treiber dafür entsprechend angelernt werden.
 
Beachtlich ist, dass Fiji - die Vorgänger-Architektur von Vega und Polaris - in Sachen Effizienz nur wenige Prozentpunkte hinter Vega lag - trotz 28 statt 14 nm. Das legt für mich den Schluss nahe, dass AMD vermutlich deutlich konkurrenzfähiger gewesen wäre, hätten sie einen 14 nm - oder nun sogar einen 7 nm - Refresh von Fiji auf den Markt gebracht, anstatt es mit Vega und Polaris so richtig zu versemmeln.

Rein rechnerisch sind Vega und Polaris ein enormer Rückschritt gegenüber Fiji. Der einzige Leistungs-Fortschritt ist dem Shrink auf 14 und 7 nm zu verdanken.
 
  • Gefällt mir
Reaktionen: devastor
Ich möchte mal drauf hinweisen das der Verbrauch der Radeon VII sich erst noch zeigen muss , ich glaube nicht an 300 Watt , auch wenn 2 8 Pol Stecker verbaut sind , mit denen man bis zu 300 Watt ziehen kann , heißt das nicht das die Karte auch 300 Watt braucht ... , würde eher den Bereich 240 - 250 Watt annehmen , aber auch nur wenn fordernde Benchmarks laufen , normales Gaming 200 Watt ... , aber wir werden es erleben ... , der 07.02 ist nicht allzu weit entfernt
 
@MK one: Jop, genau. Nur dass der PCIe Slot, zm laut Spezifikation, auch 75W bereit stellt, kann sich die Maximum Peak Summe auf 375 Watt aufaddieren. mit 1*8 pol + 1*6 pol + PCIe wären es 150+75+75 = 300W total und überhaupt.
Vermutlich generell 2x 8 pol, um Limitierungen von vorn herein auszuschließen, wenn custom Karten den Maximalverbrauch-Deckel öffnen bzw um günstigere Umstände was dies und Overclocking anbelangt zu schaffen.
Sieht man auch bisher, welche Karten alle 2x8pol haben und mit deutlichweniger als 300W auskommen.
 
Taxxor schrieb:
Du liegst damit aber nun mal falsch. Nvidia Karten haben Sensoren auf dem PCB, die die gesamten Verbrauch der Karte messen. 215W sind auch wirklich 215W.
Warum sollte die Karte nicht in der Lage sein, zu erkennen, wie viel Strom sie aus den 8pin Steckern, aber nicht aus dem PCIe Slot zieht?

AMD Karten haben nur einen Sensor für die GPU alleine. Deshalb steht bei GPUZ dort auch "GPU only power draw"
225W ist der verbrauch der GPU alleine, durch den Rest des PCB kommen da noch mal 80W drauf. Oder was meinst du, weshalb die Vega64 eine TDP von 295W hat? Und weshalb sie beim CB Test genau 300W gezogen hat?

Das gleiche bei Vega56: GPU only power draw deckelt bei 165W. Die komplette Karte verbraucht im Test 233W


Ja, mit einem Tool, welches dir für eine Karte den kompletten Verbrauch und für die andere Karte nur einen Teil des Verbrauchs ausgibt.
Sorry aber so formuliert war das Unsinn. Natürlich kann man das bei der Vega messen, nämlich mit dem Spannungswandler. Was du meintest war eher die Chipeigene Drosselung Powertune und da weiss ich nicht ob die Information überhaupt noch aktuell ist.

PS: Es ist ne Referenz Karte die mit dem Stromspar Profil läuft.
 

Anhänge

  • Shadow Vega.JPG
    Shadow Vega.JPG
    580,9 KB · Aufrufe: 457
SaschaHa schrieb:
Beachtlich ist, dass Fiji - die Vorgänger-Architektur von Vega und Polaris - in Sachen Effizienz nur wenige Prozentpunkte hinter Vega lag - trotz 28 statt 14 nm. Das legt für mich den Schluss nahe, dass AMD vermutlich deutlich konkurrenzfähiger gewesen wäre, hätten sie einen 14 nm - oder nun sogar einen 7 nm - Refresh von Fiji auf den Markt gebracht, anstatt es mit Vega und Polaris so richtig zu versemmeln.

Rein rechnerisch sind Vega und Polaris ein enormer Rückschritt gegenüber Fiji. Der einzige Leistungs-Fortschritt ist dem Shrink auf 14 und 7 nm zu verdanken.
Bei der Betrachtungsweise gibt es einen entscheidenen Fehler, die Taktfrequenz.
Betreibe eine Vega64 mit dem Takt einer FuryX und sie ist erheblich effizienter und welches Effizienz Potential im Fiji steckte sah man ja bei der R9 Nano. Das Spielchen dürfte sich mit der VII wiederholen. Sowohl der Fiji als auch der Vega Chip lassen sich relativ schlecht takten und brauchen für die oberen Taktregionen zu viel Spannung, was die Verlußtleistung explodieren lässt und da der Chip der Radeon VII auf der Architektur des Vega Chips basiert gehe ich davon aus dass der dieses Problem mit geerbt hat.
 
Man müsste wissen, ob beide Karten (Vega und Fiji) gleich weit vom Sweet Spot betrieben werden. Nur dann ist der Vorteil des Shrinks da. Wenn Vega deutlich näher am Limit genutzt wurde, was ja auch bei Polaris ein Problem war, dann steht Fiji immer besser im Vergleich da.

Ich hatte bei 14nm sowieso den Eindruck, dass da eine recht harte Wand für alle Chips vorlag, auch für CPUs. Mit 12nm wurde die schon weicher, und hat sich gleichzeitig ein wenig nach oben verschoben. Alleine dass die 12nm-590 genauso hoch taktet wie die 14nm-Vega64, welche Millionen von Extratransistoren bekommen hat, die hohe Takte ermöglichen sollen, spricht doch schon Bände.
 
@Wadenbeisser : Auf Stromsparprofil sollte sie allerdings nicht bis auf 222W raufgehen. Stromsparprofil sollte eigentlich auf ungefähr 165W ASIC Power (GPU Chip Power bei HWinfo) limitiert sein und das auch so in HWinfo zeigen. Ich habe es schon einmal in diesem Thread geschrieben, aber wenn man am Stecker misst, bekommt man abzüglich des sonstigen Systemverbrauchs bei Vega immer ungefähr 36% mehr Leistungsaufnahme als in HWinfo oder GPUz angezeigt werden.

Nimmt man das Standard bios, ist das PT bei 0% immer auf 220W ASIC Power, danach kann man rechnen, wieviel man durch runterziehen oder raufziehen des PT draufbekommt und es ist, wenn man die Spannungen dementsprechend setzt ohne Probleme möglich, das PT limit präzise zu erreichen. Und es sind an der Dose immer ungefähr 36% mehr. Ich habe bei einem Powertarget von -50% 110W zu 150W an der Dose, bei 0% 220W zu 300W an der Dose gemessen. (Es gibt auch Zwischenwerte, die ich aber nicht auswendig im Kopf habe.)
 
Mehr Auflösung = Mehr Stromverbrauch. Habe seit Anfang letzten Jahres die Vega 64 ausgiebig testen können. Bei 1080p60 nimmt die halt nur ca. 130-180 Watt je nach Grafikanspruch und Titelalter. Bei 4K 2160p60 mit Downsampling und max. OC Settings ereicht die bis zu 350 Watt. Das ist mir schon bei vielen Meinungen aufgefallen das man die genutzte Auflösung gar nicht erwähnt und gleich auf den Stromverbrauch geht, da haben die Karten von NVidia dann auch höhere Werte. Da wird NVIDIA mit DLSS AMD am meisten das Wasser abgraben. Freesync funktioniert bei mir Gott sei dank sehr gut so das man da auch nochmal Leistung einspart. Es reichen oftmals um die 50 FPS für ein gutes Spielgefühl. Klar 144 Hz/Fps sind besser, da hat AMD im Moment keine guten Karten bei höheren Auflösungen als 1080p. Deswegen weiss ich jetzt schon das eine R7 in 4K eben das untere Ende des möglichen darstellt. 2 RTX Titan mit NVLink und 8K60 kann man sich ja auch gönnen für 5.000 Euro. In der Anschaffung ist AMD jedenfalls eine günstigere Alternative.
 
Matthias Berger schrieb:
Das ist mir schon bei vielen Meinungen aufgefallen das man die genutzte Auflösung gar nicht erwähnt und gleich auf den Stromverbrauch geht, da haben die Karten von NVidia dann auch höhere Werte.

Wenn man kein FPS Limit einstellt hat die Auflösung auch sehr wenig mit dem Verbrauch zu tun. Höchsten sind Teile der HW anders belastet und es kommt zu 10-20W Unterschied.
 
Genau, spielt alle mal lieber wieder Half Life 1, in 1024x768, dann sind die Karten auch sparsam. :rolleyes:
 
Vega ist und (wahrscheinlich) bleibt eine Plattform für Bastler und OCer/UVer. Meine Nitro+ Vega 64 läuft mit geschmeidigen 1580 MHz GPU und 1.1 GHz HBM bei max 220W beim Spielen und in diesem Setting ist die Karte nicht weit von einer RTX2070 entfernt und zieht fast überall die GTX1080 ab, sogar in Sachen Effizienz.

AMD ist bekannt dafür die Karten gnadenlos zu übervolten. Ich könnte fast Wetten, wenn ich dann meine Vega VII habe, erstmal pauschal die Spannung auf 0.95V von 1.2 setzen, nochmal 15% mehr Leistung und 100W weniger Verbrauch und dann ist die RTX2080 in fast jeder Kategorie besiegt, ohne Frage. Genau deshalb hole ich mir die Vega. Bei gleicher Rohleistung ABER mit wesentlich mehr Speicherbandbreite und doppelte Kapazität bei gleichem Preis? Einfache Entscheidung.

Wer nicht optimieren und ein paar Tage Stabilitätstests/Benchmarks laufen lassen will um das absolute Optimum zu finden, der ist wahrscheinlich mit der NV-Karte besser bedient. Ich war jahrelang NV-Anhänger, da AMD's Treiber mal der größte Müll waren. Nun ist es (leider) genau umgekehrt. AMDs Treiber sind ordentlicher, übersichtlicher und gepflegter als NVs. Das halb-Monopol hat NV nicht gutgetan. Hoffe die VII zieht davon und macht NV ordentlich Feuer unterm Arsch, damit hier mal wieder gescheite Preise anliegen.

PS: Die Vega-Architektur ist generell nur am Leistungslimit alles andere als Effizient. Stellt man FPS-Limits ein bzw spielt man ältere Spiele, dann verbraucht die Karte fast nix und sogar weniger als NV im gleichen Szenario. Mit steigendem Takt explodiert leider auch der Verbrach. Mit 1 GHz GPU-Takt und weniger ist Vega EXTREM effizient. Sogar mit 1.4 GHz-Takt (und noch immer 24k Score im FireStrike als Referenz) kriege ich den ASIC-Verbrauch auf 150W herabgesetzt unter absoluter 4k-Volllast. Das ist ne Hausnummer und Szenarien die gern mal ignoriert werden :D
 
Alles eine Kostenfrage. NVidia ist zur Zeit teuer in der Anschaffung aber effizienter im Verbrauch und Leistung. Bei 8K60 in Battlefield V ziehen 2x RTX Titan allerdings um die 550 Watt.

Edit: Tja, alles eine Frage des Budgets und der Vernunft. Für mich ist 4K60 mit Vega so ein Grad wo es unvernünftig wird mit der Karte und neueren Titel. Mehr Detail, bessere Kanten, vs hohe FPS. Nimmt man einen passenden Monitor dazu der 4K Auflösung hat dann ist man halt fast gezwungen nativ 4K laufen zu lassen ohne Abstriche in der Bildqualität. Jetzt wo ich den 4K Monitor mit der Vega betreibe ärgere ich mich schon ein bisschen bei neuen Titeln das ich nicht bei 1440p oder 1080p geblieben bin.
 
Zuletzt bearbeitet:
EchoeZ schrieb:
So benötigt eine Vega 64 etwa genausoviel Strom wie eine 1080Ti, das ist klar weniger effizient, aber eben nicht so dramatisch wie es immer kolportiert wird

Guter Hinweis von Dir mit dem Artikel von Igor. Konkret h ier zur Vega 64 und deren gescholtene schlechte Effizienz: Hast Du eine Quelle/Vergleich, die zeigt, was eine Vega 64 tatsächlich beim Gaming braucht? Und dann noch mit der Variante, dass man undervoltet?

Beim Hawaii-Chip war es damals ähnlich. Die Karten R9 290 und R9 290X wurde bei der Leserschaft geprügelt, weil sie knapp 300 Watt verbrauchen würden. Meine damals wassergekühlten Exemplare lagen bei ca. 200 Watt. Man (also die Tester) muss wirklich unterscheiden, ob man den Peak misst oder tatsächlich den Durchschnitt.
 
@Sun-Berg
Nicht ganz
GPU Chip Power = GPU + HBM2
GPU Core Power = GPU für sich
Ich habe auch noch einen älteren Screenshot wo der Verbrauch vom HBM2 Speicher zusätzlich aufgeführt wurde (kam beim max. Wert auf irgendwas um die 20W) aber der Sensor Wert scheint inzwischen entfallen zu sein.

Das Problem an der Sache ist dass es viele Kombinationsmöglichekeiten gibt denn die beiden Firmware Versionen der Grafikkarte haben unterschiedliche Power Targets die sich dann bei den Energie Profilen im Treiber unterschiedlich auswirken. Das Thema wurde hier bei den damaligen Tests auch untersucht.
Was allerdings viele bei dem Thema gern vergessen, zwischen der GPU und der Stromversorgung der Grafikkarte steckt noch deren Spannungswandler der natürlich ebenfalls Strom in Wärme umwandelt und damit auf den Gesammtverbrauch der Karte geht und misst man an der Steckdose kommt nochmal der Verlußt durch das Netzteil oben drauf. Selbst wenn man bei beiden von einem Wirkungsgrad von 90% ausgeht landet man bei einem Verbrauch von 220W für den gesammten Chip bei 242W für die Karte und 266W an der Steckdose.
Kommt dann auch noch die "Chill" Funktion des Treibers ins Spiel....

Was bei den Diskussionen ebenfalls immer wieder gern ignoriert wird ist dass der Verbrauch des Referenz Modells für die Custom Designs oder gar die OC Modelle vollkommen irrelevant ist. Da liegen teils Welten dazwischen.
Hier wurde ja auch schon die R9 290x angesprochen, welche wohl ein verdammt gutes Beispiel dafür ist.
In der Standard Einstellung pendelt sich der Verbrauch des Referenz Modells durch die begrenzte Lüfterdrehzahl und damit der begrenzten Kühlleistung in Kombination mit dem Temperatur Target bei ca. 220W ein, das hing dann natürlich auch noch von der Umgebungstemperatur ab und dann gab es damals auch noch ein Problem mit unterschiedlichen Drehzahlen bei den unterschiedlichen verbauten Lüftern.
Öffnet man die Schleusentore indem man den Lüfter frei drehen lässt dann kam es kaum noch zur Drosselung und der Verbrauch ging auf ca. 300W hoch, ein Wert den die Custom Modelle durch die bessere Kühlung ebenfalls problemlos erreichten.

Bei den Geforce Modellen wird wiederum immer wieder gern auf den Verbrauchswerten der Referenz Modelle rumgeritten und ignoriert dass die OC Modelle gern erheblich mehr verbraten, bei Aussagen zur Leistung bedient man sich aber wieder gern bei den OC Modellen.

Gerade bei dem Thema Stromverbrauch der Karten muss man also sehr genau wissen worüber man redet, nicht zuletzt weil das Thema bei den Radeons und allen voran den Vega Modelle wegen der vielen Einstellungsmöglichkeiten nicht selten deutlich komplexer ist.

Ich bin gespannt wie das bei der Radeon VII gelöst wird, schade finde ich allerdings das scheinbar die Auslastungs LEDs entfalle werden. Gerade im Zusammenspiel mit Chill und einem Fenster in Seitenteil war das ein netter Indikator für den letztendlichen Verbrauch der Karte.
 
Wadenbeisser schrieb:
Sorry aber so formuliert war das Unsinn. Natürlich kann man das bei der Vega messen, nämlich mit dem Spannungswandler.
Das ist aber doch kein Wert, den dir ein Sensor auf der Karte ausgeben kann, da müsstest du schon mit dem Messgerät rangehen. Mir ging es um das, was die Karte selbst messen kann und damit das, was du über Software auslesen kannst.
 
Zurück
Oben