News Adrenalin 2019: Mehr Details und ein Termin zur neuen Radeon-Software

hab ihn seit dem ersten Tag im Autostart, hat hier nix versaut

low level io treiber allerdings auch den Haken gesetzt hier
 
  • Gefällt mir
Reaktionen: Acedia23
Volkimann schrieb:
Man kennt das ja. Die Leute bauen sich eine Vega ein und sie läuft nicht wie gewünscht :freak: Es kommt dann gleich die Meldung "Achtung, sie müssen undervolten, da die nvidia Pendants weniger verbrauchen"
Und dann sitzen da die Leute....

Ach ne, die bauen sich Vega ein und die Karte läuft auch einfach so.
Ja, aber wie?
"Wie gewünscht" bedeutet für mich so wie sie vermarktet wird, und zwar im Fall meiner Vega56 mit einem Takt von 1640MHz.
Nach "einfach einbauen und läuft" sehe ich davon aber nicht viel, die Taktraten pendeln zwischen 1200 und 1300MHZ hin und her, und das liegt eben am hohen Verbrauch.

Hier wird der Verbrauch der Karten viel zu oft nur mit dem Stromkosten verbunden, während die Temperatur und vor Allem Lautstärke der Karte viel wichtiger ist, aber eher vergessen wird.

Zum Start der Vegas kam man im Grunde schon nicht drum herum, sich einen Third Party Kühler zu montieren, um die Temperatur und Lautstärke irgendwie in den Griff zu bekommen, da die Referenzdesigns konstant am Powerlimit und im Fall der Vega 64 auch gleichzeitig ganz knapp am Temperaturlimit laufen, ohne jemals ihren Maximaltakt zu erreichen.

Vega64 läuft bei 300W Verbrauch ja immer noch gut 150-200MHZ unter ihrem offiziellen Maximaltakt und die Lüfter drehen fast zu 100% auf.
Das Powerlimit kann man per Treiber aushebeln, aber da sie ohne Anpassungen und damit reduziertem Takt schon bei 83°C landet, rennt man mit dem Referenzkühler direkt ins Temp. Limit von 85°C und der Takt wird direkt wieder gesenkt.
Dagegen hilft dann nur Undervolting bei gleichzeitiger Reduzierung des Takts, oder eben einen anderen Kühler draufpacken

Kauft man sich stattdessen eine 2080 im Referenzdesign, läuft diese ohne weiteres Zutun fast mit dem vollen angegebenen Takt(je nach Spiel bis -50MHz) ohne dabei die TDP hochsetzen oder UV betreiben zu müssen.

Und 39 vs 50 dB bei der Lautstärke der jeweiligen Referenzlüfter der 2080 FE und der Vega 64 zeigen deutlich, was der enorme Mehrverbrauch von Vega durch "einfach einbauen und läuft" bedeutet.


Es hat also durchaus einen guten Grund, warum einem der AMD Treiber das Undervolting so leicht macht, einfach weil es notwendig ist, um die Karte überhaupt annähernd mit den angegebenen Spezifikationen betreiben zu können.
Die 1640MHz, die meine Karte erreichen soll, würde ich aber auch mit Undervolting und Powerlimit Erhöhung nicht sehen, da sie damit immer noch mehr verbrauchen würde, als der Referenzkühler mit voller Drehzahl abführen kann.
 
Zuletzt bearbeitet:
Finde ich super, wie der Treiber gepflegt wird. Mit dem Einbau der 1070 und dem Treiber fühle ich mich wieder in de Zeiten der 88 GTX zurückversetzt...(optisch ;)).
 
@Taxxor Die Vegas werden mit geringeren Boost-Taktraten als dem maximalen Takt im Treiber beworben, offizieller Boost für ne Referenz-Vega 56 sind 1471MHz und für ne Referenz-Vega 64 sind es 1564MHz, siehe hier. Das sind aber keine garantierten Taktraten unter Last, garantiert wird der Standardtakt, und der ist deutlich geringer.

Und mal davon ab: Wen interessieren die tatsächlichen Taktraten, wenn die Leistung passt? Ich bin äußerst zufrieden mit meiner Vega 56 mit dem 150Watt BIOS. Macht kaum einen Unterschied zum Standard-BIOS und lässt sich sogar mit dem Referenzkühler noch gut bändigen, auch wenns natürlich keine leise Karte ist. Außerdem gibts deutlich weniger Spulenfiepen.
 
Rage schrieb:
Das sind aber keine garantierten Taktraten unter Last, garantiert wird der Standardtakt, und der ist deutlich geringer.
Hier verhält sich AMD ähnlich wie Intel bei den CPUs, wo die TDP sich nur auf Vollast bei Basistakt bezieht. Aber wozu dann überhaupt mit solchen Boost Taktraten werben, wenn sie ohne manuelle Einstellungen eh nicht erreicht werden? Bei CPUs macht das noch Sinn für kurze Lastspitzen auf den Maximaltakt gehen zu können, eine GPU ist aber darauf ausgelegt, immer am Limit zu laufen.
Wie schon gesagt, bei einer RTX 2080 erhält man auch nahezu den maximalen Boost ohne irgendwas einstellen zu müssen.

Rage schrieb:
Und mal davon ab: Wen interessieren die tatsächlichen Taktraten, wenn die Leistung passt?
Von den 1200-1300Mhz/800MHz @ Stock zu den 1550MHz/950MHz mit meiner UV Konfig macht es eben mal einen Unterschied von teilweise 55 zu 65fps aus, +18% das ist schon ordentlich und entspräche auch grob dem, was die Karte an angegebener Maximalleistung bringen kann.
Damit liege ich dann auch etwas über der Leistung einer Stock Vega64 bei weniger Verbrauch.

Wenn ich viel Geld in eine Vega stecke, dann interessiert es mich schon, ob sie so bemessen ist, dass sie die angegebenen 10,5TFLOPS auch erreichen kann, oder durch zuviel Verbrauch und schlechten Kühler eben nur 8TFLOPs bringt.

Rage schrieb:
Ich bin äußerst zufrieden mit meiner Vega 56 mit dem 150Watt BIOS. Macht kaum einen Unterschied zum Standard-BIOS und lässt sich sogar mit dem Referenzkühler noch gut bändigen

Natürlich, weil das Standardbios ja nur 10W höher liegt, das gibt dir real mal 20-40MHz mehr.

Und selbst wenn du sie mit dem 150W Bios betreibst, was dann einem GPU Verbrauch von ca 200W entspricht, schafft es der Lüfter nicht, die Karte zu kühlen, ohne laut zu werden, dabei liegen deine Taktraten gute 30% unterhalb dessen, was die Karte angeblich leisten kann.

Bei CPUs ist es ja ganz normal, dass man sich einen guten Lüfter dazuholt, eine GPU ist aber doch ein in sich komplettes Produkt, da sollte man doch wohl auch erwarten können, dass diese Boost Taktraten mit der Karte so wie sie ist erreicht werden können.
 
Zuletzt bearbeitet:
@Taxxor Wie die Taktraten aussehen, hängt sehr stark von der Last ab, die das Spiel erzeugt. Und der Takt alleine sagt ja auch nichts über die Leistung, die rauskommt, aus. Für den Käufer einer Vega 56 ist denke ich das Verhältnis zur GTX 1070, gegen die die Vega 56 platziert ist, relevanter als die realen Taktraten. Leistungsmäßig sieht es mit dem Standard-BIOS in den allermeisten Spielen ziemlich ähnlich aus, insofern ist das meiner Meinung nach unnötiges Balastwissen für den Normalokäufer. Der kauft sich gerade im Moment ein Modell von einem Boardpartner und wenn das ein gutes ist, dann ist die Karte aus der Schachtel auch ordentlich leise bis auf das typische Spulenfiepen.

Deine Undervolting-Einstellungen sind aber auch nicht sicher stabil. Das will nicht jeder haben, es soll ja auch Leute geben, die kompetitiv spielen und denen ein Spielabsturz in so einer Situation überhaupt nicht gefallen würde. Es handelt sich hier um klassisches Overclocking, und Du hast genau wie ich eben als Early Adopter Glück, Samsung HBM zu haben. Ich hatte für höheren HBM-Takt auch schon ein Vega 64 BIOS geflasht, hab es aber wieder rückgängig gemacht, weil es (zumindest glaube ich das) in manchen Spielen zu Mikrorucklern geführt hat.

Die TFlops sind nach dem Basistakt angegben (Vega 56: 8,286 TFlops bei 1156MHz, Vega 64: 10,215 TFlops bei 1247MHz). Wären sie nach dem offiziellen Boosttakt angegeben (immer noch niedriger als der eingetragene Takt in P7) wären es 10,554TFlops bei 1471Mhz bei der Vega 56 und 12,665 TFlops bei 1546Mhz bei der Vega 64. Hier wird also niemand abgezogen.

Das 150Watt-BIOS entspricht keinem GPU-Verbrauch von 200Watt, sondern etwa 200-220 Watt für die ganze Karte. Was die Karte angeblich leisten kann, wird von AMD angegeben. Und zwar mit dem Basistakt. Der Rest ist Bonus, ob man die Angabe sinnvoll findet oder nicht ist jedem selbst überlassen. Dadurch wie Vega arbeitet hat man als Endverbraucher aber ein sehr gutes Werkzeug, um per Treiber einstellen zu können, wie viel Stromverbrauch einem die Karte wert ist, den Rest optimiert die Karte selbst-- und zwar stabil.
 
Rage schrieb:
Und der Takt alleine sagt ja auch nichts über die Leistung, die rauskommt, aus.
Naja mehr Takt = Mehr FPS, das ist schon allgemein so. Ob sich das 1:1 umrechnen lässt, hängt natürlich vom jeweiligen Spiel ab.

Rage schrieb:
Deine Undervolting-Einstellungen sind aber auch nicht sicher stabil. Das will nicht jeder haben, es soll ja auch Leute geben, die kompetitiv spielen und denen ein Spielabsturz in so einer Situation überhaupt nicht gefallen würde.
Nein das kann man natürlich nicht für jede Karte nehmen, es gibt aber auch Karten, die schaffen mit meinen Spannungen gleich mal 100MHz mehr stabil, also bin ich irgendwo im Durchschnitt.

Wenn AMD aber einen maximalen Boosttakt von 1630MHz angibt, dann muss dieser Takt doch auch so wie die Karte ist, zu erreichen sein, oder etwa nicht?
Aber selbst wenn man dann mit Power Limit und Unvervolting rumspielt, macht der Referenzlüfter das eher nicht mit.

Daher hier auch wieder der Vergleich zur RTX 2080, da muss man eben keine Experimente eingehen und hat die Leistung, die auch als Maximalleistung vermarktet wird, und kein "könnte man theoretisch erreichen, wenn man ganz viel rumstellt"

Rage schrieb:
Die TFlops sind nach dem Basistakt angegben (Vega 56: 8,286 TFlops bei 1156MHz, Vega 64: 10,215 TFlops bei 1247MHz). Wären sie nach dem offiziellen Boosttakt angegeben (immer noch niedriger als der eingetragene Takt in P7) wären es 10,554TFlops bei 1471Mhz bei der Vega 56 und 12,665 TFlops bei 1546Mhz bei der Vega 64. Hier wird also niemand abgezogen.

Beworben wurde sie so
RX-Vega-pcgh.PNG


Die TFLOPs bei Basistakt habe ich bewusst noch auf keiner Folie gesehen.

Rage schrieb:
Das 150Watt-BIOS entspricht keinem GPU-Verbrauch von 200Watt, sondern etwa 200-220 Watt für die ganze Karte.
War auch nur geschätzt, da die oooffizielle TDP der Vega56 bei 220W liegt, und das dann wohl mit dem Standard BIOS.

Rage schrieb:
Was die Karte angeblich leisten kann, wird von AMD angegeben. Und zwar mit dem Basistakt. Der Rest ist Bonus, ob man die Angabe sinnvoll findet oder nicht ist jedem selbst überlassen.
Der Basistakt ist, wie auch bei CPUs, was die Karte leisten muss, der maximale Boosttakt ist das, was die Karte leisten kann.

Stell dir mal vor AMD bringt einen Ryzen 7 3700X mit 4,0 GHz Basistakt und 5,0GHz Singlecoreboost, dann erwarte ich doch, dass innerhalb der Spezifikationen bei Singlecorelast auch 5,0GHz erreicht werden können.
Ist es jetzt okay, wenn die CPU bei Singlecorelast nur 4,2Ghz macht, weil 5,0GHz einen Verbrauch von 200 statt 100W bedeuten würden, die CPU aber auf 100W limitiert ist?
 
Zuletzt bearbeitet:
@Taxxor Wenn Du speicherlimitiert bist, oder CPU-limitiert, oder halt irgendwo anders, dann nicht. Aber das war gar nicht mein Punkt. Wichtig ist mE das Verhältnis zur GTX 1070 und das passt in aller Regel Stock. Ich weiß jetzt nicht wirklich, was gut daran ist, dass die RTX 2080 den Boosttakt meistens erreicht, der ist dann einfach anders angegeben als bei AMD. Ne RTX 2080 kann man halt sehr schlecht übertakten, ob das für die Karte spricht weiß ich auch nicht... Die Leistung ist halt insgesamt höher, aber angeblich arbeitet AMD an Konkurrenz. Die soll sogar nicht mal mehr so weit entfernt sein, auf VideoCardz in der Kommentarsektion habe ich gehört, dass Vega 10 seit etwa einem Monat nicht mehr gefertigt wird. Auf Lager gibt es auch nicht mal mehr so ein großes Vega-Angebot.

Die Einstellungen sind auch für Deine Karte nicht sicher stabil. Irgendein Spiel kann Deine Karte unvorhergesehen zum Absturz bringen. Das passiert nicht, wenn Du per Powerlimit die Leistungsaufnahme beschränkst. Wenn Du natürlich nur bei gleichem Stromverbrauch mehr Leistung oder die gleiche Leistung bei weniger Stromverbrauch willst, dann ist das kein Weg für Dich, aber es ist eben auch nicht sicher stabil. Ist halt eben Overclocking.

Mein Fehler, ich habe auf videocardz die Specs nachgelesen. Trotzdem steht da "Peak", also ein "bis zu". Das ist definitiv auch nicht falsch.

Die offizielle TDP ist aber nutzlos, denn was in die Karte reingeht, wird nirgends gemessen. Das wäre nötig, um sicherzustellen, dass die TDP nicht überschritten wird. Gemessen wird das, was aus der VCore-VRM Richtung GPU rausgeht, das nennt sich ASIC-Power. Zusätzlich wird noch das, was die HBM-Spannungsversorgung ausgibt, gemessen, aber das was reingeht, eben nirgends. Da kommen dann noch Wandlerverluste oben drauf und und und.

Jup, das tut sie doch auch ab Werk.
 
Rage schrieb:
Die offizielle TDP ist aber nutzlos, denn was in die Karte reingeht, wird nirgends gemessen. Das wäre nötig, um sicherzustellen, dass die TDP nicht überschritten wird..
Der Verbrauch der restlichen Komponenten bleibt aber ja idR immer annähernd gleich, daher stimmt die offizielle TDP Angabe schon ziemlich so. Die Karten wurden bei den Tests ja auch mit dem gemessen, was in die Karte reingeht, und das waren 233W und 300W, angegeben sind sie mit 220 und 295W
Ergänzung ()


Rage schrieb:
Ich weiß jetzt nicht wirklich, was gut daran ist, dass die RTX 2080 den Boosttakt meistens erreicht, der ist dann einfach anders angegeben als bei AMD. Ne RTX 2080 kann man halt sehr schlecht übertakten, ob das für die Karte spricht weiß ich auch nicht...
Was daran gut ist, ist dass die Karte eben für jeden stabil diese hohe Leistung am oberen Ende des Chips hat und sie nicht so stark streut wie die Vegas, dass man hier die Spezifikationen derart hoch ansetzen musste, was die Spannung betrifft.
 
@Taxxor Naja, für die Effizienz der Spannungsversorgung ist schon wichtig, wie viel Strom da durchgeht. Stock ist sie aber äußert effizient auf dem Referenzdesign, da hat AMD reife Arbeit geleistet.

Die Vegas streuen, aber nicht wegen der Chipspannung sondern weil jeder Chip automatisch die Spannung und Frequenz im gegebenen Powertarget selbst regelt. Da gibt es gute und schlechte Chips, und im selben Powertarget gibt es dann eben unterschiedliche Leistung. Die Spannungen, die man im WattMan sieht, liegen real niemals an. Deutlich mehr als 1V Vcore bei ner Vega 64 mit Standard-BIOS ist sehr selten. Wenn man die Spannung auf Manuell schaltet, regelt der Chip selbst nicht mehr, und da muss es dann eben ein Failsafe sein.
 
Wenn alles funktioniert, klingt es echt gut
 
mal schauen, am Freitag werd ich wohl zuhause sein, passt zum realease.
Da werd ich mal rum experimentieren, was sich da ändert bzw. verbessert.
Eine weitere Leistungssteigerung durch den Treiber bei Vega nehme ich gerne an. Wenn es so wäre, kann man die Vega mit einem Wein vergleichen :daumen:

Wenn ich bedenke was meine Vega56 mit Ref. Kühler geleistet hat (TimeSpy 6,5K), und was die mittlerweile raushaut (WaKü) (max. OC TimeSpy 8K). Und die Treiber haben auch ein Leistungsplus nach realease gebracht.
Das Rohleistung da ist, wissen wir. Man muss die nur effizient auf die straße bekommen.
 
Rage schrieb:
Die Vegas streuen, aber nicht wegen der Chipspannung sondern weil jeder Chip automatisch die Spannung und Frequenz im gegebenen Powertarget selbst regelt. Da gibt es gute und schlechte Chips, und im selben Powertarget gibt es dann eben unterschiedliche Leistung.

Aber das ist doch haargenau die Aussage, dass es an den Spannungen liegt.
Es gibt gute und schlechte Chips, ja. Und zwar weil die besseren Chips mit weniger Spannung auskommen.

Der eine Chip braucht für 1400MHz 950mV und ist damit im Power Limit, ein anderer Chip braucht für 1400MHz nur 900mV und kann somit innerhalb des Power Limits auch noch auf 1480MHz gehen.

Und deswegen Streuen die Vegas so sehr, meine Vega56 mit PT+50% und Autospannung geht z.B. auf 1080mV hoch und zieht dabei 300W+


Und wie sehr die Chipgüte streut, sieht man eben daran, dass AMD für die 1600MHz als Wert, mit dem auf jeden Fall jede GPU stabil läuft, 1200mV angesetzt hat, während, wie du schon sagtest, die meisten nie weit über 1000mV gehen. Aber es scheint eben doch welche zu geben, sonst hätte man hier auch 1100mV ins BIOS schreiben können.
Auf der anderen Seite gibt es eben auch ein paar Chips, die die 1600MHz mit 950mV schaffen, das sind 250mV Unterschied.
 
Zuletzt bearbeitet:
@Taxxor Ja, es ist natürlich wegen der Spannung, aber nicht wegen den Spannungen, die man sehen kann, wenn an die Spannungsverwaltung auf Manuell stellt. Das meinte ich. Dass die Chips so sehr streuen ist eben so, von GFs Prozess bin ich nicht begeistert. Mal sehen was jetzt mit den Chips von TSMC passiert.

Dass Deine Vega mit 50% Powerlimit abgeht und den Strom auch verbraucht, ist aber genau so wie es gedacht ist. Im Powerbudget soll der Chip ja das maximale rausholen. Kommt denn wenigstens ordentlich Takt dabei rum? Das ist ja meistens nicht so, was an Design oder Fertigungsprozess liegen könnte. Wenn man sich jedenfalls die Reviews ansieht, ist es eher selten so, dass sich wirklich ordentliche Leistungssprünge messen lassen durch mehr Powerlimit.

Undervolting ist eben bei Vega jedenfalls extrem zeitaufwendig, das auszuloten ist ziemlich schwierig, gerade weil der Chip zu gegebener Spannung und Frequenz weiter die Frequenz anpasst. Wenn man beides festnageln könnte beim Übertakten wäre es vielleicht etwas einfacher. Und sich sicher sein, dass das was man da eingestellt hat, stabil ist, ist fast unmöglich. Die Einstellungen können in den meisten Spielen gut laufen und irgendwelche anderen bringen das Spiel oder schlimmstenfalls das System dann zum Abstürzen. Deshalb bin ich mal sehr gespannt auf das automatische Untervolten im Treiber, denn daran würde ich den Anspruch stellen, dass es stabil ist.

Lange Rede gar kein Sinn: Man kann auch ne Vega kaufen und Plug and Play betreiben, schon Stock sind das keine schlechten Karten. Für unter 400€ ist die Vega 56 ne tolle Karte und für um die 450€ ist die Vega 64 auch ne tolle Karte. Insbesondere wenn man einen FreeSync-Bildschirm hat, die Treiber von AMD lieber mag, sich Konkurrenz wüscht, ... Dass sie etwas mehr Strom verbrauchen als es schön wäre ist nicht zu ändern, aber das wird ja jetzt vielleicht mit der angeblich auf Spiele ausgerichteten Navi-Architektur und TSMCs 7nm-Prozess besser.
 
Rage schrieb:
Ja, es ist natürlich wegen der Spannung, aber nicht wegen den Spannungen, die man sehen kann, wenn man die Spannungsverwaltung auf Manuell stellt.
Das sagte ich auch nicht.
Die Spannungen, die du in der Verwaltung sehen kannst, sind das Resultat aus den streuenden Spannungen, die real anliegen.
Irgend eine Vega 64 da draußen benötigt für ihren maximalen Takt in P7 eben knapp 1200mV um stabil zu bleiben.
Ergänzung ()

Rage schrieb:
Undervolting ist eben bei Vega jedenfalls extrem zeitaufwendig, das auszuloten ist ziemlich schwierig, gerade weil der Chip zu gegebener Spannung und Frequenz weiter die Frequenz anpasst.
Dafür kommt ja das automatische UV Tool mit dem nächsten Update^^

Vielleicht hatte ich auch einfach Glück mit meinem UV, ich musste nicht lange probieren, ich habe es nach 2-3 Versuchen, in denen die Karte auch direkt in den ersten 2 Minuten unter Last abgeschmiert ist auf 950mV und 1557MHz gestellt und seit einem Jahr läuft sie jetzt so ohne Probleme.
 
@Rage
Also meine V56 schafft mit dem V64 LC Bios und 142%TP. +350W. Limitieren tut der Chip (Takt bei ~1720mhz real).
Mit einem HBM von 1170mhz, werden so eben 8K in Timespy gemacht.
Im alltag läuft n sanftes OC/UV
 
Rock Lee schrieb:
Ich hoffe das Teil kommt heute.
Habe im Haushalt ne 290 4gb, 390 8gb und rx570 8gb zum testen der UV Funktion 8)

Das hoffe ich doch auch, wäre schön wenn die Radeon Software Adrenalin 2019 Edition tatsächlich heute veröffentlicht wird.

@MichaG habt ihr diesbezüglich schon etwas genaueres gehört? Wird's heute soweit sein?

Ich bin auf die Auto-OC und -UV Funktion und vor allem deren Ergebnisse im Vergleich zum "selfmade" OC/UV gespannt.

Liebe Grüße
Sven
 
Terminator-800 schrieb:
Glaubt ihr das uv/oc auch für die 200/300er Reihe kommt ?

Nein, ich denke, für Readon RX 400, RX 500 und RX VEGA.

Ich würde es zwar begrüßen, kann es mir aber nur schwer vorstellen.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: navi. und Strikerking
Zurück
Oben