AMD VEGA 64&56 Erfahrungsthread

Sollte dir denke ich auch keiner verübeln denke ich.
Ich warte jetzt erstmal lechzend auf Titan Volta und ob die mich technisch überzeugt. Bis dahin hat AMD Zeit mich davon zu überzeugen doch kompetente Treiber zu entwickeln die ihre Features auch auf die Straße bringen.
 
Ich scheine mit dem Preis auch ziemlich Glück gehabt zu haben, hab am 23.08. die Zotac 1080Ti AMP für 705 Öcken gekauft, heute kostet die 799€ :freak:

Die Preise scheinen also wieder anzuziehen und sich Richtung Lotterie zu entwickeln.
 
@r4yn3

Was mich im Moment etwas stört, ist die Informationspolitik von AMD. Wenn das Treiberteam doch zu mindest eine Roadmap oder einen ungefähren Zeitplan rausgeben würde...
Hab neulich mal ne Anfrage im AMD Support Forum gestellt bezüglich der Sensorposition auf Vega. Zum Beispiel ob die HBM Temperatur vom Boden des Stacks ausgelesen wird und wo der GPU Hotspot gemessen wird.
Hab das auf GPU-Z bezogen, weil der HotSpot Sensor zuerst in GPU-Z aufgetaucht ist. Die haben mich dann einfach an die GPU-Z Entwickler verwiesen, was kompletter Schwachsinn ist, da GPU-Z auch nur die APIs von AMD nutzt, um Sensorinformation abzugreifen (hab mir das sogar von den GPU-Z Entwicklern bestätigen lassen).

Nachdem ich sie darauf hingewiesen hab - Stillschweigen.

Ein Personalwechsel würde der Abteilung für Informationspolitik in der RTG mal so richtig gut tun..
 
Die schwache Informationspolitik kreide ich auch an. Gerade wenn man im Vorfeld so großmundig Features anpreist und nun diese im Nachhinein gefühlt unter den Teppich kehrt.

Mit dem ersten Crimson Relive dachte ich echt die bekommen die Kurve, aber wie man auch schon bei Fiji sah kommt da dann auch nur noch heiße Luft.
 
Kann euch zumindest einigermaßen genau erzählen, was da die Taktik ist...

Angekündigt und beworben wird erst einmal, was auf jeden Fall wirklich, ganz ehrlich, geplant ist zu erreichen. Das Zeug wird dann möglichst schnell auf den Markt geworfen, um irgendwie im Ring zu sein. Dann wird sukzessive versucht, das Angekündigte zu erreichen.

Das machen viele Unternehmen so, fällt aber umso mehr auf, je weniger Produktbreite herrscht, also Auswahl im eigenen Sortiment, wenn man so will. Vega im Highend ist nunmal das einzige Produkt vom AMD in dem Segment, deshalb fällt uns das so krass auf.
Was nicht heißt, dass es gut ist. Es ist crap.

Kommen wird da noch was, aber ob die Vorstellungen INTERN erreicht werden können, wird zeigen, was wir bekommen.
 
Naja von möglichst schnell am Markt kann bei Vega nicht die Rede sein :D
 
Wie sehr stört DICH der Lüfter bei 2400 bis 2600 Umdrehungen pro Minute.
Oder nur ein angenehmes Rauschen ...
 
Alienate.Me schrieb:
den satz verstehe ich nicht. ^^ eine mehrlast und entalstung gleichzeitig?

rein aus meiner praktischen erfahrung und bis auf die downgesamplete Witcher 3 ausnahme jetzt hatte ich durch V-sync immer eine kühlere karte, woraus meine logik schließt, dass die karte entlastet wird. was sich ja auch im GPU-load widerspiegelte - weit unter 99%.



auch hier verstehe ich nicht wie du das meinst? ... durch VSR wird die karte doch eigtl besser ausgelastet?

dennoch frage ich mich, warum er mir VSR@1600p und V-sync +400MHz boost anzeigt und das bei 1,1V? woran das liegen könnte? bug oder feature? :)

Die erzwungene Synchronisation ist eine Bellastung dadurch entstehen latenzen gleichzeitig werden aber die Shader entlastet weil sie weniger rendern müssen.

r4yn3 schrieb:
Aha. Und wie soll Downsampling eine GPU entlasten?

Das Downsampling findet in einer Hardwareeinheit extern von den Shadern statt, jedenfalls bei AMD das macht es weniger flexibel aber insgesammt entlastet es, während Nvidia einen teil der Shader Resourcen für DSR abzweigt (was höhere latenzen zur folge hat vor allem je mehr GameWorks load) ;)


Alienate welche FPS erreichst du hier bei UHD

http://i1.sendpic.org/i/mk/mk9xnHct8BREii5WbBFpCww7vSQ.png
http://i1.sendpic.org/i/x1/x1tRc53BilVRmg6xg7zIDyTJx8N.png
 
Zuletzt bearbeitet:
horn 29 schrieb:
Wie sehr stört DICH der Lüfter bei 2400 bis 2600 Umdrehungen pro Minute.
Oder nur ein angenehmes Rauschen ...

Ich finde den Lüfter nicht sehr Störend, Skuriler weise....

Dachte das ding ist ne echte Turbine... unzwar Dauerhaft.
Dem ist zum Glück nicht so.
KANN aber auf 49000umin abgehen wie ein Föhn ^^ Mit dem Ding kannste dir als Frau die Haare Trocknen ;D
 
nur bitte auf der Auslass Seite stehen, auf der Radial Seite könnte es für lange Haare grauenhafte Folgen haben. Autsch :D
 
Cru_N_cher schrieb:
Das Downsampling findet in einer Hardwareeinheit extern von den Shadern statt, jedenfalls bei AMD das macht es weniger flexibel aber insgesammt entlastet es, während Nvidia einen teil der Shader Resourcen für DSR abzweigt (was höhere latenzen zur folge hat vor allem je mehr GameWorks load) ;)

Das ist in Summe einfach Quark. https://www.computerbase.de/2014-12...-omega-vergleich/3/#abschnitt_die_performance
AMD verwendet zwar Scaler, diese brauchst du aber wohl zum runterrechnen. Das hochrechnen des Bildes wird aber sehr wohl in den Shadern passieren. Die Performance kann nie besser als nativ sein, sofern din Qualität gleich bleibt.
 
Ich weiss nicht obs hier schon irgendwo erwähnt wurde...

Für Technik interessierte mal ein lesenswerter Artikel

http://www.3dcenter.org/artikel/zum-potential-der-stromspar-modi-von-radeon-rx-vega

https://www.hardwareluxx.de/index.p...vega-56-und-vega-64-im-undervolting-test.html

Also effizienteste Karte überhaupt aktuell am Markt ist die AMD RX Vega 56 bei 1,15 Volt :) Kann jeder zu Hause selbst durchführen...damit sinkt der Stromverbrauch auf ca. 150 Watt und man hat die Leistung einer Nvidia 1080 in etwa. Also extremes Potential bei dieser Karte...Takt ist ja in den Artikeln auch vorgegeben...also leichter geht's nichtmehr :)
 
Zuletzt bearbeitet:
1,15V ... irgendwo liegt bei dir ein fehler ... 1,15V ist P6@stock und keinesfalls wirklich effizient. was sollen dann die leute hier sagen, die die karte mit 950mV bis 1050mV laufen lassen? da fängt vega an wirklich effizient zu werden, liegt aber immernoch hinter NV+UV ... NV kann ja auch UV ;)
 
Alienate.Me schrieb:
1,15V ... irgendwo liegt bei dir ein fehler ... 1,15V ist P6@stock und keinesfalls wirklich effizient. was sollen dann die leute hier sagen, die die karte mit 950mV bis 1050mV laufen lassen? da fängt vega an wirklich effizient zu werden, liegt aber immernoch hinter NV+UV ... NV kann ja auch UV ;)

Sorry stimmt Spannung auf 1.070 V (default 1.2V), Power-Limit +50%, Takt 1613/1000 MHz

+18,6% Performance für -18,5% System-Verbrauch
 
Zuletzt bearbeitet:
-Ps-Y-cO- schrieb:
Ich finde den Lüfter nicht sehr Störend, Skuriler weise....

Dachte das ding ist ne echte Turbine... unzwar Dauerhaft.
Dem ist zum Glück nicht so.
KANN aber auf 49000umin abgehen wie ein Föhn ^^ Mit dem Ding kannste dir als Frau die Haare Trocknen ;D

Du lügst das ist und wird immer The Föhn bleiben 62 dB Power Föhn :D

https://www.youtube.com/watch?v=v97nv2IHB0Y

r4yn3 schrieb:
Das ist in Summe einfach Quark. https://www.computerbase.de/2014-12...-omega-vergleich/3/#abschnitt_die_performance
AMD verwendet zwar Scaler, diese brauchst du aber wohl zum runterrechnen. Das hochrechnen des Bildes wird aber sehr wohl in den Shadern passieren. Die Performance kann nie besser als nativ sein, sofern din Qualität gleich bleibt.

Der Test müsste eigentlich mal geupdatet werden es hat sich viel getan seit Maxwell Release hinzu Pascal bei DSR und bei AMD genauso seit Polaris, Vega.

Natürlich kann die Performance nicht Nativ sein das hab ich auch garnicht gesagt aber die Latenz bei AMD ist niedrieger und es stehen mehr Resourcen frei.

Die Frage ist allerdings ob VSR nicht auch schon in Richtung Async Compute erweitert wurde vor allem unter Windows 10.

Ein Effizienzvergleich jetzt zwischen Pascal DSR, Vega VSR wäre interessant aber da kann man so wie ich es kenne lange drauf warten, wenn man es nicht selbst macht ;)

VSR war vor kurzem ja auch noch in treiber problemen wegen irgend einer Anpassung ;)
 
Zuletzt bearbeitet:
Sorry. Hab die FX 5800 Ultra Vergessen!! ^^
 
Übrigens absolut zu empfehlen Adored zeigt hier auf wie Nvidia stück für stück aus Highend Midrange hat werden lassen und die Preise immer weiter nach oben setzt und im Prinzip dann seit Maxwell nur noch die Power Consumption adaptiert auf den neuen Prozess.

https://www.youtube.com/watch?v=_j6TiSdKT0A
https://www.youtube.com/watch?v=Jd1bp9eSfwo

Adored kann das Interview nicht kennen

hier erklärt Tom Petersen Carsten Spille im subcontext die neue Strategie ;)

http://www.pcgameshardware.de/Nvidi...-750-Ti-und-Maxwell-Technik-englisch-1109968/

Er erklärt im Prinzip auch wie man die Nvidia user dorthin bekommen will aufzusteigen (Gameworks).
Compute Performance Skalierung die extreme wichtig durch den Shader count bei Nvidia wird und extreme abfallen kann je mehr CUDA load gleichzeitig per Frame dazu extremes SubD ;)

Wenn man das nicht möchte dann hat man immer noch die Möglichkeit von G-sync und der Kreis schliest sich. ;)

Was das angeht ist Vega sehr gut aufgestellt gegenüber Nvidias jetziges Midrange die steigende Compute Last ordentlich zu bewältigen.

Final Fantasy 15 wird spannend es ist Nvidias Killer App noch mehr zur 1080Ti GP102 zu buchsieren.
 
Zuletzt bearbeitet:
Zurück
Oben