Bericht Radeon RX Vega 64 & 56: Details und erste Benchmarks zu den Vega-Grafikkarten

foxio schrieb:
Wie kommst du auf 350W Peak? Wurde die Karte schon vermessen?`

Nicht vollkommen da es noch Workloads gibt wie das Streaming was keiner zusätzlich beachtet ;)

Die Vega FE auf Maximal 380 W im PCPer test ;)

Die RX Vega wird mit 350 bzw 375 W Spezifiziert je nach welchem Shader Count und Takt Ausreizung.

Bis auf die VEGA Nano die erhält den vollen Shader Count und der Verbrauch wird durch den takt auf 150 W gedrosselt, was im Berreich der GTX 1070 liegen sollte.

Allerdings hat die GTX 1070 absolut nicht diese Shader Power zu bieten ;)

Und genau darauf werden die Miner ein extremes Auge werfen.

Und wie gesagt es wird oft der Fehler gemacht das Customs hier verglichen werden das ist absolut Falsch Customs werden minutiös ausgebeutet was ihre Konstruktions Effizienz angeht meist ist der Verbrauch und Preis höher.

Weil ja auch letzendlich die Balken beim Review 1 FPS vor dem höchsten AIB gegner stehen sollen ;)
 
Zuletzt bearbeitet:
Grundkurs schrieb:
Da das High-End von heute das Mid-Range von Morgen ist, ist diese Aussage völliger Quatsch. Das würde im Grunde bedeuten, dass AMD aufgehört hat zu versuchen, ihre neuen Produkte schneller als die älteren zu machen.

Wieso? Das Mid-Range von heute ist das Low-End von morgen ;)
Ich denke mal dass die PC-Simulation der Hardware andere Werte herausgespuckt hat.
Ich freue mich jedenfalls auf die Tests
 
Cru_N_cher schrieb:



Das sind aber TDP-Angaben - man kann diese Werte nicht mit kurrzeitigen Peaks der elektrischen Leistung vergleichen, wie es bei tomshardware gemessen wurde. Deshalb bildet ja Tomshardware auch den Mittelwert der elektrischen Leistung.... weil der den Stromverbrauch und die benötigte Kühlleistung bestimmt.
 
Zuletzt bearbeitet von einem Moderator:
foxio schrieb:
Das sind aber TDP-Angaben - man kann diese Werte nicht mit kurrzeitigen Peaks der elektrischen Leistung vergleichen, wie es bei tomshardware gemessen wurde.

Das ist richtig es kommt zudem auf das Workload und API an mit DX 11 wird man wohl nie den Maximum Peak erreichen ;)

mit Vulkan und OpenCL schon eher

Es ist glücklicherweise alles Adaptiv geworden nur hat halt auch seine Nachteile in der Netzteilauslastung vor allem wenn die Switch Zeiten immer Brutaler werden und wir hören es ja teils mittlerweile wie in einem Mini Trafohaüschen ;)

Deswegen tendiere ich auch zu Intel seinem SDP (Scenario Dependent Power) das trift den Nagel am genauesten.


Und genau in diesem ganzen wird auch OC immer komplizierter einzuschätzen im Zusammenhang mit der Systemstabilität und möglichen Fehler zu Hauf bei Nvidia zu beobachten gewesen ;)

Bis zum Extreme (Einführung des Debug Modes im Treiber das einfrieren aller AIB Bios Tunings).
 
Zuletzt bearbeitet:
swoptrok schrieb:
Ich bin wirklich sehr gespannt, was Vega56 kann und wieviel Potential zum Undervolten da ist.
Das wäre die Karte die mich interessiert. Wenn da Murks raus kommt, wird die nächste Karte wohl eine von den grünen. Schade um den Freesync Monitor, aber immerhin die 144hz bleiben mir (die nvidia sicher locker schafft) :freak:

müsste ganz gut gehen http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/2/#a5

ist zwar die Vega FE und nicht die RX , aber halt derselbe Chip
Update 13.07.2017: Undervolting
Mittlerweile haben wir uns einige Stunden mit dem Undervolting der Frontier Edition befasst und können viel Gutes berichten. Nachdem die Karte bereits alle Spiele-Tests mit 1.600 MHz bei nur 1,1 statt 1,2 Volt abgeschlossen hatte (siehe Benchmark-Abschnitt dieses Artikels), haben wir die Spannung testweise weiter gesenkt. Mit 1,075 Volt via Wattman ist unser Exemplar aus dem Einzelhandel immer noch rockstable, alle Spiele-Benchmarks laufen problemlos und ohne Grafikfehler mit 1.600 MHz durch. Die Leistungsaufnahme des gesamten PCs bewegt sich dabei auf dem Niveau der Werkseinstellung, obwohl wir das Powerlimit auf +50 Prozent gesetzt haben. Letzteres stellt sicher, dass sich die Radeon Vega Frontier Edition nicht zeitweise drosselt, sollte sie ins Powerlimit laufen. Außerdem gestatten wir der Karte eine höhere Lüfterleistung. Mit 1.060 Millivolt (ob diese Spannung 1:1 gesetzt oder direkt auf 1.050 Millivolt gewechselt wird, wissen wir noch nicht) kam es zum ersten Absturz.
Die Ergebnisse zeigen erstens, dass der Chip enorm von Undervolting profitiert und zweitens, dass Vega sich deutlich höher takten lässt als Polaris - letzterer ist kaum stabil über 1,45 GHz zu bekommen, geschweige denn auf 1,6 GHz bei so wenig Spannung. Wir werden die Leistungsaufnahme und Effizienzgewinne weiter untersuchen.

um noch nen bisschen Licht ins dunkel zu bringen ..

http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/3/

Viele neue, speziell der Gaming-Performance zuträgliche Funktionen, so heißt es im Internet nebulös, seien noch gar nicht im Treiber integriert. Mit der 2nd Stage Boss-Demo haben wir offenbar einen Anwendungsfalle gefunden, wo Vega seine Stärken ausspielen kann. +72 Prozent Leistungszuwachs gegenüber der Fury X sind schonmal eine Ansage - und verorten die Vega Frontier Edition dort, wo viele AMD-Fans sie sehnlichst erwartet haben.
Ob diese Performance ein (absoluter) Ausreißer oder ein Indiz für die künftig zu erwartende Leistung ist, lässt sich bisher noch nicht mit Gewissheit sagen - eines jedenfalls steht fest: Potenzial hat Vega.



getestet wurde dort mit der FE nicht RX - also der Profi Karte - weniger zum Gamen gedacht ebenso wie deren Treiber
 
Zuletzt bearbeitet:
Raucherdackel! schrieb:
Wer sagt denn, dass "poor Volta" auf die Spieleleistung bezogen war? Es waren genau zwei Worte:
Poor Volta.

Das wurde nur von allen so aufgefasst :
Armer Volta Chip, Vega wird dich in Spielen zerstören und alle NVIDIA Fanbois demoralisieren!!!einseinself

Anhand des Vergleichs der GPGPU Power der Vega FE und der Titan XP dürfte der Mann nichtmal übertrieben haben, aber das werden wir erst nächstes Jahr erfahren.

Nun, soweit ich mich erinnere hiess es "poor voltage" wobei das "age" durchgestrichen war. Natürlich war das Absicht, aber vermutlich war es von AMD nicht beabsichtigt, dass der kleine Seitenhieb dann zu so einem ("sozial"-)medialem Hype/Trara führt um AMD/RTG im Nacheinein kräftig in den Allerwertesten zu beißen :p.

Wer (ein wenig dämlich, und das war die Aktion) austeilt, muss eben auch einstecken können ;).

Es haben sich ja auch nur die Gamer daran aufgehängt, aber im professionellen Bereich (mit Ausnahme der Kinonische und vielleicht Vega FE, je nachdem wie stark die neuen Titan Xp Treiber ausfallen werden) wird AMD/RTG gegen die V100 überhaupt nichts mehr reißen können vor Navi und nur den Staub von hinten sehen.

Ja, die P100 auf Pascal Basis hat man gut überflügelt/im Griff, aber Volta V100 ist ein ganz anderes Kaliber. Insgesamt denke ich die "poor volta" Sache wurde mehr künstlich aufgeplustert, als sie es verdient hat und natürlich hat sich der ein oder andere nVidianer da ans Bein gepinkelt gefühlt und keinen Spaß/kleinen Scherz verstanden :D.

Einige Glaskugel Aussagen/Prohezeiungen der üblichen nVidia Fans hier auf CB finde ich schon erstaunlich, bevor erste Tests überhaupt vorliegen und hoffe innigst, das die RX Vega 56 heftigst einer überhypten GTX 1070 leistungstechnisch in den Allerwertesten treten wird.

Technisch ist die 56er diesem getunten Maxwell Shrink sowieso mit Ausnahme von Effizienz und evt. Krypto-Mining-Eignung klar überlegen, aber einige hier kaufen trotzdem lieber an der Marktführerschaft orientierend ein und reden sich durch leicht geringeren Verbrauch die Welt schön bzw. rechtfertigen so Ihren Kauf und zahlen lieber noch 'mal 150+Euro für G-Sync oben drauf :lol:.

Ich freue mich jedenfalls schon auf die ersten Custom-Modelle der RX Vega 56 und bin gespannt auf die dazugehörigen Tests im September :).
 
Ich habe zwar auch eine NVidia im Rechner aber wünsche mir das Vega ein Erfolg wird. Umso stärker, billiger und sparsamer Vega wird umso besser für uns Alle!
Keine Ahnung warum hier ein paar NVidia Fanboys den Zusammenhang nicht verstehen und auf Vega herumtrampeln.
 
Grundkurs schrieb:
... High-End von heute das Mid-Range von Morgen ist, ist diese Aussage völliger Quatsch. Das würde im Grunde bedeuten, dass AMD aufgehört hat zu versuchen, ihre neuen Produkte schneller als die älteren zu machen.

Wo lebst Du denn (?), wenn ich eine ganz neue (Titan) Serie innerhalb einer GPU-Generation etabliere ändert sich das gesamte Grafikkartengefüge, anstelle von Einsteiger-, Mittel- und Oberklasse hat es sich seit Titan in Einsteiger-, Mittel-, Ober- und Enthusiastenklasse gewandelt und ist dann in den Nachfolge-GPU-Generationen bei nVidia so geblieben.

Deine Aussage ist völliger Quark, denn es braucht eines weiteren AMD Chips mehr um sowohl Ober- als auch Enthusiastenklasse auf Augenhöhe wie nVidia zu besetzen und wo ist der zweite Vega Chip bitte schön (?) ... na (?) ... nee ... genau ... Pustekuchen, einen Vega 10 Chip gibt es beschnitten und Vollausbau und wogegen tritt dieser an (?) ... hm, 'mal überlegen gegen den GP104 (Oberklasse) beschnitten und Vollausbau und den GP102 (Enthusiastenklasse) beschnitten und Vollausbau.

Wie sah das vorher (letzte 28nm GPU-Generation) bei AMD aus, da gab es Grenada (Oberklasse) beschnitten (R9 390) und Vollausbau (R9 390X) und Fiji (Enthusiastenklasse) beschnitten (R9 Fury) und Vollausbau (R9 Fury X und R9 Nano).

Ergo, wer hier kariert quatscht oder vielmehr schreibt, bist nur Du ;).

Da erinnere ich mich noch an die Herrschaften, die damals die Polaris GPU-Halbgeneration herunter geschrieben haben, weil der AMD Mittelklasse-Chip im Vollausbau (RX 480) nicht mit dem Oberklasse-Chip von nVidia im Vollausbau (GTX 1080) mithalten konnte :rolleyes:.

Was AMD faktisch getan hat, ist die Enthusiastenklasse zum Einstieg in 14nm liquidiert, und jetzt wird erst einmal nur noch die Oberklasse besetzt oder weisst Du etwas von einem leistungsstärkeren zweiten Chip in der RX Vega (Halb-)Generation, vielleicht gibt es einen solchen ja?

Das braucht scheinbar wohl eine Weile bis auch alle das hier schnallen, dass es aktuell (noch) keinen direkten Gegenspieler zum GP102 auf Seiten AMDs gibt (vielleicht, weil die Enthusiasten-Klientel fast alle nVidianer sind und es sich nicht mehr rechnet; also, bravo AMD, alles richtig gemacht :daumen: und dumm gelaufen für nVidianer im Enthusiastenbereich, da diese dort zukünftig wohl noch mehr an nVidia abdrücken werden müssen, weil es keine direkte Konkurrenz/Preisdruck dort mehr gibt :p ) und man sich nur lächerlich damit macht wegen mangelnder GTX 1080Ti (OC) oder Titan Xp OC wassergekühlt Leistung bei RX Vega gestellt herum zu heulen bzw. sich peinlichst darüber zu empören.

Sind die neuen Oberklasse-GPU-Karten (RX Vega) nicht schneller als die der Vorgeneration (Grenada)?

Nun, ich würde jedenfalls denken, dass sie das allemal sind, auch wenn wir noch auf Bestätigung in Form von Tests/Benchmarks knappe 2 Wochen werden warten müssen.

Zuversichtlich bin ich auch, dass sich die 56er und 64er Vega RX GPUs von der Rohleistung her schon zum Marktstart passabel gegenüber der direkten 14nm Konkurrenz (also GTX 1070 und GTX 1080) schlagen werden und im Gegensatz zu den angestaubten Pascal GPUs kräftiges Architektur-/Optimierungspotential haben.
 
Zuletzt bearbeitet:
Was beim Verbrauch von Vega bei THG auch vergessen wird ist, dass die Karte dort bei 270W im Witcher nur noch mit 1270MHz läuft. Die 1600MHz und mehr wird es nur mit 300W geben.
Und was zählt sind natürlich nicht die Spannungsspitzen für ein paar ms. Es zählt der Durchschnittsverbrauch. Sowohl für die Stromrechnung als auch für die Abwärme sind die Spannungsspitzen irrelevant.
 
Hatte das hier vor ein paar Tagen schon mal gesagt:

Die 1080 Ti braucht für 1.7 GHz (durchgehend) allerhöchstens 0.85 V und zieht dabei maximal ungefähr 175 Watt.

Natürlich ist keine 1080 Ti von Werk so sparsam eingestellt und auf den Sweetspot festgenagelt. Darum geht es aber gar nicht.

Besser kann man eigentl. gar nicht mehr aufzeigen wie mies Vega ist. Bei der Leistung, die die 1080 Ti bei 1.7 GHz bringt würde Vega wohl 500 Watt ziehen.
 
Deswegen schreibt ja PCGH auch das sich ihr FE Modell wunderbar untervolten lässt :rolleyes:

Aber interessant was du hier für eigene Erfahrungswerte mit einer RX Vega gemacht hast... Nicht
 
duskstalker schrieb:
amd karten haben schon seit einigen jahren mehr rohleistung als nvidia. dass nvidia mit weniger rohleistung mehr fps hat liegt vorallem daran, dass nvidia einen softwarescheduler für dx10 und 11 hat, der besser funktioniert als der hardwarescheduler von amd (in modernen APIs dreht sich das ganze um) und natürlich weil spiele auf nvidia optimiert werden und auf amd fast überhaupt nicht - ist auch klar bei der zwischenzeitlich auf 15% abgesackten marktanteile bei dedicated gaming gpus - 85% nvidia karten vor polaris. für spieleentwickler lohnt sich der aufwand nicht - sie werden von nvidia bezahlt und mit dev support versorgt, dann kommt noch gimpworks oben drauf.

im prinzip ist jedes gimpworks dx11 spiel für nvidia wie doom für amd. nur dass bei doom jeder "AMD BENCHMARK" schreit, bei gimpworks ist es aber dann die "alltagsleistung". :freak::freak::freak:

Das ist mir schon klar, das ursächliche Problem von AMD ist der HW Renderer der die Shader nicht optimal auslasten kann weshalb AMD mehr Shadereinheiten/Leistung benötigt um NV Leistungstechnisch ebenbürtig zu sein. Nvidia hat es geschafft seit Fremi die Shaderauslastung deutlich zu erhöhen bzw. zu optimieren was in deutlich mehr Leistung bei weniger Verbraucht resultiert, AMD hatte mit Polaris einigermaßen nachgezogen und jetzt mit NCU wieder einen großen Schritt zurückzugehen.

Was man bei Polaris gemacht hat war ein wirklich guter Schritt in die richtige Richtung man hat es endlich geschafft den HW Renderer soweit zu optimieren das man annähernd eine optimale Auslastung zusammenbekommen hat (siehe 5,8TFlops zu 5,0 TFlops) man hat es geschafft die Effizienz deutlich zu steigern.

Dann kam VEGA... ich habe mir davon Versprochen das VEGA diese Optimierungen beibehält bzw. Angestoßen hat weil AMDs Aussage war VEGA ist die "Fortschrittlichste" Weiterentwicklung von GCN und heißt deswegen NCU ...

Fakt ist aber das NCU scheinbar wesentlich schlechter Skaliert als GCN 4.0 warum siehe VEGA mit 12,7TFlops die Grad mal eine 1080 mit 8,8 TFLops erreicht (das ist vieles aber nicht Effizient und daher auch Kostenmäßig verschwenderisch) beides kann AMD sich im Moment in ihrer Position nicht leisten :(

Mag sein das VEGA Technisch gesehen "gut" ist aber die Effizienz fehlt, weil es fast 4TFlops sind die so verpuffen das ist im Bereich der Shaderleistung von einer RX470!!! das muss man sich mal auf der Zunge zergehen lassen, je mehr ich darüber nachdenke desto mehr empfinde ich VEGA in der jetzigen Form als EPIC FAIL von AMD ganz egal wie gut die Treiber in Zukunft werden so lange der Chip nicht Annähernd mit seiner Leistung an eine 1080TI rankommt solange ist die Karte ein FAIL (eben weil AMD scheinbar soviel Leistung als bei jeder anderen GCN Generation ungenutzt verpuffen lässt!)

Meine Vermutung:
AMD muss nächstes Jahr einen deutlich effizienteren VEGA Refresh nachschießen, denn sonst wird es düster ausschauen, Nvidia wird jetzt erleichtert Aufatmen und einen Maxwell Refresh nächstes Jahr nachschießen der Leistungstechnisch die Vega verblasen wird, die Volta werden Sie höchstwahrscheinlich um 1 Jahr verschieben, das hätte den Vorteil das die HBM2 Produktion optimaler Läuft, das Yield besser ist (sprich höherer Takt) und dadurch günstiger im Einkauf wird (was NV eine höhere Marge garantieren würde).

Wenn das so passiert und kein Vega refresch nächstes Jahr kommt, fürchte ich das AMD in spätestens zwei Jahren den Anschluss komplett verloren hat und Marktpositionstechnisch weg vom Fenster ist was für uns alle sehr schlecht wäre.
 
Zuletzt bearbeitet:
Es scheinen hier ja einige Gestalten herum zu laufen, die sich eine Ober- oder Enthusiastenklasse-Grafikkarte vordergründig zum Strom sparen kaufen (anstatt damit etwa zu spielen oder andere ebenfalls sinnvollere Dinge zu machen), einfach zu köstlich :evillol:.
 
ralf1848 schrieb:
Die 3,5 Gbyte waren in der Tat Verarsche, wenn man das so sagen darf.

Also ob ein schlechtes Marketing mit dem wissentlichen täuschen der Konsumenten gleichzusetzen ist, bezweifel ich doch grad mal etwas. Jeder Anbieter verspricht dir das Geilste, ist ja auch normal und gehört zum Berufszweig des Marketing. Aber Nvidia scheint sowas wie das VW der Siliziumindustrie zu sein, nur werden sie dabei nicht noch von staatlicher Stelle in Schutz genommen xD

@Topic:
Wenn die Karte fürs Gaming nicht viel taugt, kann AMD wenigstens auf die ganzen Miner hoffen die guten Umsatz bringen. Nachdem Zen im CPU-Segment ordentlich knallt, fließt nun hoffentlich das Geld zu Raja...
 
Zuletzt bearbeitet:
Diablokiller999 schrieb:
Also ob ein schlechtes Marketing mit dem wissentlichen täuschen der Konsumenten gleichzusetzen ist, bezweifel ich doch grad mal etwas. Jeder Anbieter verspricht dir das Geilste, ist ja auch normal und gehört zum Berufszweig des Marketing. Aber Nvidia scheint sowas wie das VW der Siliziumindustrie zu sein, nur werden sie dabei nicht noch von staatlicher Stelle in Schutz genommen xD

das betrifft nicht nur den Speicher sondern auch den Cache und die ROPs die in der Technischenspezifikation nicht korrekt angegeben wurden daher hat er durchaus recht mit seiner aussage bezüglich der 970 ;-)
 
Benji18 schrieb:
das betrifft nicht nur den Speicher sondern auch den Cache und die ROPs die in der Technischenspezifikation nicht korrekt angegeben wurden
Von der Leistung her war das sicher keine schlechte Karte, aber ich persönlich mag es nicht beschissen zu werden :D
Die zusätzlichen 512MB, die niemand gebrauchen kann, erinnern mich wie gesagt an die VW Schummelsoftware um bessere Werte vortäuschen zu können. Mir kann keiner erzählen, dass das niemand wusste außer ein paar eingeschworenen Ingenieuren. Zusammen mit dem GameWorks-Gebahren, GSync-Knebel und dem Titan Xp "Wundertreiber", der die künstliche Beschneidung aufhebt, ist Nvidia bei mir ganz schön in Ungnade gefallen. Wie gesagt, ich mag es nicht beschissen zu werden ^^
 
@Diablokiller999

das Problem mit dem Speicher finde ich zwar nicht ok (es sind 4GB vorhanden) aber gravierender schlimmer ist es bei den ROPs und den Cache wo man mehr angegeben hat als überhaupt vorhanden war (was einer glatten Lüge gleichkommt).

Was für AMD ein Problem ist das Nvidia mit ihren Karten teilweise ein wesentlich runderes Gesamtpaket abliefern und die jahrelangen Missstände bei den AMD Treibern haben sicherlich diesem Umstand nicht verbessert (auch wenn das jetzt aus meiner Sicht kein Problem mehr darstellt im Gegenteil ich empfinde den AMD Treiber als "Ausgereifter" in gewissen Dingen als der Treiber von NV).

Das ist halt scheinbar so wenn man eine Starke Position in einem Markt hat, da verteidigt man diesen mit allen Mitteln und man versucht die Kunden möglichst lange an sich zu binden siehe Gameworks, Gsync.
 
Zuletzt bearbeitet:
Zurück
Oben