Bericht Radeon RX Vega 64 & 56: Details und erste Benchmarks zu den Vega-Grafikkarten

steahouse schrieb:
Es hat etwas mit Marketing zu tun, wenn AMD sich die Spiele heraussuchen, in denen bei ihnen die Frametimes besser sind. Nimm CoD aus der Liste heraus und die Frametimes sind nicht mehr besser als bei der 1080 oder der 980ti.
Hier wird versucht eine Legende der besseren Frametimes zu stilisieren.
Nö, schon in den Tests zu Polaris stellte sich heraus, dass AMD im Durchschnitt bessere Frametimes bietet.
steahouse schrieb:
CoD ist ein Ausreisser durch einen Treiberfehler.
Ich dachte NVIDIA Treiber haben keine Fehler und sind immer perfekt? ;)
Chismon schrieb:
Ein sehr valider Kritikpunkt :), der "poor volta" Ausschnitt war sehr unglücklich und unnötig gewählt, wurde (sozial-)medial aufgebauscht/gehyped und AMD/RTG hätte sicherlich bekunden/klarstellen können sollen, dass man GPUs im Leistungsbereich der GTX 1080Ti und Titan Xp fortan nicht mehr abdecken will, weil es sich für AMD selbst nicht lohnt (Forschung- und Entwicklungskosten für diese Nische nicht in Relation zu Absatz und Gewinn stehen) und man eben keine Prestigeobjekte à la Titan braucht bzw. sich derzeit noch bereit ist zu leisten.
Wer sagt denn, dass "poor Volta" auf die Spieleleistung bezogen war? Es waren genau zwei Worte:
Poor Volta.

Das wurde nur von allen so aufgefasst :
Armer Volta Chip, Vega wird dich in Spielen zerstören und alle NVIDIA Fanbois demoralisieren!!!einseinself

Anhand des Vergleichs der GPGPU Power der Vega FE und der Titan XP dürfte der Mann nichtmal übertrieben haben, aber das werden wir erst nächstes Jahr erfahren.
 
Zuletzt bearbeitet:
Hallo zusammen,

@ Lars_SHG

...da gibt es eine logische Erklärung für die hier im Thread ja auch schon mehrfach genannt wurde. AMD ist einfach zu spät dran und durch das ewige verschieben war Vega vermutlich auch nur als Wettbewerber zu GP104 gedacht. 100% stimmig ist das aber auch nicht, da Vega ja ein Big-Chip ist und GP104 ja nur die Mittelklasse von nVidia.

Ich habe mich vielleicht etwas Oberflächlich ausgedrückt. Gemeint war der Wechsel zu einer anderen Architektur im besonderen, zumal man diesen Schwenk mit Ryzen vor allem hinbekam, weil man eine völlig Neue Architektur ausführte. Dies also diametral bei den GPU`s ebensolch hätte vornehmen sollen. Es war doch seit langem absehbar, daß GCN hier schwächelt und die Relation in keinster Weise mehr stimmt, egal in welcher Ausbaustufe von GCN.

Wie auch immer, nVidia hat jetzt keinen Druck und ich bin gespannt auf die Reaktion.
Ich vermute das man Pascal etwas günstiger macht und einen langen Abverkauf daraus generiert.

Warum überhaupt soll Nvidia denn Reagieren? Aus meiner Sicht ist gar kein Grund gegeben. Erst Recht wenn man bedenkt, daß die bisherigen Leistungsdaten zu Vega von AMD selbst sind und mehr oder minder die Optimistichsten Fälle veröffentlicht wurden. Denk nur mal an die RX 480. Da stellte sich nicht weniges hinterher auch als Luftnummer heraus. Will Sagen, der Verbrauch von Vega steht zu befürchten, daß er noch höher sein wird und die Performance eher noch schlechter.

Ich hoffe es nicht, aber nach bisheriger Erfahrung steht genau dies zu befürchten.

So long...
 
Zuletzt bearbeitet:
Luxmanl525 schrieb:
Denk nur mal an die RX 480. Da stellte sich nicht weniges hinterher auch als Luftnummer heraus.
So? Was denn? Der Verbrauch steht ja schon fest, der resultiert AMD typisch durch eine recht hohe Spannung. Wie Bei Ryzen mit seinem 4,1 GHz Boost wurde die RX480/580 "ganz knapp auf Kante genäht", eine geringe Drosselung der Taktrate kann hier zu einer relativ hohen Effizienzsteigerung führen, die gar nicht mal so weit weg von der GTX 1070 entfernt ist - wenn man jetzt nur die Effizienz bei Spielen betrachtet. Bei GPGPU steht AMD effizienztechnisch eh besser da...
 
Hallo zusammen,

@ Raucherdackel!

Der Verbrauch steht ja schon fest

Es stehen die Werte fest, die AMD veröffentlicht hat. Und da du die RX 480 so schön nennst, erinnere dich mal daran, wie sich die Verbrauchswerte seinerzeit nach Veröffentlichung zu den von AMD veröffentlichten Werten Real unterschieden. Und ähnlich wird es hier auch sein. Es ist einfach so, daß aus Marketinggründen üblicherweise die Optimalsten Werte unter Optimalsten Bedingungen veröffentlicht werden. Was nicht nur AMD so handhabt, sondern Nvidia ja auch bei einem Nagelneuen Produkt.

eine geringe Drosselung der Taktrate kann hier zu einer relativ hohen Effizienzsteigerung führen, die gar nicht mal so weit weg von der GTX 1070 entfernt ist

Die Stock GTX 1070 zieht ca. 150 Watt. Deine Silben bedeuten im Kern, daß man mit ein wenig Drosselung der Taktrate einer Vega von ca. 345 Watt in die Nähe einer Stock GTX 1070 kommen könnte. Sorry, nicht böse gemeint, aber das ist lächerlich. Und noch was, eine GTX 1070 läßt eine Drosselung des Takts auch zu.

So long....
 
Zuletzt bearbeitet:
Sorry - als Gegenstück zur 1070 sehe ich eher die Rx56 , die hat 210 Watt , mit etwas undervolting kriegt man die auf 170 Watt , schätz ich mal , senkt man den Takt zusätzlich um 100 Mhz wird man wohl auf 150 Watt kommen können , welche Leistung dann übrigbleibt wird man sehen .

Schau dir mal den Verbrauch der R9 Fury und den der R9 Nanoan , dann siehst du was nur 100 mhz an Takt an Strom sparen kann
 
Luxmanl525 schrieb:
Die Stock GTX 1070 zieht ca. 150 Watt. Deine Silben bedeuten im Kern, daß man mit ein wenig Drosselung der Taktrate von ca. 345 Watt in die Näher einer Stock GTX 1070 kommen könnte. Sorry, nicht böse gemeint, aber das ist lächerlich. Und noch was, eine GTX 1070 läßt eine Drosselung des Takts auch zu.

So long....
Ähm... warten wir mal die Vega Nano ab, die dürfte sich dann auch leistungstechnisch bei der 1070 befinden. Vega mit der 1070 zu vergleichen ist ...ein wenig sehr überzogen. Außerdem hatte ich nicht Vega gemeint, sondern Polaris. Die Polaris, die 345W zieht darfst du mir aber gerne mal zeigen :lol:

Chismon schrieb:
Ja, auch wenn die Vega Karten durch das aktuell angekündigte/gezeigte Nano-Modell etwa mehr dem Angebot an Fiji Karten ähneln und ähnlich diversifiziert Modelle herauskommen mit der 56er und den 64ern, luft- und wassergekühlt, sowie der Nano, ist es fraglich, ob noch eine Dual GPU kommen wird wie die Pro Duo, zumal man - wie vorher schon nVidia mit SLI - bei AMD den CrossFire Support jetzt zurückfahren wird und mit der Vega FE wohl den Bereich der Duo Pro abdecken wird.
Dieser Umstand dürfte aber wesentlich DX12 geschuldet sein. Mit DX12 Multi-GPU braucht man ja kein SLI/CF mehr. Auch Mischbetrieb ist damit problemlos möglich, sogar Mischbetrieb mit NVIDIA, Intel oder AMD: https://www.computerbase.de/2015-05...adapter-rendern-grafikkarte-und-igp-zusammen/
 
Zuletzt bearbeitet:
Raucherdackel! schrieb:
Nö, schon in den Tests zu Polaris stellte sich heraus, dass AMD im Durchschnitt bessere Frametimes bietet.

Ich dachte NVIDIA Treiber haben keine Fehler und sind immer perfekt? ;)

Wer sagt denn, dass "poor Volta" auf die Spieleleistung bezogen war? Es waren genau zwei Worte:
Poor Volta.

Das wurde nur von allen so aufgefasst :
Armer Volta Chip, Vega wird dich in Spielen zerstören und alle NVIDIA Fanbois demoralisieren!!!einseinself

Anhand des Vergleichs der GPGPU Power der Vega FE und der Titan XP dürfte der Mann nichtmal übertrieben haben, aber das werden wir erst nächstes Jahr erfahren.

Nö. Gegen eine GP100 Quadro (und jetzt auch die Titan) sieht Vega nicht sehr gut aus. Da sieht sie gegen GV100 erst recht keinen Stich. Leute, man kann auch einfwch mal einsehen, dass das ganze ein Schuss in den Ofen war.

Und nein, Polaris bietet im Schnitt keine besseren Frametimes, wenn man ihn mit Karten ähnlicher Speicher Ausstattung testet.

http://www.guru3d.com/articles_page...x_1060_fcat_frametime_analysis_review,17.html
 
Zuletzt bearbeitet:
Ich bin wirklich sehr gespannt, was Vega56 kann und wieviel Potential zum Undervolten da ist.
Das wäre die Karte die mich interessiert. Wenn da Murks raus kommt, wird die nächste Karte wohl eine von den grünen. Schade um den Freesync Monitor, aber immerhin die 144hz bleiben mir (die nvidia sicher locker schafft) :freak:
 
Hallo zusammen,

@ Raucherdackel

Außerdem hatte ich nicht Vega gemeint, sondern Polaris. Die Polaris, die 345W zieht darfst du mir aber gerne mal zeigen

Du hast die RX 480 / 580 genannt als Beispiel für Vega, was man mit reduzierter Spannung Respektive des Stromverbrauchs noch heraus holen kann. Ich habe lediglich auf die entsprechenden Verbrauchswerte von Vega aufmerksam gemacht. Im Prinzip darauf, daß hier das Verhältnis so nicht beispielhaft sein kann.

Egal welches Äquivalent von Vega du nimmst, du wirst durch Absenkung der Spannung nicht in Hemisphären einer GTX 1070 / 1080 kommen. Erst Recht nicht wenn man bedenkt, daß eine solche Maßnahme bei diesen ja auch nochmals ebenfalls auch vorgenommen werden kann und muß, um einen Vergleich wirklich Seriös aufzuzeigen. Und damit ja ebenfalls zu nochmals gesenktem Verbrauch führt. Sich im Prinzip nichts ändert im Endeffekt.

So long...
 
Vega mit der 1070 zu vergleichen ist ...ein wenig sehr überzogen.
Einerseits kann man die beiden nicht miteinander vergleichen, Big-Chip gegen Mittelklasse-Chip und so ergibt sich auch der Unterschied in der Leistungsaufnahme.

Das Problem könnte allerdings sein, dass AMD diesen Vergleich dennoch suchen muss, weil die Leistung eben nicht größer ist und der Preis auch in diese Richtung zeigt.
Das ist ja das Dilemma in dem AMD steckt!

Aber warten wir es ab, wir haben alle jetzt ein halbes Jahr auf echte Benches gewartet, jetzt werden wir die letzten 14 Tage auch noch warten können - es sei denn AMD zaubert einen weiteren Geniestreich herauf - Grafikkarte nochmal ohne Treiber oder zumindest mit Ankündigung das es noch einen anderen besseren Treiber geben wird, dann wäre aber wohl auch der letzte AMDler vor den Kopf gestoßen.......
 
Raucherdackel! schrieb:
Wer sagt denn, dass "poor Volta" auf die Spieleleistung bezogen war? Es waren genau zwei Worte:
Poor Volta.

Eben nicht, es waren deutlich mehr Worte... die sich wohl auf einen Fehler bei der Entwicklung von Volta bezogen haben.
 
Beitrag schrieb:
Ich denke die Bulldozer-CPUs sind in der Hinsicht der größte Fehler, den AMD in den letzten Jahren gemacht hat.

so schlecht war bulldozer nicht - amd ist zu früh auf multicore umgestiegen, der markt war noch nicht bereit (ist er auch jetzt noch nicht wirklich, singlecore leistung ist noch zu wichtig) - eine weitere generation der phenoms wäre zu der zeit besser gewesen. erschwerend kommt noch hinzu, dass intel die hervorragende sandy bridge gelauncht hat, die genau das geliefert hat, was der markt verlangt hat. hohe ipc, hoher takt, gute OC eigenschaftenn, relativ günstig (und verlötet) - die geringe IPC und der aufgeteilte cache haben nicht so funktioniert, wie amd sich das vorgestellt hat - die bulldozer architektur war halt ein pokerspiel und amd hat verloren. hätte der markt mit mehr threads etwas anfangen können und wäre sandy bridge nicht so extrem gut geworden, hätten wir bulldozer / piledriver anders in erinnerung. die schlechten amd mainboards sind dann noch die sahne auf der torte - dazu noch die angestaubten chipsätze :freak:

anstatt weiter an bulldozer herumzumachen hat amd aber rechtszeitig die notbremse gezogen und an ZEN gearbeitet. man hätte noch ein paar refreshes von bulldozer in der zwischenzeit heraushauen können, aber die haben selber gemerkt, dass man mit bulldozer in der form gegen intel nichts ausrichten kann und etwas neues her muss. amd hat nach piledriver nichts mehr für den desktop markt nachgeschoben.

parallel werden aber steamroller / excavator in den APUs eingesetzt - amd braucht irgendeine cpu für die APUs. die sind in ihrem einsatzgebiet ziemlich gut. ich kann kaum erwarten, dass raven ridge endlich released wird, aber bis dahin hat bulldozer in diesem gebiet mehr oder weniger gut funktioniert.


DrFreaK666 schrieb:
Vulkan ist der Nachfolger von OpenGL und nicht von AMD. Freesync basiert auf einem offenen Standard und ist nur AMDs Marketingname dafür


blödsinn. vulkan basiert großteils auf amds mantle API (die bspw in bf 4 zum einsatz kam), mantle wurde dann an die khronos group abgegeben und die haben das ganze dann als vulkan weiterentwickelt. vulkan hat mit openGL überhaupt NICHTS zu tun. null. nada. AMD performt unter opengl unterirdisch - wenn vulkan auch nur ansatzweise etwas mit ogl zu tun gehabt hätte, hätte die fury nach dem vulkan patch von doom nicht die gtx 1080 "zerstört".
und selbst mit dem vulkan treiber von nvidia liegt die fury auf 4k nur 12% hinter einer custom 1080. man möchte meinen, dass das für eine 2015 gpu garnicht so schlecht ist.

http://www.pcgameshardware.de/Doom-2016-Spiel-56369/Specials/Vulkan-Benchmarks-Frametimes-1202711/


Benji18 schrieb:
@Raucherdackel!
sei mir nicht böse aber eine Architektur wo ich deutlich mehr TFLOPs benötige um mit einer unteren High End Karte des Konkurente mithalten kann und dann braucht das ding auch noch deutlich mehr Strom naja da kann man auch nicht von "Geglückt" sprechen.


amd karten haben schon seit einigen jahren mehr rohleistung als nvidia. dass nvidia mit weniger rohleistung mehr fps hat liegt vorallem daran, dass nvidia einen softwarescheduler für dx10 und 11 hat, der besser funktioniert als der hardwarescheduler von amd (in modernen APIs dreht sich das ganze um) und natürlich weil spiele auf nvidia optimiert werden und auf amd fast überhaupt nicht - ist auch klar bei der zwischenzeitlich auf 15% abgesackten marktanteile bei dedicated gaming gpus - 85% nvidia karten vor polaris. für spieleentwickler lohnt sich der aufwand nicht - sie werden von nvidia bezahlt und mit dev support versorgt, dann kommt noch gimpworks oben drauf.

im prinzip ist jedes gimpworks dx11 spiel für nvidia wie doom für amd. nur dass bei doom jeder "AMD BENCHMARK" schreit, bei gimpworks ist es aber dann die "alltagsleistung". :freak::freak::freak:

Cool Master schrieb:
Weil es kein Problem ist. Ein Kunde ist ein Kunde da juckt es nicht wer es kauft oder für was er es einsetzt.

doch es ist ein massives problem. ohne amd gpus bei den gamern (kundschaft von spieleentwicklern) gibt es keinen grund für amd zu optimieren. wenn es softwareseitig keinen support für amd gibt, kann man das mit den gaming gpus auch sein lassen.
wie ging denn die geschichte für die HD-DVD vs Blueray aus? blueray war auf einmal weiter verbreitet und BUTZ HD DVD tot.
der autovergleich hinkt mal wieder, weil zwischen straße und auto keine kompatibilität herrschen muss - zwischen gpu und spiel / API schon.


jetzt noch generell zum thema "die große vega enttäuschung":

jede high end generation von grafikkarten (egal ob amd oder nvidia) hat von topmodell zu topmodell von generation zu generation im schnitt ca 30% zugelegt - das ist ziemlich konstant über die letzten ~8 jahre.

R9 390 -> R9 Fury X (ca 30%)
R9 Fury X -> vega (FE) (ca 25%)

vega wird ziemlich sicher noch die 30% knacken, vermutlich sogar etwas mehr schaffen, wenn die treiber fertig sind.

bei nvidia sieht das aber so aus:

GTX 780 -> GTX 980 (ca 30%)
GTX 980 -> GTX 1080 ( >70%)
GTX 780 TI -> GTX 980 TI (ca 30%)
GTX 980 TI -> GTX 1080 TI ( >70%)

nvidia hat es geschafft von einer generation auf die andere mehr als die doppelte übliche verbesserung herauszuholen, statt 30% auf >70%.

es wäre zwar toll, wenn amd hier gleichziehen könnte, allerdings kann man amd hier keinen strick draus drehen, wenn sie "nur" den durchschnitt halten. nvidia ist mit pascal eigentlich eine sensation gelungen - von amd das selbe zu verlangen finde ich daneben. zumal die ganzen verurteilungen jetzt schon kommen, obwohl RX vega noch nichteinmal abschließend gebencht wurde.
 
Zuletzt bearbeitet:
So nochmal also es gibt sogar GTx1080 die knapp 300Watt brauchen witzig ist halt dass immer der Stromverbrauch der GTX FE genommen wird, aber die Leistung der Costums.

Obwohl die leider ohne Bios Heck meistens Müll sind traurige Wahrheit, denn die 5-7 % mehr Leistung wird oft mit massiven mehr Verbrauch erkauft.

So jetzt warum sie Müll sind ganz einfach früher habe ich übertaktet wie ich wollte, aber jetzt kommt PTT und TT und ich kann einstellen was ich will am ende kommt nicht mehr raus.

Genau so die taktraten die meistens nicht mal immer gehalten werden auch Verarsche und von wem kommt es genau NV. Leider mittlerweile auch bei AMD total dämlich sowas im vergleich Intel gibt wenigstens an wan wie viel Turbo anliegt.

Also jetzt mal alle schön runter kommen und auf Test warten freue mich wirklich auf die Nano. :)


@chisom

Kann dir völlig zustimmen ist wirklich so leider.
 
Hallo zusammen,

@ Mcr-King

So nochmal also es gibt sogar GTx1080 die knapp 300Watt brauchen witzig ist halt dass immer der Stromverbrauch der GTX FE genommen wird, aber die Leistung der Costums.

Keine GTX 1080 zieht 300 Watt Strom, auch keine Custom-Lösung. Custom Versionen der GTX 1080 ziehen ca. 210 - 230 Watt. Mit damit einhergehender Skalierung der Performance. Zeig mir mal eine GTX 1080 Custom, die 300 Watt zieht. Du findest mich in gespannter Erwartung. Und selbst wenn, sind 300 Watt immer noch keine 345 Watt. Möglicherweise verwechselst du die GTX 1080 mit der GTX 1080 Ti als Custom Lösung, denn von dieser gibt es Modelle, die 300 Watt Strom Verbrauchen.

Der Stromverbrauch der GTX 1080 FE wird genommen im Vergleich zu Vega, weil nämlich von Vega auch die Stock Verbrauchswerte genommen werden.

Setz deine Fanboy-Brille ab. Sowas soll sehr Erhellend sein. Ansonsten wäre es nett, wenn du den Sinn deiner Silben etwas verständlicher Formulieren könntest. Danke im voraus.

P. S.: "Chisom" war ein Rinderbaron im Wilden Westen. Meines Wissen nach hat der hier keinen Account :evillol:.

So long....
 
Zuletzt bearbeitet:
Wofür steht eigentlich dein So Long..
Am Ende eines posts
Bin jahrelang stiller Beobachter gewesen aber ich musste einfach fragen
 
Zurück
Oben