Test Radeon RX Vega 64 Strix im Test: Asus Vorserie schlägt das Referenzdesign deutlich

hier Screenshots von meiner 1080Ti

mit 120 Hz -> 556/1377 MHz

mit-120.jpg

mit 144 Hz -> 139/101 MHz

mit-144.jpg


Energiebedarf, abgelesen an meiner USV, steigt um ca 49 Watt an.
Das verhalten ist der gleiche, wie vorher an meiner 1080.
 
blue-water schrieb:
hier Screenshots von meiner 1080Ti

Hast du villeicht in der Windows-Energieverwaltung, "Höchstleistung" eingestellt?
Oder im Nvidia-Treiber auf Maximale Performance, dann taktet die Karte nicht mehr runter, wie SKu schon erwähnt hat.
SKu schrieb:
Nur, wenn man Höchstleistung im Treiber einstellt. Ansonsten taktet sich meine GTX1080 trotz 144Hz seit Anbeginn auch korrekt herunter. 253Mhz Core Clock und 405Mhz beim Speicher.
Kann auch sein dass GPU-Z die Karte hochtakten lässt, die Diagramme brauchen auch GPU-Leistung, versuch mal ein anderes Tool wie HWMonitor.
 
Zuletzt bearbeitet:
SKu schrieb:
Nur, wenn man Höchstleistung im Treiber einstellt. Ansonsten taktet sich meine GTX1080 trotz 144Hz seit Anbeginn auch korrekt herunter. 253Mhz Core Clock und 405Mhz beim Speicher.

Meine GTX 1080 geht noch weiter runter ebenfalls 144Hz und WQHD. 139/405. Welchen Hersteller hast du?
 
Nein, gar keine Höchstleistung in Windows Energie-Einstellung oder im Nvidia Treiber eingestellt.
Die Grafikkarte taktet sofort hoch, sobald man höher, als 129 Hz im Nvidia Treiber per Custom Setting geht.
(keine 3D Anwendungen im Hintergrund laufend)
GPU Auslastung lautHWMonitor =0 trotzdem hohe Taktraten...
Ergänzung ()

Asus 1080 Ti
 
Lüfter ausschalten geht schon mal gar nicht.. Naja bin eh kein Asus Fan somit egal.

Zum Thema Effizienz. Was hilft mir wenig Stromverbrauch wenn das Teil dann trozdem heiss oder laut wird dank der Hersteller eigenen miesen Kühlsystemen.

Am meisten muss ich immer lachen wenn sie großspurig von teurer Entwicklung sprechen. Was braucht man da großartig entwickelen?
Ist doch seit Jahrzehnten bekannt wie man so ein Teil leise und gut kühlt. Alles nur Marketinggeschwafel und raus kommt überteuerter Sondermüll.

Gleiches bei Netzteillüfter. Anscheinend kann nur BeQiet leise Lüfter einkaufen und verbauen.
Und dann die AMD boxed CPU-Kühler... jahrelang brachten die nichts zustande.. jetzt mal scheinbar etwas bessser aber die ganz guten Kühler sind wohl auch nur dem teuersten Ryzen vorbehalten.

p.s. Und 3 Taktungsprofile vernünftig verwalten schaffte schon meine gf5800fx aus dem Jahre Schnee über das GrakaBIOS. 2D / Video / 3D (inlusive Ramtakt senkung) Für was braucht man da noch extra Programme die es dann eh nur für WIN gibt?
Was die alle jahrenlang abliefern ist einfach nur lachhaft und ein Trauerspiel.
 
Zuletzt bearbeitet:
Es hat sich noch viel mehr geändert, die Architektur würde aufgebohrt, TBR, primitive shaders, geoeinheiten usw. Und einiges davon ist noch nicht Mal aktiv.
Bei Fiji konnte man nicht mehr viel raus holen da die Architektur schon über die Jahre vorher gereift ist, jetzt sieht es ein wenig anders aus da massig verändert wurde.
 
Lüfter AUS, weil keine Lüfter vorhanden - Wakü steht im Nebenzimmer ;)
Ergänzung ()

Außerdem, die Pascal Serie schaltet ohnehin die Lüfter im Idle aus
 
Schrank schrieb:
Gut dass du das verlinkst, hier ein paar Zitate aus deinem Link.



Vega10 ist Fiji sehr ähnlich.
Hauptsächlich hat sich nur, die Strukturgröße verringert, damit der Takt gesteigert, der VRAM verdoppelt, aber die Speicherbusbreite hat sich halbiert, dafür ist der Speichertakt um einiges höher.

Du hast absolut keine Ahnung. Nur weil die Shaderanzahl gleich geblieben ist, so heißt das nicht, dass Fiji und Vega gleich sind. :rolleyes:
Zwischen NVIDIAs Kepler, Maxwell und Pascal hat sich auch nicht viel verändert, was die Datenzahlen betrifft. Denk mal darüber nach.
Du pickst dir hier nur ein paar Zahlen heraus und der Rest der gesamten Architekturveränderung unterschlägst du dabei.
Vieles davon ist noch gar nicht aktiv oder nur rudimentär aktiv. Da werden ein paar mega Treiberupdates noch folgen, was zu 20-30% mehr Leistung führt, weil Vega nicht Fiji ist!
 
würden zusätzliche 20%-30% Leistung dazukommen (durch Treiberupdates), würde man Vega 64 nicht für 499€ kaufen können sondern für 699€. AMD hat nicht umsonst die GTX 1080 als Gegner gepickt auf ihren Events. Ich erwarte jedoch in LL-API Games hohe Leistung nahe 1080Ti, DX11 Games wie bisher auf GTX 1080 Niveau. Bei mir wirds höchstwahrscheinlich eine Custom Vega 56 (bis max. 450€)
 
Zuletzt bearbeitet:
Und wer ein Freesync Moni Kauft, bindet sich an AMD. Also kaum ein unterschied zu NV.

naja soll jeder Kaufen für was er richtig hält. Egal ob Amd, Intel oder Nvidia
 
blue-water schrieb:
Außerdem, die Pascal Serie schaltet ohnehin die Lüfter im Idle aus

Mag sein .. Wer hindert die Hersteller einen mechanischen Schalter aufzulöten um es dem User zu überlassen ob er das will.
Ui ja muss ja total kompliziert sein das muss sicher alles teuer entwickelt werden.. wers glaubt.

Naja und dann noch die Stromversorgung bei kurzen Karten an der Oberseite. Selten so einen Schwachsinn gesehen.
Um 90 Grad abgewinkelte Stromstecker gibt es nämlich keine.

Und so zieht sich das durch die ganze Branche momentan. Softwareseitig natürlich auch.
Sieht man sich diverse OS- Webseiten- oder Programmdesigns an bekommt man nur noch das kalte Grauen.
 
Zuletzt bearbeitet:
Berserkervmax schrieb:
... meinsten Games kommen von den Konsolen ... was ist dort verbaut ... AMD GPU Somit sind die Spiele schon für AMD optimiert und nicht andersrum..

Die meisten Spiele kommen für alle drei Plattformen: PC, PS4 und XBO, ungefähr gleichzeitig heraus und laufen auch parallel in der Entwicklung, aber - und jetzt kommt's - welche der 3 Plattformen stellt die größten Anforderungen an Entwickler und ist der Gold Standard. Natürlich der PC, weil der - mit der mit Abstand teuersten Hardware bestückt - auch am meisten leisten kann.

Natürlich gibt es noch PC Portierungen von einigen Spielen, die dann aufgebrezelt wurden oder Umsetzungen die (zumindest anfänglich) miserabel auf die PC Plattform umgesetzt wurden wie bspw. Quantum Break, Assassin's Creed Unity oder Batman - Dark Knight.

Ersichtlich ist dieses bspw. aber an der Vulkan und DX12 Verbreitung auf dem PC, die nicht voran kommt/stagniert, weil nVidia daran im Moment noch wenig Interesse hat (die aktuellen nVidia GPUs, auch wegen Mantle als Vorläufer, vergleichsweise schwach in Low Level APIs abschneiden) und den DX11 Vorteil solange wie möglich ausnutzen will (sonst würde man jetzt auch nicht mehr in eine altbackene High Level API wie OpenGL investieren).

Wenn AMD solch eine Marktmacht hätte über die Konsolen, wären die leistungsfähigeren, zukunftsorientierten Low Level APIs schon lange Standard auf dem PC und auch neue/ Architektur-Features (HBCC, HBM2, usw.) und volle DX12.1 Unterstützung würden sich nicht nur bei AMD Gaming GPUs finden sondern auch bei den marktführenden nVidia Gaming GPUs in 14nm, die bisher außer vorbildlicher Optimierung und Tuning nichts wirklich innovatives/bahnbrechendes bieten und die GPU Technik als solche nicht technisch voran bringen.

Bei den meisten zählt scheinbar vorwiegend nur wer die Krone/den längsten Balken hat und womit man am meisten Strom sparen kann und solange das die Hauptkriterien bleiben werden und der Mining-Boom AMD GPUs für Spieler noch künstlich verteuert über das Niveau von gleichklassigen nVidia GPUs, hat AMD einen sehr schweren Stand in dem Bereich.

Das technische Vorzeigespiel der gesamten Videospielbranche ist aber bspw. PC-only und heißt Star Citizen, und bisher laufen die meisten PC Spiele schneller und i.d.R. besser auf nVidia als auf AMD Karten (Ausnahmen bestätigen die Regel), was ja auch logisch ist mit 80% Marktanteil, dem überlegenen Budget und ggfs. propriertären Features wie Gameworks/PhysX.

Allerdings pflichte ich Dir bei, dass bei einem relativen Kollaps des Verkaufs von AMD Mittelklasse GPUs im kommenden Jahr - der hoffentlich nicht eintreten wird - dann eine Menge Leute evt. auch anfangen würden auf Konsolen umzusatteln, neben denen die eher auf nVidia GPUs umsteigen, ganz mit Gaming aufhören oder die Aufrüstung weiter zeitlich nach hinten verschieben werden.

Selbst wenn das geschehen sollte, wird AMD nicht über Nacht vom PC Gaming Markt verschwinden, da gebe ich Dir recht, aber die Grundlage dafür wäre geschaffen und es bräuchte ein ähnlich beeindruckendes Comeback AMDs im GPU Sektor - ähnlich dem im CPU Sektor - um wieder Fuß zu fassen, ernst genommen und gekauft zu werden und wir wissen ja wie lange das bei den CPUs gedauert hat und wie knapp AMD an der Pleite vorbei geschrammt ist.

Davon, dass AMD sich komplett erholt hat was Finanzen, Ressourcen und Forschungsbudget angeht, so dass man auch zukünftig gegen beide Marktführer sicher bestehen kann, sind wir übrigens noch weit entfernt.

Ja, die RyZen CPUs sind empfehlenswert und werden den ein oder anderen Abnehmer finden, aber an der überwältigenden Marktmacht Intels hat sich nicht nicht viel geändert und dann gibt es noch jede Menge Intel-Fans/Ewiggestrige, die AMD aus Prinzip keine Chance geben wollen und wenn man Kunden nur über günstigere Preise zurück gewinnen will, bleiben die Einnahmen und somit zukünftiges Forschungsbudget wieder auf der Strecke (was man gut bei RTG beobachten kann, wo die GPU Sparte auf Kosten des CPU Comebacks darben musste).

Nein, ich weiß auch nicht was die Zukunft bringt, aber rosig sieht es für AMD mit RX Vega aktuell sicherlich nicht aus und somit auch nicht für die Kundschaft und Preisentwicklung im GPU Bereich, bleibt zu hoffen, sie können gute Einnahmen im CPU Bereich generieren, aber die letzten Geschäftszahlen haben das noch nicht in großem Umfang bestätigt und ja, RyZen ist ja auch noch jung und Intel gibt Marktanteile und Kundschaft auch nicht kampflos her, viel Faktoren spielen da hinein ...

Bleibt am Ende zu hoffen, dass RX Vega noch kräftig zulegen kann und AMD/RTG einen größeren Teil des FLOP-Potentials ausfahren wird können, sonst wird es wohl auch der Preise wegen leider ein Flop werden ...
 
Zuletzt bearbeitet:
Mal ne generelle Frage
Begründrt sich der höhere Stromverbrauch
der Vega Serie nicht auf die vergleichsweise höhere Rohleistung aus?
Wenn ich mir die Datenblätter so anschaue
und mit den Geforcen Modellen vergleiche
Kann AMD das Potenzial nicht in den Spielen
bringen?

Sry das ich so außer der Reihe frage aber es interessiert mich iwie
 
Mr.Smith84 schrieb:
Und wer ein Freesync Moni Kauft, bindet sich an AMD. Also kaum ein unterschied zu NV.
Das stimmt nicht wirklich, es würde nur stimmen, wenn man diese Funktion nutzen möchte. Du musst auch bedenken, dass die Hersteller Freesync schon bei jeden herkömmlichen Monitor hinterherschmeißen, beim Monitorkauf achtet der Großteil immer noch auf ganz normale Features wie Reaktionszeit, Wiederholungsrate, Kontrast und Helligkeit, Farbe, HDR, Anschlüsse, Ton und Auflösung.
Wenn dein Argument stimmen würde, dann wären die Marktzahlen für AMD weit höher als die von Nvidia, viele kaufen sich nicht extra einen Monitor mit G-SYNC. Den meisten ist Freesync völlig egal, man hat auch ohne damit überlebt, für viele spielen solche Sachen immer noch keine Rolle. Wenn die meisten sich dadurch binden würden, dann hätten die meisten AMD-Karten Zuhause. Wenn du es wirklich nutzen willst, dann hast du völlig Recht.:)
 
@Timmy

Theoretische Rohleistung hin oder her. Effizienter ist momentan nVidia. Braucht weniger Strom und schafft mehr Frames.
Klar gibt es sicher Anwendungen wo AMD etwas besser dasteht. Nur musst man wissen ob man die benötigt.
Naja und soviel schneller ist die bei Mining wohl auch nicht wenn überhaupt.

Ich seh Vega da wo die alten APUs vor Ryzen waren. Alles m.M.n.halt nicht wirklich konkurenzfähig.
Eher ein Zwischenschritt um hoffentlich später einmal voll mit neuer Technik zu kontern.

Aber irgendwie verliert man im Laufe der Jahre die Lust auf stromfressende laute Heizplatten.

Und solange es Leute gibt die den Herstellern um 500+ Mittelklasse Karten aus den Händen reissen wird sich beim Preis auch wenig bis gar nichts tun und die Verarsche wird munter weitergehen.
 
Zuletzt bearbeitet:
timmy93 schrieb:
[...] Begründrt sich der höhere Stromverbrauch
der Vega Serie nicht auf die vergleichsweise höhere Rohleistung aus? [...]
Ein grösserer Chip / mehr Transistoren, höherer Takt / höhere Spannung; diese Faktoren führen generell zu einer erhöhten Leistungsaufnahme. Wenn man Vega 10 mit Polaris 10 vergleicht, so ist Vega sogar leicht effizienter (Rohleistung/Watt).

[table="width: 500, class: grid, align: left"]
[tr]
[td]GPU[/td]
[td]Die-Fläche[/td]
[td]Anz. Transistoren[/td]
[td]Rohleistung[/td]
[/tr]
[tr]
[td]Polaris 10[/td]
[td]232 mm²[/td]
[td]5.7 Mrd.[/td]
[td]6.03 TFLOPS[/td]
[/tr]
[tr]
[td]Vega 10[/td]
[td]484 mm²[/td]
[td]12.5 Mrd.[/td]
[td]13.04 TFLOPS[/td]
[/tr]
[/table]

[...] Kann AMD das Potenzial nicht in den Spielen
bringen? [...]
Bisher noch nicht, oder nur vereinzelt. In Zukunft gelingt dies hoffentlich mit verbesserten Treibern und Optimierungen bei den einzelnen Spiele-Engines.
 
Zuletzt bearbeitet:
kisser schrieb:
... nicht die Aufgabe des einzelnen Kunden, sich darüber Gedanken zu machen. Das regelt der Markt schon selbst und wenn nicht gibt es da auch noch staatliche Institutionen, die wir (Kunden) dafür bezahlen. ... WEIT von einem Monopol entfernt und "Quasi-Monopole" habe quasi keinen Einfluss auf die Preise. Siehe CPU-Sektor, für die Top-Klasse im Desktop zahlen wird immer noch 1000€ und mehr. Der Unterscheid zu früher ist nur, dass jetzt auch AMD 1000€ Produkte im Sortiment hat, während es zuvor nur Intel war.

Wie man sich auf die Märkte und staatliche Regulierung/ rechtzeitige Intervention verlassen kann, haben wir ja bei der Finanzkrise gesehen ... nee Du, also damit zu argumentieren passt vorne und hinten nicht, besonders was die USA angeht .. Dein Staatsvertrauen in allen Ehren ;). Man hat als Kunde auch Marktmacht und leider wissen viele Kunden diese nicht zu nutzen oder sind sich nicht darüber bewusst.

Früher gab es AMD auch nicht wirklich im HEDT Segment, somit hinkt Dein Vergleich bzgl. der bisher gerade einmal einen 1000 Euro CPU von AMD (und wo wird aktuell dann das Intel Spitzenmodell liegen, fast beim doppelten ;) ... also ist es in Relation zueinander zu sehen) und ich finde es gibt an dem Threadripper Vorstoß von AMD auch nichts auszusetzen (wieso soll man in dem Markt nicht auch ein Konkurrenzprodukt anbieten und Intel "auf die Füße treten"(?), kommt doch der CPU-Entwicklung und den Preisen dort zugute).

Nicht jeder kann sich einen teuren Sportwagen leisten, denn dann wäre ein solcher auch nichts besonderes mehr, aber es spricht eigentlich nichts dagegen einen solchen anbieten zu können bei besserem Preis-Leistungs-Verhältnis als bei der Konkurrenz und analog ist das eben auf Skylake-X vs. Threadripper übertragbar.

AMD/RTG besetzt dafür ja nicht mehr den Enthusiastenbereich bei den GPUs, da die RX Vega10 Karten mit einem Chip nur die Oberklasse gegen nVidia abdecken können, das war mit Grenada (Oberklasse) und Fiji (Enthusiastenklasse) Chips noch anders, aber die Ressourcen wurden eben für den CPU Bereich gebraucht und so lohnend war der Enthusiastenbereich bei den GPUs für AMD wohl nicht, dass man damit wohl noch leben kann aktuell nichts gegen eine GTX 1080Ti und Titan Xp direkt stellen/entgegen setzen zu können.

Na, hoffen wir Du hast recht und dass ein Quasi-Monopol noch in weiter Ferne liegt, das hat man zum Erscheinen von Bulldozer auch nicht gedacht, dass es kommen würde ... also ich finde die Entwicklung (auch durch den Mining-Boom) jedenfalls bedenklich für AMD im Gaming Bereich.
 
Zuletzt bearbeitet:
Mr.Smith84 schrieb:
Und wer ein Freesync Moni Kauft, bindet sich an AMD. Also kaum ein unterschied zu NV.

naja soll jeder Kaufen für was er richtig hält. Egal ob Amd, Intel oder Nvidia

Falsch. Erst einmal muss man das Feature ja gar nicht nutzen, der Monitor funktioniert auch mit einer Nvidia-Karte. Darüber hinaus ist ASync ein freier Standard und man ist daher nicht an AMD gebunden. Es könnte sogar sein, dass Nvidia früher oder später ASync für den Desktop freischaltet, so wie sie es für den Laptop getan haben.

Natürlich bietet von den beiden großen Anbietern von diskreten Grafikkarten momentan nur AMD eine Unterstützung von ASync an - dass Nvidia auf proprietäre Technik setzt ist aber zum einen nicht AMDs Schuld und zum anderen absolut kundenunfreundlich, wofür Nvidia abgestraft werden sollte von dem mündigen Konsumenten.

@kisser @Chismon
Sehr es so wie Chismon. Kissers Aussage ist Schwachsinn. Der Markt regelt sich nicht von selbst und auf staatliche Kontrolle kann man sich nicht verlassen.
 
Zuletzt bearbeitet:
Lamaan schrieb:
... hab mich extra angemeldet, nur um zu sagen, dass ich mir eine Vega 64 bestellt habe und wirklich daran glaube das noch um die 30% Leistung im Treiber steckt, vlt. sogar mehr.
Ich tausche gegen ein Golden Sample der 1070 und mir ist der Stromverbrauch fast egal. Mir ist auch wurst das Volta irgendwann kommt ich finde diese Technik cool.

Finde ich sehr mutig :), hoffentlich wirst Du für Deinen Mut auch belohnt, auch wenn zusätzliche 30% Mehrleistung schon ziemlich optimistisch angesetzt sind; ich fände 10-15% Mehrleistung schon sehr ansprechend und eigentlich ausreichend/überlegen genug für ein ganz klares Kaufsignal in der Oberklasse, wenn die Preise sich dann noch mäßigen sollten.

Dann läge man mit der RX Vega 56 leicht über GTX 1080 Niveau und mit der RX Vega 64 übertaktet etwa leicht unter GTX 1080Ti Stock Niveau, aber das wird wohl noch einige Monate dauern, bis man mit einem solchen Zuwachs rechnen kann und evt. neue Titel brauchen, die das auch aufzeigen wie ein Wolfenstein II oder Far Cry 5 ... ein Star Wars Battlefront II dürfte eigentlich auch gut mit RX Vega laufen, wenn Battlefield 1 jetzt schon jetzt besser auf der AMD Oberklasse läuft als auf der nVidia Oberklasse.

Viel Spaß mit Deiner neuen RX Vega Karte und ich finde Deinen Ansatz sehr löblich technische Innovation belohnen zu wollen und nicht primär nach Rohleistungs-Balkenlänge und Effizienz zu kaufen ;) ...
 
Zurück
Oben