Test Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten

Status
Für weitere Antworten geschlossen.
Vielleicht ändert sich dass zur nächsten GEN alias Navi die soll ja in 7nm kommen und MCM bieten und naja da könnte dass Ryzen Basis Wissen viel bringen. Was NV ja nicht hat und hey schaut Intel an die sind auch sehr überrascht worden von Ryzen.
 
Lol da fehlen plötzlich einige Post's hier. Ich hab ja bischen gemein nach Beweisen oder Quellen gefragt.
Danke fürs interessante Video, ich kann verstehen was gemeint ist. Ich würde es ein wenig umformulieren, AMD hat mit manchen Sachen schwierigkeiten und nvidia nutzt diesen Umstand.


Wenn man sich nochmal die Spiele einzeln hier im CB Test ansieht, steht auch die Vega 64 von der Leistung recht gut da.
Lautstärke und Temperatur kann man einklammern, da es nur die Standardversion ist. Custom wird da viel wichtiger für den Vergleich.
Eigentlich ist nur eine Sache wirklich Übel, der Stromverbrauch. Die 400 Watt hätten nie geknackt werden dürfen :stock:

CB bitte ein paar Tests mit den anderen Bios/Dingens Versionen und Undervolting. Ich konnte von Original 1987 MHz mit 1,05 V auf 2025 MHz bei 1,0 V gehen.
Da würde ich gern wissen ob ähnliches mit Vega möglich ist.

Edit: MK one ich war das nicht. Hab mich gewundert wo dein Post plötzlich hin ist :eek:
 
Zuletzt bearbeitet:
Mcr-King schrieb:
Vielleicht ändert sich dass zur nächsten GEN alias Navi die soll ja in 7nm kommen und MCM bieten und naja da könnte dass Ryzen Basis Wissen viel bringen. Was NV ja nicht hat und hey schaut Intel an die sind auch sehr überrascht worden von Ryzen.

Ne ganze Menge Konjunktiv. Was AMD braucht ist weg von GCN und eine neue Marktpositionierung, denn gegen Nvidia samt CUDA haben sie verloren (Polaris + Vega Series vs Pascal Series); wenn Volta kommt ist AMD Geschichte.

Und AMD hat Zen, Intel hat die OEM's :)
 
Zuletzt bearbeitet:
  1. sind, wie eingangs im CB Test beschrieben, noch viele relevante Leistungseinstellungen im Treiber deaktiviert. Das gibt in der Tat Hoffnung auf einen baldigen Leistungsgewinn, sofern AMD die Treiber hinbekommt. Da NAVI noch lange hin ist, muss AMD zwangsläufig am Treiber arbeiten, um bis dahin im Geschäft zu bleiben.
  2. sind hohe Handelspreise nicht gut für AMD, sondern für den Handel. Der Handel bezahlt einen Fixpreis, der bei UVP und unterhalb (sollten Rabatte notwendig werden) Gewinn für die Händler übrig lässt. Erhöhen die Händler aber den Verkaufspreis, sinkt die Nachfrage insgesamt. Der Händler macht aber trotzdem noch genügend Mehrgewinn, dass sich die Preiserhöhung lohnt. Warum machen sie es dann? Die einzig logische Schlussfolgerung ist, dass AMD zeitnah nicht genügend nachliefern kann und die Händler deswegen a) ihre Bestände nicht abfackeln wollen, ehe kein Nachschub unterwegs ist b) weil sie Mehrgewinne machen
  3. AMD macht nur Gewinn, wenn sie GPU's verkaufen. Da HBM aber noch recht exotisch ist, konnten sie wahrscheinlich keine riesige Mengen für den Consumermarkt abzwacken, da dort die Gewinne viel geringer als im Profimarkt sind - wo AMD ja jetzt fett einsteigen will.
  4. AMD hat die folglich die Schuld an den hohen GPU preisen, da sie nicht entsprechende Stückzahlen liefern können. Das liegt einerseits daran, dass ihr HBM Lieferant nicht liefern kann, andererseits daran, dass der Profimarkt klar präferiert wird. Hätte AMD auf GGDR5(X) gesetzt, hätten sie womöglich die benötigte Stückzahl liefern können, womit selbst bei erhöhter Nachfrage kein Preisaufschlag durch die Händler erfolgt wäre.
  5. Hier ist relativ viel Stuss zu lesen, ich wünschte die Leute würden sich meine Punkte 1-3 durchlesen, um die Situation besser zu verstehen.

Danke fürs durchlesen, ich hoffe, ich konnte so manchen hier den ein oder anderen Ansatz zur Betrachtung der Lage aufzeigen.
 
HerrRossi schrieb:
Meine Güte, ein Tag nach Release und Vega 56 ist noch gar nicht da.

Die 64 ist raus und direkt mal 150 Euro im Preis gestiegen. Warum sollte das bei der 56 anders sein?
 
zandermax schrieb:
Die 64 ist raus und direkt mal 150 Euro im Preis gestiegen. Warum sollte das bei der 56 anders sein?

Also hatte ich mit meinen 650€ doch recht gehabt...

Naja, vielleicht hat ja AMD im Mininggeschäft Glück. Wer sich sowas wie Vega als Gamer kauft hat echt einen an der Fanboy-Klatsche.
 
me666 schrieb:
Also hatte ich mit meinen 650€ doch recht gehabt...

Naja, vielleicht hat ja AMD im Mininggeschäft Glück. Wer sich sowas wie Vega als Gamer kauft hat echt einen an der Fanboy-Klatsche.

Warum das? Ich hab eine HD7850 und bräuchte dringend eine AMD Grafikkarte wegen meinem FreeSync Monitor, welches ich auch gerne benutzen möchte, dementsprechend bleibt mir doch nichts anderes übrig als die RX Vega 56. Natürlich wäre bisschen mehr Leistung und weniger Verbrauch optimal aber was solls, anstatt dass die Nvidia/Intel Fanboys glücklich sind, dass es überhaupt noch eine Firma gibt die dagegen steuern, dass sich keine Monopolen entwickeln und wir alle richtig hart mit Preisen ge***** werden,(was es ja auch zuvor in beiden Branchen CPU bzw Grafikkarten gab), nörgelt man ständig rum und wünsch sich vorallem den Untergang AMD, entweder hat man Geld zu viel oder man kennt einfach die Konsequenzen nicht. Traurig.
 
Zuletzt bearbeitet:
Also erstmal, wenn ich ganz böse wäre würde ich ja fragen weshalb nvidia Nutzer überhaupt G-Sync bei 30fps benötigen. Die nvidia Karten sind doch alle so unglaublich leistungsstark - oder etwa doch nicht?
Ich finde die Frage nicht böse, eher lustig. Die meisten NV Fans kaufen sich jede Generation die Mittelklasse, das wäre dann 770->970->1070 bzw. die 1080 Klasse, wären die Karten so stark wie du annimmst, wäre das gar nicht nötig. Die andere Gruppe kauft sich jede Titan die es gibt. Titan XM; Titan XP, Titan Xp, wohl kaum weil die Karten so leistungsstark sind.

Auflösung mit DSR auf 4k oder höher und die Karten brechen ein. 30FPS mit der neuesten Titan kein Problem.
Oder so wie ich die Karten 4 Jahre lange fahren. Im 3. oder 4 Jahr ist dann dann auch wieder bei 30 FPS angekommen auf max. Details. Umso niedriger die FPS, umso mehr hilft einen der Sync.

Wirklich schade das man bei Freesync noch oft ab 45 FPS vorfindet. Wäre es von Anfang an ab 30FPS gewesen, hätten sich bestimmt mehr dafür entschieden. Aber wenn wenigsten ab sofort alle ab 30FPS Syncen, wäre ein wenigstens ein Anfang gemacht. Zb. bei den neuen HDR nächstes Jahr. Und woher die ab 45FPS Geschichten kommen ist ja wohl klar, die ganzen Tests. Die wurden nämlich noch in der Zeit gemacht wo die nur ab 45FPS gesynct haben.

Die 600€ Vega wird von den Minern gekauft, garantiert nicht von den Gamern.
 
Kasmopaya schrieb:
Die 600€ Vega wird von den Minern gekauft, garantiert nicht von den Gamern.

:watt:
Ich würde sagen genau anders herum. Eine so teure Vega mit hohen Stromverbrauch aber nur wenig Mehrleistung beim Mining lohnt doch garnicht fürs mining.
 
Ich hoffe es gibt in ein paar Monaten wenn es Partnerkarten gibt und einen Finalen Treiber einen Nachtest.

Einen Test mit einem BETA Treiber kann man nicht ernst nehmen.
 
Zaubertreiber gab es noch zu Kepler und GCN 1 Arch Zeiten...mittlerweile sollten beide Parteien ihre Sache im Griff haben (immerhin 5 Jahre Entwicklungszeit) und somit bleibt der Beta Nachteil arg mager bestückt...

Keine Ahnung warum man nach Polaris noch immer nicht wahrhaben will, das GCN einfach nur noch Schrott ist.
 
Zuletzt bearbeitet:
Möglich, ich bin aber immer noch der Meinung DSBR ist nicht aktiv. Wer mir das Gegenteil beweist bekommt ein Bier.
 
Pizza! schrieb:
CB bitte ein paar Tests mit den anderen Bios/Dingens Versionen und Undervolting. Ich konnte von Original 1987 MHz mit 1,05 V auf 2025 MHz bei 1,0 V gehen.
Da würde ich gern wissen ob ähnliches mit Vega möglich ist.

Schau dir mal die review von Techpowerup an.
https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_64/32.html

Kleiner Ausschnitt, bei 4k ist Vega im Powersaver Mode unglaublich gut - Amd hätte die karte genau so bringen sollen. Mit etwas Undervolting in Kombination mit Overclocking bekommt man sicher eine ziemlich geile Kombination hin.
Unbenannt.png
 
r4yn3 schrieb:
Möglich, ich bin aber immer noch der Meinung DSBR ist nicht aktiv. Wer mir das Gegenteil beweist bekommt ein Bier.

Von den Features ist fast oder gar nichts aktiv.
Die werden erst nach und nach aktiviert werden, speziell die Primitiv Shader sollten die Performance steigern, da dies unabhängig ist von der Engine, das macht der Treiber. Hier erhofft sich AMD viel, ist halt schade dass man dies nicht schon beim Launch geschafft hat.
 
@ Kasmopaya

Bei G-Sync ist aber nach einem, mittlerweile älteren (2015), Artikel eventuell auch nicht alles so wie es sein sollte.

So hat PCPer (Dissecting G-Sync and FreeSync - How the Technologies Differ) den Acer xb270hu mit einem Oszilloskopen getestet. In Hinsicht auf das Verhalten von FreeSync zwar mittlerweile veraltet. Aber es geht ja auch um die Sync-Range. Beworben wird der Acer mit 30-144 Hz G-Sync Range. Das Ergebnis war jedoch:

Below that 40 FPS mark ... G-Sync works differently, doubling the refresh rate and inserting duplicate frames starting at around the 37 FPS mark. This continues until the game frame rate hits 19/20 FPS where a third frame is inserted and the refresh rate is increased again. ...

So viel dazu, dass G-Sync, zumindestens bei diesem Monitor, bereits bei 30 Hz ohne Frame Doubling funktioniert. Sieht in dem Artikel eher nach 38 - 144 Hz Range aus.

Leider habe ich bisher keine weiteren Artikel mit der Herangehensweise gefunden um zumindestens zwei Quellen zu haben, die sich gegenseitig bestätigen oder widerlegen würden.
 
r4yn3 schrieb:
Möglich, ich bin aber immer noch der Meinung DSBR ist nicht aktiv. Wer mir das Gegenteil beweist bekommt ein Bier.
DSBR ist 'ne Backend Geschichte; was da noch nicht "aktiviert" sein soll frag ich mich echt...
 
Mcr-King schrieb:
Vielleicht ändert sich dass zur nächsten GEN alias Navi die soll ja in 7nm kommen und MCM bieten und naja da könnte dass Ryzen Basis Wissen viel bringen. Was NV ja nicht hat und hey schaut Intel an die sind auch sehr überrascht worden von Ryzen.

Nvidia baut selber an einem MCM deisgn, anders als Intel die erst jetzt wohl mit anfangen.
Wenn man da wieder mit einer Enterprise DIE und neuen Funktionen ankommt und Nvidia mit einer zurecht geschnittenen für Gamer schaut das genauso aus wie jetzt....
 
Zuletzt bearbeitet von einem Moderator:
me666 schrieb:
Zaubertreiber gab es noch zu Kepler und GCN 1 Arch Zeiten...mittlerweile sollten beide Parteien ihre Sache im Griff haben (immerhin 5 Jahre Entwicklungszeit) und somit bleibt der Beta Nachteil arg mager bestückt...

Keine Ahnung warum man nach Polaris noch immer nicht wahrhaben will, das GCN einfach nur noch Schrott ist.

So wenig Beiträge und doch schon so fies :D

Vega ist eine neue Architektur und demzufolge ist auch wieder Luft in den Treibern. Bei Polaris hat AMD auch deutlich zur 1060 in DX11 Spielen aufgeholt. Mehrere Nachtests haben ergeben das Polaris zur 1060 aufgeschlossen hat. Nvidia hat im gleichen Zeitraum die DX12 Performance der 1060 gefixt. Wie mit Polaris wird es wohl auch mit Vega laufen.

AMD vergeigt Releases halt immer. Das gibt zwar immer viel Raum für Empörung und Angriffsfläche für Shitstormer. Aber nach drei Monaten, wenn Custom Karten und gefixte Treiber verfügbar sind, sieht es immer ganz anders aus als zu Release.

Die Katerstimmung wird auch wieder vorbei gehen. Es war halt mal wieder zu viel Hype vor dem Release in der Luft ;)
 
Cyberkong schrieb:
Einfach mal den Testparkour geändert und schon sieht die Welt anders aus.

Ich mach mir die Welt...

Dabei steht Vega bei CB schon extrem gut da. Bei PCGH ist die 1070 mit der 56 exakt gleichauf. Mich würde echt mal ein UHD Test für die meist gespielten Steamtitel interessieren. So Gurken wie GTA 5 oder Fallout 4 mit Optimierung aus der Hölle. Alles so Dinge die eben nicht extra optimiert werden weil das ja nicht im Fokus der Tests steht.

PS: GTA gibt es bei PCGH und F4 bei HWL. Da würde mich mal ein Nachtest in drei Monaten interessieren. Beide Titel tanzen ja wie erwartet total aus der Reihe.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben