Test Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten

Status
Für weitere Antworten geschlossen.
Numrollen schrieb:
Die 1070 wäre zu ihren besten Tagen gerade so mit meinen Preisvorstellungen vereinbar gewesen, hoffen wir mal das sowohl die 1070 als auch die RX56 unter 350€ fallen in nicht alzu ferner Zukunft (Anfang Q4)

Zu dem Preis wird es beide nicht vor dem Erscheinen der neuen NVIDIA Generation geben. Dazu ist der Markt zu kaputt.
 
Schrank schrieb:
G-Sync ist aber auch eine Hardwarelösung, im Gegensatz zur Freesync-Softwarelösung.
G-Sync Monitore enhalten einen eigenen Scaler, der auf einem Altera-FPGA impementiert ist und hat noch extra RAM auf der Platine.
Anhang anzeigen 637740
Das kostet schon ein paar Euro.

Kann man auch Hardwaredongle nennen ;) Frage dich mal lieber wieso es auf Mobilgeräten ohne geht ;)
Hier der Artikel: https://www.pcper.com/reviews/Graphics-Cards/Mobile-G-Sync-Confirmed-and-Tested-Leaked-Alpha-Driver
 
Ich habs woanders schon gesagt - VEGA scheint ein Technologietestträger zu sein, der seine Stärken selten zeigen kann und von seinen Schwächen ausgebremst wird.
Das wird sich mit der Zeit ändern und mit Generation Zwei steht dann hoffentlich ein ausgereiftes Produkt in den Regalen.

Manchmal muß man einen Schritt zurück machen, um wieder vorwärts gehen zu können - ich drück AMD die Daumen, denn der Markt braucht keine Monopole!
 
Ein beeindruckendes Desaster im krassen Gegensatz zur CPU Sparte! Respekt
 
Hab jetzt die XFX für 509 im Warenkorb.

Hat eigentlich jemand Erfahrung mit XFX? Ich kenn die eigentlich gar nicht...
 
Da hab ich ja mit meiner 1080 die ich vor über einem Jahr gekauft habe alles richtig gemacht.
Ich habe ja schon vermutet das Vega die 1080 ti nicht schlagen wird. Aber das man gerade mal das Niveau der 1080 schafft ist wirklich traurig. Das Preis-Leistungs Niveau ist auch noch schlechter. Dazu noch der deutlich höhere Verbrauch. Ne AMD, das war leider nichts. Das kann man im Prinzip überhaupt nicht mehr schön reden. Selbst die customs können das nicht mehr richten. Ich bin wirklich enttäuscht.

Da wird meine Prognose für nvidias 11er Reihe wohl wahr werden.

1180 = 999 €
1180 ti = 1499 €
1180 Titan = 1999 €
 
Und siehe da: Die bessere Vega Karte wird noch einmal verschoben. Super! :freak:
Also langsam reicht's dann auch mal. 64er sehe ich übrigens auch nur in miserabler Verfügbarkeit zum (noch) miserablem Preis.

Erst gibt's 'nen Termin, zu dem Vega vorgestellt werden soll - keine Karten, keine Tests. Dann gibt's den Termin heute für den Marktstart und Tests für beide Vegas - die 56er wird weiter verschoben, die 64er ist teuer und nur bei wenigen Händlern lieferbar und Designs von Boardpatnern gibt es noch gar nicht.
Davon, dass Vega sowieso schon >1 Jahr im Verzug mal abgesehen....
Eine Enttäuschung nach der anderen. Und dass die 1070er sich immer noch nicht vom Goldrausch erhohlt haben, macht es nicht besser.
 
Zuletzt bearbeitet: (Fehler meinerseits, PC Partner ist falsch ^^)
AMD-Mafiosi schrieb:
Kann man auch Hardwaredongle nennen ;) Frage dich mal lieber wieso es auf Mobilgeräten ohne geht ;)

Da geht es natürlich genau so wie bei Freesync, mit dem variablen Blanking-Intervall, das erst nach dem Erscheinen von G-Sync von VESA in den Standard eingeführt wurde.
Gibt ja auch Freesync-Monitore mit einer Range ab 30 Hz.
 
Zuletzt bearbeitet:
Mutig ein halbfertiges Produkt abzuliefern. - Einen Treiber mit "Freischalt-Potential", der nicht getestet werden konnte.
Im idl ist das schon sehr gut, aber was macht AMD falsch bei der Leistungsaufnahme unter Last? - "Bei Kauf wird evt. noch ein stärkeres Netzteil benötigt."

Ryzen = super, TR = super, VEGA = 3-

Zum jetztigen Zeitpunkt und dem Preispunkt ist VEGA für mich keine Kaufoption.
 
enttäuschend. die 1080 ist jetzt schon mehr als ein jahr alt und wird gerade so erreicht bei doppelter leistungsaufnahme, und die 1080ti, auch schon ein halbes jahr alt, ist noch nicht einmal in sicht... ich bin gar nicht zufrieden mit nVidia als company, aber vom produkt her muss man sich leider eingestehen dass sowohl die mittlerweile alten pascal-karten wie auch die vermutlich kurz bevorstehenden volta-karten absolut konkurrenzlos bleiben.

ich hätte sehr gerne wieder zurück zu amd gewechselt, aber das hier tu ich mir nicht an. ich bin keiner, der aus 5 watt mehrverbrauch den weltuntergang herausprophezeit, aber 150-200 watt mehr merkt man im sommer nach 2 stunden zocken anhand einer 3 grad höheren raumtemperatur. von den auswirkungen auf die restlichen komponenten und die lautstärke ganz zu schweigen. und die ganze geschichte kostet AMD vermutlich wegen HBM und riesenchip etwa das dreifache in der fertigung, was eine 1080 kostet, was bedeutet dass sie auch bei guten verkäufen wohl wieder so gut wie keinen gewinn machen.
 
Info

AMD.JPG
:freak:
 
mh, .. ich weiß nicht. wenn es um die sympathie geht würde ich schon eine vega bevorzugt kaufen, allerdings wäre das wohl zum fenster rausgeschmissenes geld..zumindest wenn es um die mehrleistung im vergleich zu einer 980ti geht.
da warte ich lieber noch ne weile, dann fühlt es sich besser an in eine neue grafikkarte zu investieren.
 
Schrank schrieb:
Da geht es natürlich genau so wie bei Freesync, mit dem variablen Blanking-Intervall, das erst nach dem Erscheinen von G-Sync von VESA in den Standard eingeführt wurde.

Zeigt aber das auch G-Sync ohne das Alterra Ding geht ;)

@Blade:
Die sind ja schon fast Historisch.. Ich wünschte mir EVGA würde endlich mal AMD Motherboards bringen.. nen SR2 für Threadripper wäre schon sexy..
 
Zuerst einmal besten Dank für den ausführlichen Test @ CB Redaktion, auch in Anbetracht des kurzen Testraums/der späten Lieferung durch AMD :)!

Tja, also insgesamt sind die Ergebnisse - zumindest auf die RX Vega 56 bezogen - dann doch besser ausgefallen als erwartet, insbesondere, dass man übertaktet damit dann RX Vega 64/GTX 1080 Niveau im Schnitt erreichen und teilweise überschreiten wird.

Sehr gut finde ich, dass von CB die Mining-Leistung schon getestet wurde und die vorab verbreiteten Befürchtungen sich bisher nicht zu bestätigen scheinen bzgl. einer hohen Krypto-Mining-Leistung und damit besonders hohen Attraktivität für Mining-Firmen.

Auch wenn die Verarbeitung der Referenzkarten wohl sehr gelungen ist und die Ausstattung mit 6 Bios-Einstellungen schon vielversprechend :cool_alt:, so enttäuscht ja leider der Lüfter bzgl. der Lautstärke, selbst bei der RX Vega 56, und somit würde für mich wohl leider nur eine Boardpartner-Karte in Frage kommen, auch wenn die Kühllösung für die kleinere RX Vega wohl ausreichend scheint (angesichts der erreichten Temperaturen).

Abzuwarten bleibt, ob die AMD Preise für die RX Vega Referenzkarten realistisch sind/bleiben werden, oder nicht und wann sich diese gegebenenfalls einpendeln werden?

Mir persönlich wäre die RX Vega 64 trotz der Mehrleistung insgesamt zu stromhungrig, die RX Vega 56 deckt sich aber (positiv) mit meinen Erwartungen, was den Verbrauch angeht, auch wenn der übertaktete Verbrauch (über Niveau der RX Vega 64 und GTX 1080) natürlich nicht gelistet wurde (vielleicht sollte man den nachreichen, denn der wäre sicherlich für viele interessant, wenn auch vermutlich ziemlich hoch).

Was die Übertaktung angeht, so würde ich zumindest für mich das auch nur wenn unbedingt nötig vornehmen ... also mir die Rohleistung nicht reicht, sei es dass man sonst aus einem Free-Sync-Bereich herausfällt oder eine gewisse Spielbarkeit in einer gewissen Auflösung + Detaileinstellungen realisieren will.

Sehr positiv finde ich, dass man sowohl die Turbo/max. Option als darüber hinaus noch guten Übertaktungspielraum bei GPU und Speicher hat, und zwar bei beiden Kartenmodellen. Da hat AMD wohl deutlich dazu gelernt und sich der Kritik des geringen Spielraums bei den Fiji GPUs bspw. angenommen.

Negativ sehe ich nicht wirklich, dass die RX Vega Architektur noch so viel verstecktes Potential beherbergt (was Primitive Shaders und HBCC bspw. angeht), wobei bereits aktiviertes Potential wie z.B. beim DSBR bestimmt noch nicht vollends optimiert wurde (wenn es gerade so mit der Implementierung bis zum Marktstart geklappt hat).

Insgesamt sind die Leistungsdaten jetzt ja schon bei der RX Vega 56 auf gutem Niveau und bei der RX Vega 64 auf ordentlichem Niveau, wenn man 'mal vom Verbrauch letzterer im Turbo-/max.-Modus oder bei Übertaktung absieht.

Das Potential und die damit verbundenen Leistungs-, Effizienz- oder etwaige Qualitäts-Gewinne in Zukunft sind natürlich sehr schwer einzuschätzen und sicherlich ist das keine vorbildliche Vorgehensweise AMDs, dass für den Kunden nicht alle Karten offen auf dem Tisch zum Marktstart liegen und man immer noch ein teils unfertige (was den Treiber angeht) GPUs kauft und ein wenig die Katze im Sack (bzgl. Implementierung der Architektur-Features durch Entwickler und weiterer Treibervervollständigung und -optimierung).

Allerdings war klar, dass man - bei all dem was AMD/RTG an Features wohl in die Karte gepackt hat (eine ganz schöne Menge auf einmal, ganz im Gegensatz zu dem was nVidia mit Pascal gemacht hat, da wurde die geschrumpfte Maxwell Basis einfach nur getunt/optimiert bis zum geht nicht mehr) und wie massiv die Architektur zum Teil umgekrempelt wurde - da wohl nicht mit den aktuellen Ressourcen (der Belegschaft/"Manpower" und evt. anfangs - also Ende 2016 - noch dem verfügbaren Budget) hinterher gekommen ist, um alles paletti beim Marktstart zu haben.

Wie ich schon mehrfach zuvor erwähnt hatte, sollte man wohl so fair sein der Architektur einige Monate bis maximal ein halbes Jahr Karenzzeit zu geben um sich vollends entfalten zu können ;).

Hoffentlich gibt es in ca. 6 Monaten dann hier auf CB oder anderweitig einen Testartikel zur Weiterentwicklung der RX Vega Architektur über den Zeitraum seit dem Marktstart um aufzuzeigen, wo dann RX Vega GPUs stehen bzw. gelandet sind (was an "mehr" dazu gekommen ist).

Sehr positiv sind mir noch die Frametimes aufgefallen im Vergleich zur R9 Fury X.

Da nach Anregungen gefragt wurde seitens der CB Redaktion, würde ich einen Test zur Multi-GPU Leistung, also sobald 2x RX Vega 56 oder 2x RX Vega 64 verfügbar sein sollten, interessant finden, auch wenn vermutlich noch keine auf RX Vegas optimierten CF-Profile vorliegen dürften.

Ob sich Infinity Fabric dahingegen besser eignen wird bzw. dafür zukünftig im Treiber vorgesehen sein wird, wäre auch interessant zu wissen (kann man ja evt. bei AMD 'mal erfragen, auch vorausschauend auf die Navi-GPU-Generation ;) )?

Darüber hinaus fände ich es sehr interessant wie die RX Vega GPUs mit unterschiedlichen CPUs harmonieren, also Intel Kaby Lake und Skylake-X als auch AMD Ryzen und Threadripper CPUs. Das nur so als Anregung für weitere Tests zu RX Vega und natürlich gehören später aktivierte Features wie Primitive Shaders und HBCC+Virtual Address Space (VAS) auch dazu.

Der Wolfenstein II Test dürfte ja ein erster Indikator dafür werden, was ein Teil der RX Vega Architektur bei Anwendung (vermutlich anfangs noch nicht Ausreizung) einiger (nicht aller) Architektur-Features noch bringen kann und darauf bin ich schon ziemlich gespannt.

So, jetzt könnte ich natürlich noch auf den Test-Parcours eingehen (mich über die große Anzahl der Spiele bestimmter Publisher äußern und bzgl. nicht mehr zeitgemäßer Spiele oder wirklich anhand der Spielerzahlen eher irrelevanter Spiele), aber das bringt nichts, auch wenn ich einige Titel (wie Total War - Warhammer oder Prey bspw.) vermisst habe.

Im Endeffekt kann man sich ja die Leistung in den einzelnen Spielen anschauen, die für einen selbst vom Genre, Produktqualität oder welchem Kriterium auch immer in Frage kommen und die Leistung der RX Vega 56 in Rise of the Tomb Raider ist dann doch nicht so schlecht ausgefallen für einen nVidia Bundle-Titel (immer noch besser als auf einer GTX 1070), was hoffen lässt, auch wegen des bisher noch ungenutzten/brach liegenden Architekturpotentials der RX Vega GPUs.

Mein persönliches Fazit heißt also erst einmal warten auf die RX Vega 56 Referenzmodelle und wie sich die Kartenpreise entwickeln werden.

Gewiss hoffe ich auf gut ausgelegte Modelle (abseits der zu erwartenden von den Mainstream Boardpartnern, als ASUS, MSI und Gigabyte) von XFX, Sapphire, Powercolor und evt. auch HIS und fortschreitenden Treiberausbau und weitere -Optimierung sowie breite Implementierung durch Entwickler und nicht nur durch Bethesda (wobei Far Cry 5 ja auch genannt wurde, obwohl es UbiSoft).

Naja, 'mal sehen was da noch so alles kommt und wie es sich entwickelt, wobei ich die RX Vega Dishonored 2 Leistung zugegeben überraschend bescheiden/enttäuschend fand.
 
Zuletzt bearbeitet:
SirMiles schrieb:
Kauft euch die effiziente nvidia um dann das geld bei GSync reinzustecken, sehr klug :)

Ist auf jeden Fall leiser und bei einer dicken Grafikkarte sollte man im besten Fall ohnehin auf G- oder Freesync verzichten können, da man oberhalb des Bereichs "arbeitet".
 
AMD-Mafiosi schrieb:
Zeigt aber das auch G-Sync ohne das Alterra Ding geht ;)

Natürlich geht das, aber wie bei Freesync für eine gute Qualität nur mit dem richtigen Panel und dem VBlank, das erst nach dem erscheinen von G-Sync in den VESA-Standard aufgenommen wurde, weil G-Sync so gut ankam.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben