Test Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten

Status
Für weitere Antworten geschlossen.
Blade0479 schrieb:
Ja das war auch fast klar :D Würde mich nur interessieren ob mehr (uninformierte) Miner oder Gamer gekauft haben.

Nunja das Beta 6 lässt hoffen.. Aber ich glaube nicht an einen 1080ti Killer.. Vllt zwischen 1080 und TI also 10-15% mehr .. Mehr aber auch nicht.. Und selbst mit Undervolting vermutlich immer noch bei 70-100W mehr als Pascal.. Okay istn HPC Chip und Pascal ein Kastrat aber für mich wäre die Karte nur interessant als P2000/4000 Konter. Und ich weiß nicht ob die Pro Treiber laufen, denn dann wäre es die bessere Option zur FE

@GTR:
Nana 509€ bei mir ;) Und 499$ also ohne Märchensteuer und EU Zuschlag..
 
Ich wüßte zu gerne mit welcher Hardware ihr die 1,3 Gbyte/s im Video-Encoding dauerhaft erreicht habt.
 
Die Vega 56 gefällt mir nicht schlecht. Scheint der gute Mittelweg des Chips zu sein.
Mal sehen wie die Custom Kühler dafür werden. Mehr als 400€ dürfen sie aber nicht verlangen.
 
Zuletzt bearbeitet:
Mir kommen die Tränen, mit einem Jahr Verspätung zu Nvida bringt man ne Karte auf den Markt die zwischen 30-50% langsamer ist bei gut 75% mehr Stromverbrauch. Schöner Rohrkrepierer Verbesserungen hier und da und bringt trotzdem nichts. Der teure HBM2 Speicher vergammelt auch schon wie bei der Fury, bringt nichts außer teuer. Da kann sich Nvidia noch lange entspannt zurücklegen und weiter ihre "alte Hardware" weiter verkaufen, den Konter kann man weiter in der Schublade lassen. Hätte AMD besser auch gemacht, für die Leistung (als Gamerkarte!) ist es erbärmlich leider zu dem Zeitpunkt.
 
Zuletzt bearbeitet:
@ Tidus1979

Gamersnexus hat beim PT+50% angesetzt, PT+20% sollte die Leistungsaufnahme daher nicht erhöhen und bei ~230W nach CB halten.
 
Morganhold schrieb:
Ich wollte mit dem Beispiel, was offensichtlich AMD in diesem Spiel sehr gut dastehen lässt, nicht aufzeigen, dass AMD besser als Nvidia ist, sondern, dass das reine betrachten der durchschnittlichen FPS nicht dem realen Spieleerlebnis entspricht.

Damit hast du recht. Viel interessanter sind die 99th Percentiles, die im Endeffekt das wiedergeben, was die GPU im worst case liefern kann. Bei Ryzen hat AMD das gut umgesetzt, bei Vega aber absolut in die Tonne gegriffen.
 
werder96 schrieb:
Stand da eigentlich irgendwo drinne wann die RX 56 veröffentlicht wird?

Am 28.8.
Schrank schrieb:
GamersNexus hat keine Vega erhalten, da sie vorzeitig in ihrem Wärmeleitpaste-Video, Threadripper-Temperaturen gezeigt haben, wobei andere Reviewer die Temperaturen schon zeigen durften, und haben deshalb ihre Informationen geleakt. Hier der Terminplan.
  • Unboxings und Fotos für Vega 64 und 56 am 12.8. ab 17:00, also der Artikel hier
  • Leistungstests und Reviews für Vega 64 und 56 am 14.8. ab 15:00
  • Verkaufsstart der Vega 56 am 28.8.
 
Schrank schrieb:
Mit dem direkten Link kann man die Standard-Version noch in den Wahrenkorb legen.

Aber mal Hand aufs Herz 600€ für das Gebotene ist zuviel, bei 500€ wärs okey, ich warte auf die RX Vega 56.

@werder96 28 August steht da....
 
drago-museweni schrieb:
Aber mal Hand aufs Herz 600€ für das Gebotene ist zuviel, bei 500€ wärs okey, ich warte auf die RX Vega 56.

Noch sind es 509€ im Angebot, aber stimmt, 600€ ist zu viel.
Sorry: bei mir zeigt es noch 509€ an, hab sie vorher in den Warenkorb gelebt, ich könnte es noch versuchen. :D
 
Zuletzt bearbeitet:
Im Direktlink sind es 609, das Angebot sehe ich nicht mehr aber es ist auch wirklich kein auch kein gutes, mal sehen wie sich der Preis die nächsten tage verhalten wird....
 
http://www.guru3d.com/articles_pages/amd_radeon_rx_vega_56_8gb_review,34.html

zumindest wird die Rx56 nicht per se zerrissen - bei Guru 3D bekommt sie sogar den " Recommended Button "

Ich denke mal das über den Treiber noch 10 % oder mehr Performance zu erwarten sind und die RX56 im Laufe der Zeit nah an das 1080 Leistungsniveau herankommen wird wenn erst mal alles im Treiber aktiviert ist , das gilt vor allem bei UHD Auflösungen bei denen HBC nen deutlichen Schub bringen kann , da man HBC schon jetzt aktivieren kann ( auch wenn Standardmässig deaktiviert ) , könnten weitere Reviews abklären was dieses Feature bringt
 
Also für alle die unbedingt die 509€ ausgeben würden, in Anbetracht dass es bei Polaris auch so war, lehne ich mich mal aus dem Fenster und orakle - der Mindstar wird sicher die nächsten Tage mehrmals erneuert mit dem Preis, da es ja anscheinend eine gute Verfügbarkeit gibt.
 
F4naTy schrieb:
Gamersnexus hat beim PT+50% angesetzt, PT+20% sollte die Leistungsaufnahme daher nicht erhöhen und bei ~230W nach CB halten.

Power Target erhöht dem Stromverbrauch nur, wenn mehr Strom gebraucht wird, um den Takt zu halten. Selbst bei einem spekulativen PT von +80% hätte die Karte in dem Szenario bei gleichem Takt nicht mehr Strom gezogen. Entsprechend wird bei zu niedrigem Power Target und 230W der Takt niedriger sein und der Vorsprung zur Gtx 1070 schmelzen.

EDIT: Übrigens wäre PT+20% noch ausreichend, um auf 266 Watt zu kommen. Wenn wir von 233 Watt standard ausgehen, sind +20% dann 46 Watt mehr, also 279. Mit PT+20% statt +50% hätte sich also am Ergebnis nichts geändert.
 
Zuletzt bearbeitet:
kisser schrieb:
...der aber nur von AMD unterstützt wird. Ist also genauso blöd wie proprietär.

Nö, die Monitorhersteller dürfen diesen frei verwenden.

Das senkt die Preise der Monitore.

Gsync muss bei NVIDIA lizensiert werden, das zahlt am Ende der Kunde.

btw...

Ich hab mir mal 2 Vega 64er bestellt um rumzuspielen.

Ich bin mir sicher das mit denen noch einiges gehen wird.
Nur wann, ist die Frage.

Die Technik ist wieder mal vom feinsten. Das was auf der Straße ankommt wieder mal nicht.
Sieht so aus als hätte man wieder nichts dazu gelernt.

Das Techniken verbaut sind die Potential haben ist schön.
Leider ist der Performance Rückstand zur 1080ti zu groß um diese bald einholen zu können.

Ich bin echt gespannt auf die ersten AAA Titel, die dafür optimiert sind.
Bis ein neues Battlefield, Witcher, GTA, .... kommt wird es noch etwas dauern.

Einen Wundertreiber der im Durchschnitt mehr als 10% raus holen kann erwarte ich nicht.


Es wird die Spiele Studios dazu brauchen, alles aus der Karte rauszuholen.
Dazu braucht es Marktdurchdringung. (Die AMD nicht hat.)

Höchstens die Vega 56 könnte für den Massenmarkt (über Preis und Rohleistung) noch interessant werden.

Mit ihren 10500Gflops und einer Speicherbandbreite von 484GB/s.

Da sieht die GTX 1070 und 1080 recht mager dagegen aus.
 
Zuletzt bearbeitet:
Blade0479 schrieb:
Also für alle die unbedingt die 509€ ausgeben würden, in Anbetracht dass es bei Polaris auch so war, lehne ich mich mal aus dem Fenster und orakle - der Mindstar wird sicher die nächsten Tage mehrmals erneuert mit dem Preis, da es ja anscheinend eine gute Verfügbarkeit gibt.

Nur kostet ne 1080 Mini das auch und wäre für Spieler derzeit (stand jetzt) die sinnigere Wahl.. Schwierig zu sagen dass ne 64 auch die 509€ wert ist.. Bei 50W Mehrverbrauch wäre es mir auch egal, aber wir reden von im Schnitt fast 100W.. und das merkt man an der kühlung. Die 64 ist weder Fisch noch Fleisch, nen Fail nicht unbedingt aber AMD hat es geschafft den Release der 290X noch zu toppen (im negativen Sinne)
 
-Paperlaunch :freak: keine Grakas Verfügbar
-Leistung zur Konkurrenz ( nach 1 Jahr später , wohlgemerkt ) mehr schlecht als recht :freak:
-Preise (Listenpreise) 400€ bzw. 500€ zuteuer , eher 350€ bzw. 450€ , Straßenpreise sind ein Witz :hammer_alt:
-nur 8GB max. :confused_alt:
-Hoffe die Nano kommt bald in 4-8 Wochen ( zu einen fairen Preis)
-Die Radeon Packs sind mehr durchwachsen :rolleyes: , wenn mal verfügbar
-10-25% mehr Leistung sind realitisch über die nächsten 1-2 Jahre , per Treiber
- CB testet mit Beta Treiber 6 , PCGameHardware mit Beta Treiber 4 ?
...

PS: kein FanBoy

Gehe eher von einen totalen Fehlschlag ( Fehler könnte wohl in der Hardware liegen , wenn man die Test sieht ) aus , nach aktuellen Stand
 
Also die 7950/7970 hat mit der Zeit 10-15% rausgeholt. Wenn dieser Treiber wirklich so übel ist dann kann das deutlich weiter gehen. Mir immer noch alles zu teuer. Wenn die Boardpartner die guten Karten raushauen und die Preise durch die bessere Verfügbarkeit hoffentlich fallen dann gibt es hoffentlich auch Neuigkeiten zu den Treibern. Die 1070 wäre zu ihren besten Tagen gerade so mit meinen Preisvorstellungen vereinbar gewesen, hoffen wir mal das sowohl die 1070 als auch die RX56 unter 350€ fallen in nicht alzu ferner Zukunft (Anfang Q4)
 
IBISXI schrieb:
Gsync muss bei NVIDIA lizensiert werden, das zahlt am Ende der Kunde.

G-Sync ist aber auch eine Hardwarelösung, im Gegensatz zur Freesync-Softwarelösung.
G-Sync Monitore enhalten einen eigenen Scaler, der auf einem Altera-FPGA impementiert ist und hat noch extra RAM auf der Platine.
DSC_4622_575px.jpg
Das kostet schon ein paar Euro.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben