Bericht Radeon RX Vega 64 & 56: Details und erste Benchmarks zu den Vega-Grafikkarten

RuShEr89 schrieb:
Freesync ist für jeden offen, den AMD macht kein mist wie Nvidia mit ihren Gsync mist.

Davon habe ich nicht geschrieben, war das so schwer zu verstehen was ich meinte?


RuShEr89 schrieb:
Wer Nvidia feiert, dem ist nicht mehr zu helfen!!!

Wer so ne Fanbrille auf hat wie du, dem ist auch nicht zu helfen.
 
Mcr-King schrieb:
Richtig nur die selben Leute lachen auch bald nicht mehr die Super deutsche bescheiss Diesel gekauft haben die loser und selbst schuld daran sind.

Es ist wie mit Intel und Qualcomm die haben auch ihre markt macht aus genutzt, was leider zum Nachteil für den Verbraucher ist. Also ich mag HDCP zum Beispiel auch nicht also warum solte ich, dann G-Sync was nix anderes ist unterstützen. Was viele ja machen, aber keine überteuerten G-Sync Monitor die noch nicht mal HDR können. Naja muss jeder für sich wissen, aber bitte schön hinterher nicht jammern also ich Mag offene Standards lieber.

So jetzt aber mal zurück zu Thema also, wenn NV so cool ist warum gibt's von denen mal nicht eine Nano?

Ganz einfach weil kein HBM und noch was DX11 ist langsam schlimmer als DX9 damals was für ein Stillstand.
Genau dass selbe bei den Games leider die Ki immer noch teilweise dämlicher als ein Huhn und und. Genau wie immer wieder auf Single Core zu setzen ist einfach nur lächerlich weil irgendwann kann man da nix mehr steigern, genau dass selbe bei GPUs dann helfen nur noch zwei und mehr. Auch wenn die meisten dass nicht möchten ist es irgendwann unvermeidlich diesen Weg zu gehen.

Wie dem auch sein ich brauche nicht maximale Leistung, davon abgesehen dass da meistens P/L nicht stimmt des weiteren ich nicht glaube dass sowas auf 15-16 CM geht. ;-)

Also Leute erstmal bitte wenigstens Test abwarten des weiteren klarkommt Vega zu spät leider, aber so ist dass wenn man auf neue Technik setzt. Dann kann sowas schon mal passieren ist nun mal so der witz ist auch bei ausgelutschter Technik siehe i9 kann sowas passieren.

Jetzt aber mal was verrücktes stellt euch vor warum Volta wohl leider wieder nix anderes als Maxxwell 4.0 sein wird weil es sicher ist für NV punkt mit GDDRX oder 6 und fertig. Wenn wenigstens mal egal ob NV oder AMD mal eine reine echte DX12 Karte bringen würden die auch DX12 Komplet unterstützt dann würde auch NV kaufen natürlich mit Freesync. ;-)

Aber vielleicht arbeitet AMD nach dem vielleicht nicht so erfolgreichen Vega mal an was völlig neuen, wie bei Ryzen. ;-)

Die Mini ITX x70 serie gibt es doch von den AIBs zu hauf

die anderen das funktioniert Physiikalisch einfach nicht in der Region deswegen ist ja auch x70 interessant weil sie Physikalisch an einem interesanten balance punkt steht :)

Und bei Mobile wurde dieser Punkt mit mehr Shadern ausgebaut.

Die Fiji Nano hat mit der 970 konkuriert unoptimiert unter DX 11 wie das jetzt aussieht weiss ich nicht

Die VEGA Nano ist allerdings einen ticken interessanter durch das jetzt mögliche RPM plus vor allem das sollte teils die Takt verluste kompensieren können :)

Aus der GTX 970 ist die GTX 1060 geworden

aus der GTX 1060 wird mit Volta dann die GTX 2050

und die GTX 1070 wird zur GTX 2060

so funktionierte das seit Maxwell bei Nvidia ;)

Die jetzige höchste Paxwell TI Performance sollte dann nach diesem Shrink Performance system die GTX 2080 werden

Und die GTX 2080 TI eine Performance erreichen die es bis dato so nicht gibt.

Allerdings werden alle Voltas durch RPM einen Performance boost sehen der Maxwell und Paxwell verwehrt bleibt, VEGA usern nicht.

Nvidia wird vor allem VXGI mit RPM weiter ausbauen und dessen Performance für Volta steigern.
 
Zuletzt bearbeitet:
Ja klar, das sind dann halt keine klassischen Multi GPUs wie man sie bis jetzt kannte, den Artikel hatte ioh auch schon gelesen...
 
@Richtofen , warte erstmal auf den Release...Partnerkarten und Treiber.
 
würd ich auch mal sagen , die RX56 als Gegenstück zur 1070 , mal sehn wie sie sich schlägt

bisher ist doch alles nur heiße Luft ... , ich kling mich hier erst mal aus bis Vega tatsächlich raus ist
 
45c16dea26d8bd8a.jpg

Für die Miner wird das bestimmt auch eine spannende Frage: GTX 1070 vs. Vega. Ich schätze mal die Vega wird die Miner mit einer für den Preis guten Rohleistung locken, mit dem Stromverbrauch aber auch wieder etwas abschrecken. Ich hoffe jedenfalls, dass zumindest die 56er den Minern nicht gefällt. Wenn doch, dann muss ich noch mehr Zeit mit der iGPU aussitzen (jetzt ist es 1 Monat) und das will ich wirklich nicht. Mit Grafik runterschrauben hab ich ja kein Problem, die vielen Framedrops und unruhige Frametimes werde ich dadurch aber nicht los.
 
rico007 schrieb:
@Rusher89
Ich wäre für Monitore die Free / G-Sync unterstützen.
Dann kann jeder selbst entscheiden welche GPU er wählt. Aber beide Techniken sind eh nur Nischenprodukte, die für die breite Masse nicht interessant sind. Das ändert sich auch so schnell nicht.

Das ist definitiv was für die Breite masse.
Das Problem ist nur, dass diese absolut NULL Ahnung hat, was Freesync/G-Sync überhaupt ist, oder macht.

Die "breite Masse" weiß nichtmal, was V-Sync ist oder macht.

Und das ist das große Problem. G-Sync und freesync sind nämlich meienr Meinung nach nur Nischenprodukte, weil die MAsse es nicht kennt, und sich nicht informiert.
Fürs Gaming sind die Techniken absolut genial, und die mit ABSTAND beste Entwicklung für PC-Gamer seit Jahrzehnten. Es macht einfach SO nen enormen Unterschied, der selbst bei 165 Hz noch deutlich sichtbar ist (je nach Game / Engine etc)

Für MICH: Von 60 Hz auf 144 Hz ist ein Riesen Satz nach vorne, was "smoothness" angeht.
Dazu noch G-Sync an, und das ist nochmal ein ähnlich großer Satz nach vorne.


Aber du hast Recht. Monitore die Freesync UND G-Sync können. Von mir aus über 2 verschiedene Displayport Anschlüsse. Da zahl ich gerne auch 300€~ fürs Modul mit. Wenn der Monitor seine 10 Jahre hält, und ich mit den nächsten 3-4 Grafikkarten dann keinen Hersteller bevorzugen muss..

Nur denke ich.. Wenn man sich entscheiden MUSS, würde ich mich eher für Nvidia entscheiden. G-Sync läuft oft besser, und Nvidia ist AMD einfach zu weit vorraus... Zumindest was Leistung pro Watt angeht....
14-15 Monate später eine Vega, die die selbe Leistung mit 300 Watt schafft statt 180 Watt ist für mich aus technischer Sicht ein Fail / Flop.
Und wenn AMD hier nicht ne Überraschung liefern kann in Form eines "Wundertreibers", kann meine Meinung dazu einzig und alleine folgende sein:
Jeder einzelne early Adopter der GTX 1080 damals Juni 2016, hat die richtige Entscheidung getroffen, NICHT auf Vega zu warten.


Naja.. Das beste wäre sowieso, wenn man sich einigen kann, und jeder GPU hersteller die selbe VRR technologie nutzt. ^^ Und diese bei Ausnahmslos JEDEM Monitor ohne Nachteile implementiert werden kann.
 
Beitrag schrieb:
Für die Miner wird das bestimmt auch eine spannende Frage: GTX 1070 vs. Vega. Ich schätze mal die Vega wird die Miner mit einer für den Preis guten Rohleistung locken, mit dem Stromverbrauch aber auch wieder etwas abschrecken. Ich hoffe jedenfalls, dass zumindest die 56er den Minern nicht gefällt.

Vega FE macht bis zu 33MH/s. Die GTX 1070 Stock meine ich an die 30.

Stromverbrauch wird nicht viel um sein, wenn man undervolted. Der 14nm Prozess von AMD ist eh recht effizient, wenn man mit den Clocks und Voltages nicht gegen Limit geht.

Aber ehrlich - wer jetzt extra ne Grafikkarte fürs minen kauft, hat eh einen weg. Ist jetzt schon kaum mehr rentabel, wenn man nicht einen besonders guten Stromtarif hat. Aber wenn man grad extra eine Graka dafür anschaffen muss, dauert es Jahre, bis man den Anschaffungspreis wieder herin hat.
 
Darkseth88 schrieb:
Das [adaptive sync] ist definitiv was für die Breite masse. [...]Aber du hast Recht. Monitore die Freesync UND G-Sync können. Von mir aus über 2 verschiedene Displayport Anschlüsse. Da zahl ich gerne auch 300€~ fürs Modul mit.

die masse gibt nichtmal 300€ für den monitor aus. gsync wird wegen dem enormen preisunterschied (im unteren/mittleren preisbereich) niemals die abdeckung erreichen wie freesync. viele kaufen auch aus versehen freesync monitore, weil die sich preislich nicht von non-freesync monitoren unterscheiden. deshalb auch das radeon freesync popup, wenn ein monitor erkannt wird.

nvidia kann sich eine verbreitung von gsync außerhalb von enthusiastenkreisen ordentlich an den hut stecken, während freesync auch in den nächsten fernsehern (+ konsolen) einzug findet. da hilft auch nicht die phantasiegestützte pauschale überlegenheit von g-sync.
es ist aber in der tat so, dass freesync von monitor zu monitor mal etwas besser oder etwas schlechter funktioniert - das ist aber nicht das problem von freesync sondern vom monitorhersteller.

bisher kann man froh sein, dass nvidia sich vor freesync verschließt, denn ansonsten würde amd ein wichtiges argument für die grafikkarten wegbrechen und wir könnten uns auf ein nvidia monopol in 2-3 jahren einstellen. dann wird freesync wieder abgeschafft und gsync 2 ($$$$) eingeführt. hoffentlich liest das jetzt kein lederjackenmafiosi. :rolleyes:
 
Blueline56 schrieb:
Davon habe ich nicht geschrieben, war das so schwer zu verstehen was ich meinte?
Wer so ne Fanbrille auf hat wie du, dem ist auch nicht zu helfen.
Meine einzige Brille die ich habe ist schwarz, passend zum Wetter!
Rot, grün, blau etc. steht mir nicht, daher trage ich nur schwarz.

Sorry das ich dich enttäuschen muss!
Ergänzung ()

Darkseth88 schrieb:
Und das ist das große Problem. G-Sync und freesync sind nämlich meienr Meinung nach nur Nischenprodukte, weil die MAsse es nicht kennt, und sich nicht informiert.
Wahre Worte

Darkseth88 schrieb:
Aber du hast Recht. Monitore die Freesync UND G-Sync können. Von mir aus über 2 verschiedene Displayport Anschlüsse. Da zahl ich gerne auch 300€~ fürs Modul mit. Wenn der Monitor seine 10 Jahre hält, und ich mit den nächsten 3-4 Grafikkarten dann keinen Hersteller bevorzugen muss..
Leider zahlt man für Gsync ja drauf und das sehe ich als Nachteil für den Endverbraucher.
Und leider muss man sich wie du ja sagtest für Apfel oder Birne entscheiden, beides geht leider nicht.
Darkseth88 schrieb:
Nur denke ich.. Wenn man sich entscheiden MUSS, würde ich mich eher für Nvidia entscheiden. G-Sync läuft oft besser, und Nvidia ist AMD einfach zu weit vorraus... Zumindest was Leistung pro Watt angeht....
Was besser läuft kann ich nicht beurteilen, zwar geplant, aber erst 2018
Nvidia ist zu weit vorraus, was aber uns nicht gut tut, hoffen wir AMD bekommt die Kurve.
Aber liebäugle auch gerade mit Nvidia und wenn AMD nichts "gutes" rausbringt werde ich mir einen UHD
mit Nvidia gönnen, passend mit einem Ryzen oder TR.
Take this @Blueline56


Darkseth88 schrieb:
Naja.. Das beste wäre sowieso, wenn man sich einigen kann, und jeder GPU hersteller die selbe VRR technologie nutzt. ^^ Und diese bei Ausnahmslos JEDEM Monitor ohne Nachteile implementiert werden kann.
Leider ein Wunsch denken und wird niemals kommen.



ps. Wait, habe doch die Fanbrille auf....Gsync ist mist und nur Freesync ist gut blablabla
Gut so @Blueline56?:evillol:
Werde alles von AMD kaufen und das 3 fach, sogar wenn diese süßigkeiten etc. bringen, werde ich mich nur noch
davon ernähren!!!
 
Zuletzt bearbeitet:
kisser schrieb:
Solange der offene Standard nur von einem Hersteller unterstützt wird ist der genauso "proprietär", weil man eben an diesen Hersteller gebunden ist.
Er wird dadurch nicht " proprietär". Er ist weiterhin genauso offen und VESA Standard wie bisher.
Sollte der Kunde sich vielleicht mal überlegen ob er für etwas im Desktopbereich einen Aufschlag zahlen sollte.
Denn nvidia nutzt ja zB Adaptive Sync in ihren "G-Snyc" Notebooks... Also nvidia nutzt schon die Technik die dahinter steckt.

rico007 schrieb:
@Rusher89
Ich wäre für Monitore die Free / G-Sync unterstützen.
Weshalb nochmal sollte man nvidia zusätzlich Geld in den Rachen werfen? Weil sie die selbe Funktion gegen Aufpreis anbieten?
Zumindest im Desktopbereich. Bei den "G-Sync" Notebooks wird ja schließlich auch auf Adaptive Sync gesetzt und nicht auf ihr FPGA Vendor ID Lock Modul.

Aber der Kunde von heut denkt ja nicht mit. Anstatt G-Sync links liegen zu lassen - spätestens seit dem Erscheinen des VESA Standards - wird auch noch ein Aufpreis bezahlt.

Langfristig hätte man nämlich eine größere Auswahl an Monitoren, günstiger und die Hersteller würden aufgrund von Konkurrenz die Geräte immer besser machen. Aber lieber "Shut up and take my money"... Manche scheinen es regelrecht verschenken zu wollen.
 
r4yn3 schrieb:
... Frage ist nur ob man dass auch wirklich verkaufen kann nach dem Motto: "Wir haben zwar den kürzeren Balken, aber das bessere Spielgefühl". Man muss den Kunden davon überzeugen können -> Blind Tests.

Also wenn Du Dir das Video von HardOCP anschaust, dann wird am Anfang im einzelnen klar darauf hingewiesen, dass kein "funny business" abgelaufen ist und man nicht mit gezinkten Karten oder künstlichen Begrenzungen/Limitierungen zugunsten AMD den Test durchgeführt hat und damit wohl nicht die Sache ad absurdum geführt hat ;).

Denn dann könnte HardOCP einpacken/zumachen und der ganze Aufwand wäre für'n :watt: ... nicht ;)?

So gesehen wäre solch ein Vorgehen sehr unwahrscheinlich, da glaube ich dann doch eher an einen - auf Doom (4) schon optimierten - Wundertreiber vom AMD Mann (der die AMD Karte wohl installiert haben soll).
 
Jaja, NVIDIA ist der Teufel. :rolleyes:

Man sollte Vega als das sehen, was es ist: eine High End Grafikkarte und ein Technologieträger, und die einzige Karte, die dx12 vollständig unterstützt.

Und wie es Technologieträger so ansich haben, wird die Rohleistung von Vega erst nach und nach genutzt werden. Es wird genauso ablaufen, wie damals zu Zeiten der 8800GTX und der HD3870. Zum Release der HD3870, die über ein Jahr nach der 8800GTX erschien, war AMD ca. 20% langsamer. Nutzt man die beiden Karten aber jetzt mit deren letzten verfügbaren Treiber, wird man schnell feststellen, dass in den gängigen Spielen, die nach dem Release der beiden Karten auf den Markt kamen, sich plötzlich die HD3870 vor die 8800GTX geschoben hat, und je nach Game sogar unglaublich deutlich - teilweise doppelt so schnell als die unglaubliche 88GTX und auch noch schneller als die 9800GT.

Also ich kauf mir demnächst Vega, damit bin ich die nächsten paar Jahre mehr als ausreichend versorgt.
 
Shrimpy schrieb:
... taugen nichts ohne den Kühler abzupellen.
Die einzige Version die man out of the Box nutzen kann ist die 100€ zu teuere AiO,dank Bundle und Plunder da drin...

Zur Sea Hawk braucht man noch ne pumpe und Raidator, und ggf. AiO Lösungen werden nicht unter 700€ fallen. Auch die weiteren zwei Monate warten sind....äh,nö...

Naja, für mich kommen wohl auch nur die Vega RX Custom-Modelle in Frage, die unmodifizerten Referenzkarten wohl doch deutlich überlegen sein dürften, auch wenn die Boardpartner sich vielfach da anfänglich bei Polaris nicht so sehr mit Ruhm bekleckert hat mit den Custom-Modellen.

Nur kommt die wassergekühlte leider nur im Paketdeal (wofür Prey und Wolfenstein 2 eigentlich stimmig sein dürften, aber eigentlich erst ab Kauf des Paket-Monitors oder Paket-CPU-Board-Bundle der Deal richtig lohnt und natürlich hervorragend ist, wenn man beide Paketrabatte wahrnehmen kann).

Ja, stimmt, die Seahawks sind nicht AiO aber solche könnte es trotzdem geben (von MSI oder anderen Boardpartnern), lassen wir uns überraschen ;).

Die Frage ist, wann Du kaufst (sofort zum Marktstart oder eben erst im Frühjahr kommenden Jahres, wenn Volta erscheint) und wie die Nachfrage des Miningmarktes sein wird?

Nicht unmöglich, dass die 700 Euro Grenze schon Anfang des neuen Jahres fällt, auch wenn ich selber frühestens vom März ausgehen würde und es hängt auch davon ab, ob die RX Vega Architektur bis dahin in die Gänge gekommen ist (in einigen Spielen genutzt wird, bis zum ausreizen und hohem Optimierungsgrad wird es auch bei Bethesda wohl noch einige Zeit länger dauern).

Aber ja, klar, als waschechter Early Adopter legt man sich natürlich schon ein Referenzmodell direkt zum Marktstart zu, falls im "Laden um die Ecke" schon gelagert/verfügbar oder bestellt es sobald wie möglich vor :).
 
Ob das warten auf HBM2 es wert war wage ich zu bezweifeln. Naja immerhin hat AMD, von der Leistung her den Anschluß an die Oberklasse geschafft. Auch wenn die Energieeffizienz sehr ausbaufähig ist.
Auf zwei Hochzeiten zu tanzen und jeweils an der Spitze mitspielen zu wollen, ist bei dem geringen Budget fast schon ein Ding der unmöglichkeit. Ich bin ja schon froh das sie an Intel bei den CPUs rangekommen sind und teilweise auch überholt haben. Das ist wichtiger. Intel war schon zu lange ohne Konkurrenz.
Bei den GPUs warte ich bis die Fertigung 7nm erreicht hat erst dann lange ich wieder zu. Bis dahin reicht mir mein MSI 480 Pro Gaming bei Full HD locker aus. Jetzt kommt erstmal der Umstieg vom I5 3570 auf Ryzen.
 
@Be0w0lf: naja, soo effizient sind die 1080er aber auch nicht. Da brauchen die Customs auch bis zu 100W mehr als die Founders...

@chismon: customs sind schön und gut, aber Referenzdesigns haben auch ihre Vorzüge. Zum Beispiel wenns um Kompatibilität und Mod-Bios geht. Oder Kompatibilität zu Wasserblöcken. Oder ganz klassisch: Haltbarkeit.
 
Raucherdackel! schrieb:
@Be0w0lf: naja, soo effizient sind die 1080er aber auch nicht. Da brauchen die Customs auch bis zu 100W mehr als die Founders...

Die sind dann aber auch entsprechend übertaktet.... Wenn die ersten Custom Modelle der 64 und 56 kommen werden die auch deutlich mehr als die Referenz Modelle verbrauchen....
 
Na ich würde AMD nicht so verteufeln... die haben weniger forschungsbudget als nvidia... Ich bin letztens von -mein leben lang AMD user- auf Nvidia gewechselt... Ich muss sagen treiber mäßig ist AMD auf einem viel besseren und durchdachteren Niveau.. Der Radeon treiber hat direkt und total übersichtlich zugriff auf alle Funktionen die vom hersteller vorgesehen sind.. Egal ob frames limiter oder power limit usw. Bei Nvidia habe ich bis heute noch nicht herausgefunden wie man die max. Bilder pro sekunde begrenzt. Desweiteren habe ich mich gefühlt wie in die steinzeit zurück versetzt als ich gesehen habe wie die treiber oberfläche designt ist. Als ich dann gesehen habe das ich den Afterburner runterladen MUSS um darüber funktionen der karte wie das powerlimit nutzen zu können habe ich wirklich blöd geschaut ... ich finde das gehört nicht in eine drittanwender software sondern sollte out of the box im treiber integriert sein zumindest wenn man das als offizielle neuerung einer architektur oder grafikkarte anführt...

Außerdem fand ich bei AMD immer super das bei Karten die 1-2 Jahre alt waren immer wieder Treiber updates die leistung verbessert haben. Ich glaube die HD7970 war da ein gutes beispiel, die ist nach einem jahr in den test neuerer karten in den gleichen benchmark parcours ein gutes stück schneller gewesen als noch im test von sich selbst. Und das sind zuwächse im 2 stelligen prozentbereich gewesen. Ich finde das ist sehr beachtlich und AMD optimiert seine karten immer schön weiter. Was ich bei Nvidia so nicht beobachten kann...

Kurz: allein der Viel besser durchdachte Crimson Treiber von AMD ist für mich ein klares pro Argument. Ich denke wenn ich nicht wieder ein gutes Angebot für eine Nvidia karte bekomme wird meine nächste wieder eine AMD.
 
Zurück
Oben