Notiz AMD Radeon: RX Vega 64 und Vega 56 in der Redaktion im Test

Also dafür dass die DX12 Umsetzung von BF1 ziemlicher Müll ist muss ich sagen schlägt sich die große Vega echt gut.
 
Chismon schrieb:
Vega einiges an Steigerungspotential bieten dürfte in den kommenden Monaten.

Natürlich, weil es ein Preis-Leistungskracher ist und genau das ist, wo nVidia versagt hat

peinliche Maxwell-Shrink Vorstellung von der Lederjacke ohne jegliche Innovation

altbackene Pascal Architektur

Vega ist billiger und besser

Ohjee, AMDs RX Vega als Preissenker für die meisten nVidia Pascal GPU Käufer kommt ja viel zu spät, das tut mir aber leid, so ein Pech aber auch ...


Peinlich auf ganzer Linie ... Ja
 
Rage schrieb:
Titanfall 2 ist doch Valveengine? Aber dass die BF1 Leistung passen soll stimmt mich auch fröhlich :)

Hast Recht, mein Fehler ;), ich dachte mittlerweile sei bei EA alles auf Frostbite Engine umgestellt, aber es handelt sich um die Source Engine, die auf vorheriger Valve Engine basiert bzw. eine für Titanfall 2 verbesserte Version davon ist.

Naja, bei Doom (4), Prey und Sniper Elite 4 gehe ich auch davon aus, dass diese bestens AMD/RTG optimiert sind.

Spannend wird es wohl bei den anderen neutralen (wobei man Metro LNR eigentlich schon dazu zählen könnte) oder eigentlich gut auf AMD-Architektur laufenden Spielen.

Die typischen nVidia-Architektur/DX11 Treiber-lastigen Spiele wie so ziemlich alles von Ubisoft (inkl. Ghost Recon Wildlands) und der nVidia-Bundle-Titel Rise of the Tomb Raider waren ja erwartungsgemäß Titel, in denen RX Vega eher schwach/schlecht abschneiden würde.

So wie es aussieht könnte nVidia/Huang wohl die gute/bessere AMD Spieleleistung bei der Call of Duty Serie ein Dorn im Auge gewesen sein, weswegen man scheinbar darin investiert hat/nachhilft, daraus (ähnlich wie beim Tomb Raider Franchise, was ursprünglich zu AMDs Gaming Evolved gehörte) einen nVidia Vorzeige-Titel zu machen (weiter am Ast von AMD/RTG zu sägen, um sich bessere Ergebnisse in vielen Benchmarks Parcours zu kaufen), zumindest klingt die öffentliche Werbung von Huang für Destiny 2 und Call of Duty WWII leider danach.

Bleiben AMD wohl noch besser optimierte Leistung in den Spielen der F1 Serie und von Bethesda, so wie es aussieht.
 
Kp obs schon gepostet wurde, aber der koreanische Link funzt auch nicht bei mir:

https://videocardz.com/71984/first-review-of-radeon-rx-vega-64-air-and-liquid-is-here


Sieht auf den 1. Blick nicht so wirklich toll aus. Nicht wirklich besser als ne 1080 und auch die versprochenen besseren min fps werden nicht gehalten. Dazu abartiger Stromverbrauch der Liquid (zu erwarten). Die 1080 sieht mir auch angesichts des Preises immo als besseres Gesamtpaket aus ... sehr Schade, wenn das durch andere Reviews sich bewahrheiten würde.
 
Vllt. sind die Karten gar nicht für den Gsmer gedachz, sondern für die Miner, könnte aber auch ein Glücksfall sein für AMD.
 
HPLT schrieb:
Nicht wirklich besser als ne 1080 und auch die versprochenen besseren min fps werden nicht gehalten.

Wo siehst du denn da Min. FPS?
Ich seh nur AVG FPS in BF1.
Und die Leistung kauft man bei AMD bei neuen Karte ja bekanntermaßen auf Vorrat scheibchenweise. :D

HPLT schrieb:
Die 1080 sieht mir auch angesichts des Preises immo als besseres Gesamtpaket aus

Wenn AMD da mit der Zeit noch 20% mehr Leistung oben drauf packt und Freesync als Argument gilt seh ich das nicht so. Für WQHD-Gaming scheint die große Vega durchaus geeignet als Gegenstück zur 1080 und im Paket mit nem Freesync Monitor imho ne gut Wahl.
 
Zuletzt bearbeitet:
Chismon schrieb:
Fullquote entfernt



Du bist eindeutig ein Fanboy dessen Texte nur der Belustigung dienen :D



SSJ schrieb:
Vllt. sind die Karten gar nicht für den Gsmer gedachz, sondern für die Miner, könnte aber auch ein Glücksfall sein für AMD.

Könnte fatal enden wenn eine Firma sich auf einen Hype stützt der genauso schnell enden kann wie er begonn. Zumal die Entwicklung der Vega sicher lange vor dem Mining Hype begonnen hat. Ich halte das für sehr unrealistisch.
 
Zuletzt bearbeitet von einem Moderator: (Fullquote entfernt)
HPLT schrieb:
https://videocardz.com/71984/first-review-of-radeon-rx-vega-64-air-and-liquid-is-here


Sieht auf den 1. Blick nicht so wirklich toll aus. Nicht wirklich besser als ne 1080 und auch die versprochenen besseren min fps werden nicht gehalten. Dazu abartiger Stromverbrauch der Liquid (zu erwarten). Die 1080 sieht mir auch angesichts des Preises immo als besseres Gesamtpaket aus ... sehr Schade, wenn das durch andere Reviews sich bewahrheiten würde.

Wenn sich das anderweitig (in anderen Tests) bestätigen sollte, ist der Verbrauch der 64er wirklich extrem hoch/total daneben gegangen. Dass dieser hoch sein würde, war anzunehmen aber so hoch (?) ... ouch!

Vielleicht wurden deswegen auch einige Tester mit 56er GPUs bedacht, um insgesamt besser da zu stehen.

Es bleibt zu hoffen, dass die 56er OCed nicht auch in der Leistungsaufnahme so ausartet wie die 64er Karten.

Momentan sieht es jedenfalls nicht so aus, also ob sich der frühe "Chiphell Benchmark" bewahrheiten würde, denn der auf hwbattle / VCZ gezeigte/verlinkte Testvergleich scheint da zugegeben glaubwürdiger/etwas seriöser auf den ersten Blick.
 
Chismon schrieb:
Dass dieser hoch sein würde, war anzunehmen aber so hoch (?) ... ouch!
Quatsch. Das wird schon seit Release der FE geschrieben. Manche von euch wollten es halt nicht glauben.
 
Bin jedenfalls gespannt :) Vielleicht findet die 56er den Weg in den Rechner der Freundin. Raff von PCGH hat ja schon gesagt, dass es sich bei der 56er um den eigentlichen Star der Serie handelt.
 
Warum sollen die Werte von CHiphell nicht passen? Je nach Spieleauswahl ist das alles noch im Schwankungsbereich.

Der DHE dürfte echt wieder schwer am arbeiten sein.:freak: Mal sehen welche Spannung AMD fährt.
r4yn3 schrieb:
Quatsch. Das wird schon seit Release der FE geschrieben. Manche von euch wollten es halt nicht glauben.
350W waren auf jeden Fall im Gespräch. Mit oder ohne OC wurde ja nicht genannt. Nahe der 500W ist auf jeden Fall neu. Vega setzt auf jeden Fall neue Maßstäbe. XD
 
Zuletzt bearbeitet:
Svendrae schrieb:
Du bist eindeutig ein Fanboy dessen Texte nur der Belustigung dienen :D

Na wenn Du meinst, ganz schön inflationär der Gebrauch des Ausdrucks "Fanboy" hier, was für ein Niveau :rolleyes: ... wenigstens haben meine Beiträge in der Regel auch Inhalt/Gehalt im Gegensatz zu Deinen, wie es scheint ;) ...
 
Das Gegenteil ist also der Fall: Mit HBM2 erreicht man eine fünfmal so hohe Bandbreite bei niedrigerem Stromverbrauch.
Davon ausgehend das man so viel Bandbreite überhaupt braucht. Aber wenn man dieser gar nicht braucht hat man nur mehr Stromverbrauch, sonst nix und es wird ineffizient. Beweis kannst du um 15:00 bewundern.

muaha selten so einen stuss glesen. 5x mehr bandwidth und weniger strom
PCGH kam zum gleichen Fazit wie ich bei dem FE 16GB Test. Meine Vermutung mal wieder bestätigt worden. Keine GPU braucht so viel Bandbreite für Spiele. HD 2900XT Reborn incoming.

Manche User haben echt eine komische Weltansicht.
Willkommen im Internet. Keiner weis irgend was, glaubt aber alles zu wissen...

Wenn man Glück hat wird man nicht beleidigt, aber nur mit Glück...
 
Zuletzt bearbeitet:
r4yn3 schrieb:
... wird schon seit Release der FE geschrieben. Manche von euch wollten es halt nicht glauben.

Ja, aber identisch sind FE und RX doch auch nicht, auch wenn beide auf Vega Chips basieren. Wenn Du so argumentierst, dann hätte man sich das RX Layout bei AMD/RTG gleich sparen können, wenn dabei kein Mehrwert für Spieler herum kommt.

Den Speicher hätte man auch auf 4 Stacks kloppen/verteilen können und evt. wäre das ganze sogar für AMD günstiger geworden (und einfacher gewesen).
 
Ich hoffe aktuell nur, dass die Vega Gpus wie bei Ryzen auch, "einfach nur mithalten"

Da hat man endlich preislich attraktive Alternativen und spätestens wenn AMD in diese Kerbe einschlägt, wird nVidia das Standbein wegbrechen und sie müssen auf kurz oder lang entweder die Preise tiefer ansetzen(wird nicht geschehen) oder für das bekannte Preismuster die Leistung anheben.
So oder so, ich kauf mir lieber jedes Jahr eine 300€ AMD-Karte und bin bei den oberen 30% dabei, als mir alle 2-3 Jahre eine 600-700€ Karte zu kaufen um zu den oberen 10-20% zu gehören.
Und wer im Jahr (im schnitt) mehr als 500€ für ne GpU ausgibt der hatn Sprung in der schüssel wenn er sich darüber beschwert, dass diese oder jene Gpu ihn 50-100€ mehr an Stromkosten/Jahr kostet.
 
Kasmopaya schrieb:
Keine GPU braucht so viel Bandbreite für Spiele.
Da hast du irgend was grob falsch verstanden. Vega hat weniger Bandbreite als Fiji und die 1080TI.

Chismon schrieb:
Den Speicher hätte man auch auf 4 Stacks kloppen/verteilen können und evt. wäre das ganze sogar für AMD günstiger geworden (und einfacher gewesen).

Ganz sicher nicht. Der Interposer und die HBM Stapel scheinen ja extrem empfindlich zusein. Anweisung bezüglich Zusammenbau und TIM waren ja schon verlinkt.
Der Interposer hat zudem ein Problem mit der Größe. Die Ausbeute war zumindest ein Problem. Ob man die nun im Griff hat ist nicht bekannt.
 
Zuletzt bearbeitet:
Botcruscher schrieb:
350W waren auf jeden Fall im Gespräch. Mit oder ohne OC wurde ja nicht genannt. Nahe der 500W ist auf jeden Fall neu. Vega setzt auf jeden Fall neue Maßstäbe. XD
Also bei Balanced ist man ja grob auf TBP Niveau, von daher wundern mich die Werte nicht. Da man aber selbst mit diesem Wert im PT ist, und der Takt nicht gehalten wird, wundert es mich auch nicht dass die Leistungsaufnahme mit erhöhtem Powertarget auch dementsprechend hoch geht. 1600MHz sind schon kein Sweetspot mehr, darüber wird es nur noch düster(er).

Wenn nun aber die RX56 die TBP halten kann, oder zumindest knapp dabei ist, und die Leistung nur geringfügig hinter der RX64 ist, lässt das für mich nur den Schluss zu, dass man die 4096 Shader immer noch nicht auslasten kann.
 
Zuletzt bearbeitet:
Svendrae schrieb:
Könnte fatal enden wenn eine Firma sich auf einen Hype stützt der genauso schnell enden kann wie er begonn. Zumal die Entwicklung der Vega sicher lange vor dem Mining Hype begonnen hat. Ich halte das für sehr unrealistisch.

Glaubst du, dass sich gewinnorientierte Unternehmen, selbst AMD, sich interessiert wer die Abnehmer sind?
Die Miner treiben die Nachfrage und damit die Preise nach oben, was zu begrüßen ist.
 
Botcruscher schrieb:
Warum sollen die Werte von CHiphell nicht passen? Je nach Spieleauswahl ist das alles noch im Schwankungsbereich. Der DHE dürfte echt wieder schwer am arbeiten sein.:freak: ... 350W waren auf jeden Fall im Gespräch. Mit oder ohne OC wurde ja nicht genannt. Nahe der 500W ist auf jeden Fall neu.

Quasi "cherrypicked by ChipHell" meinst Du (also bspw. Doom, Battlefield 1, Sniper Elite 4, Prey, Star Wars Battlefront, Call of Duty - Infinite Warfare und F1 2016)? Naja, möglich, bisher würde sich das nur mit dem Ergebnis des auf RX Vega vermutlich sehr gut optimierten Battlefield 1 decken, aber beim Rest :confused_alt: ... da sieht's eher mau aus ;).

Was mir Sorgen macht ist der Verbrauch und die dazugehörige Leistung bei der RX Vega 56, wenn der Verbrauch da auch so schlecht skaliert wie bei den 64ern, sehe ich schwarz ... da würden dann selbst 399 Euro für eine RX Vega 56 diese Zusatzkosten nicht unbedingt kompensieren können (je nachdem wie lange man vorhat die Karte zu nutzen).

Leider weiss man auch nicht welche Spiele RX Vega optimiert sind und mit wie viel Optimierung man für ältere, gegenwärtige und neue Spiele rechnen kann und wie sich das anteilig beim Entwickler und bei AMD in der Treiberarbeit gestaltet. Die Kommunikation seitens AMD/RTG ist derzeit leider ein Desaster ... ob bewusst, das wird man sehen ...
 
Zurück
Oben