Test Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten

Status
Für weitere Antworten geschlossen.
Der Test bestätigt (leider) das, was sich in den letzten Wochen abzeichnete: Kein Überflieger von AMD, nicht mal eine gute Konkurrenz. Eigentlich ist das Produkt noch gar nicht markttauglich, denn es fehlen zum einen noch Preise bzw. Verfügbarkeit und auch das Treiber-Team muss noch nachlegen. Erst dann wird sich zeigen, wie es um die Vega-Karten steht. Wer jetzt kauft, der kauft die Katze im Sack bzw. die hier im CB-Test gezeigte Leistung. Die Vermutung ist jedoch, dass da noch mehr drinsteckt. Die nächsten Wochen werden es zeigen... und zu welchem Preis?
 
duskstalker schrieb:
Auszüge aus dem CB Test: Das ist kein Kommentarbereich, das ist die Wahl zum Mr. Depp 2017.
Da hast du aber fein selektiert und schön die Kirschen 56er rausgesucht. Wollen wir das mal in die Gegenrichtung machen und die derzeit abgerufenen 620€ aufwärts mit der TI vergleichen?
Die 56er kommt übrigens am 28. August. Da jetzt irgendwie mit 400€ Vergleichen zu wollen ist schon lustig. Wir rechnen uns die Welt schön. Warum ist jetzt überhaupt die FE Vergleichsobjekt? Das Hauptproblem von Vega wird im Diagramm zur Effizienz sichtbar. Die ist einfach nur grottenschlecht und ohne erkennbare Verbesserungen.

Wenn ich schon sowas wie Anwendung muss angepasst lese...

Nominiere dich mal lieber selber.
 
Zuletzt bearbeitet:
Ich sehe vor allem schon die NVIDIA Vorstandssitzung:

- So jetzt machen wir erstmal gar nichts und verkaufen weiter Pascal wie geschnitten Brot. Die Vega Tests sind die beste Werbung für unsere Karten

- 2018 bringen wir die Volta Titan für 2000 Euro auf den Markt und fischen den Markt dann ganz gemütlich von oben nach unten ab
 
Auch wer heute eine 1070/1080 kauft, macht immer noch alles richtig.

Danke für den tollen Test Wolfgang.

Leider ist Vega RX für mich eine einzige Enttäuschung, frisst nen Haufen Strom und wird zu heiß, aber erst der Krach. Lautstärke war bisher subjektiv, jetzt kann man ihr einen Namen geben ... Laut - Lauter - Vega RX.

MfG
 
Reift beim Kunden, genau wie der TV, das Smartphone oder das BlueTooth-Headset. Aber da beschwert sich niemand.
Das man es aber nie gebacken bekommt, einen vollständigen Treiber zum Marktstart zu haben ist peinlich. Und das sage ich als AMD besitzer.
 
Zuletzt bearbeitet:
Ergebnis wie gehabt, zwischen 1070 und 1080. Wie schon vor Wochen nahezu die gleichen Ergebnisse. Also nichts neues interessantes von AMD, außer das sie wenigstens mal einigermaßen aufgeschlossen haben für ein paar Monate.
Mehr war auch nicht zu erwarten bei den schon drei Wochen angepeilten Preis von 500 Euro. Aber Stromverbrauch geht ja mal gar nicht. Und HBM 2 Speicher ist genau wie der 1er wohl auch nur heiße Luft.
 
Schade Schade Schade..bin doch sehr enttäuscht.

So lange gewartet und wollte echt gerne eine kaufen...hatte mir innovatives erhofft.

Aber 57db(siebenundfünfzig!!!!) und 4000upm(viertausend!!!)....BITTE WAS???

Ich steh da gar nicht drauf wenn neben mir ein Fön hochgeht...K.O. Kriterium.

Und ab zu Nvidia!
 
von Schnitzel schrieb:
Nicht ganz. Hab gelesen, dass Navi wohl nicht mehr ein großer Chip werden soll, sondern aus kleinen Modular aufgebaut wird.
Wieviel da dran ist, kann ich aber nicht sagen.

stoneeh schrieb:

Auf Wikipedia steht eh "improved scalability". Ob das wirklich bedeutet, dass das ein Multi-GPU Design wird, das sich von AFR verabschiedet, ist die Frage, bzw bezweifel ich. Aber Zeit wird es - wie bei den CPUs ist irgendwann die Grenze erreicht, was mit einem (1) Chip machbar ist.
 
Preislich müsste sich die 56 bei 300 bis 350 Euro einpendeln, um interessant zu werden.
Die 64 bei 400 bis 450 Euro.
Bei höheren Preisen sinds wohl wirklich nur die Fans und diejenigen, die neue Produkte immer als erstes haben wollen.
Ingesamt ernüchternd, wenn auch so erwartet zuletzt.
Wurde nicht mal gesagt, dass sich der Release wegen der schlechten Verfügbarkeit des Speichers verschiebt?
Dann hätte man ja genug Zeit gehabt den Treiber fertig zu stellen.
VSR unterstützt immer noch kein 21:9, das nehme ich AMD übel. Bei den Treiberproblemen werde ich auf das Feature wohl noch lange warten müssen. Im Vergleich zu DSR von Nvidia ist VSR mehrer Klassen schlechter leider.
 
Codemaster schrieb:
Typischer Stromverbrauch unter Last: 345 Watt
Stromversorgung: 2x 8-Pin PCIe
Empfohlene Netzteil-Leistung: min. 1.000 Watt :D:D:D:D:D:freak::freak::freak::freak: hahaha nicht normal die karte lol .

Und Bei CB mit 1. Bios 304 W max, Toms Hardware selbst im peak unter 0,5µs keine 375 W, also alles innterhalb der Spezifikationen.
Und ein gutes 550W Netzteil wird dafür wohl ausreichen - oder eben 1kW Chinaböller

kisser schrieb:
...der aber nur von AMD unterstützt wird. Ist also genauso blöd wie proprietär.

Und Intel - heißt zwar nicht Freesync, da das wirklich nur der Marketingname von AMD ist, aber GSchrott ist das was wirklich nur ein Hersteller kennt.
 
@duskstalker

Nur dumm dass wir in der Realität leben wo es eben "Gimpworks" gibt und die Features NICHT aktiv sind und man mit den heutigen Ergebnissen vor die Kundschaft tritt, da ist völlig egal was unter idealen Bedingungen in der Zukunft sein KÖNNTE, es zählt was gerade unter aktuellen Bedingungen geboten WIRD.

Nicht missverstehen, ich will AMD nicht bashen, im Gegenteil, mich hätte eine starke Vega sehr gefreut weil ich als Kunde davon nur profitiert hätte, aber die aktuelle Situation schaut halt leider anders aus und der erste Eindruck ist nunmal wichtig bei der Vorstellung eines neuen Produkts und den hat AMD mal wieder versaut :/
 
Und wieder kein einziges VR game im Test, anstatt mal Project Cars oder Assetto Corsa zu benchen wird da dieses Krüppelgame F1 2016 genommen.

Und dann fast nur EA/Ubisoft spiele als würde es keine anderen Developer geben, als würde irgend einer noch Tombraider zocken wollen... ich frag mich nach welchen auflagen bei CB die Spiele dort in die Auswahl kommen.
 
Zuletzt bearbeitet von einem Moderator:
Black&White schrieb:
@E1nweg

Schön das es noch Leute gibt die das auch verstehen - abgesehen davon hat das Baby ohne Augenbrauen eigentlich einen Namen? ^^

Laut Simpsons-Wiki heißt es Gerald. ^^

BTT: Eigentlich sollten alle gleichermaßen enttäuscht sein. Was ich nicht verstehe ist die Häme, die von GF Besitzern und geneigten NV Käufern hier verbreitet wird. Selbst dort sollte eine eher durchschnittliche Generation Vega nicht erwünscht sein. Was dann passiert, hat Intel die letzten Jahre sehr schön gezeigt.
 
[Edit: weil bringt ja eh nichts, als würde die Moderation was machen :(]
@ Kisser und GHad: Ihr beide solltet mal kleinere Brötchen backen, oder euch beiden sollte man ne Auszeit geben.. eine Lange.. Wenn ihr wissen wollt was ich von euren "Argumenten" halte , PN.

So und nun liebe Moderation, aber das musste gesagt werden. Ich finde es ein Unding wie Leute die hier anonym schreiben, auch noch andere Beeinflussen. Das hat was von Missionieren und ich entschuldige meinen Ausfall aber bei diesen beiden Besagten muss endlich mal Schluss sein.

Topic:
Als AMD Käufer muss ich sagen, die Vega 56 passt, bei der Vega 64 zeigt sich aber die Herkunft aus der Pro Serie.. AMD muss also in Zukunft entweder die GPGPU Einheiten noch weiter beschneiden oder entfernen, damit GCN mit einem Gaming Optimierten Chip mithalten kann. So ist es vllt aus Basis der Pro Modelle ein Patt, auch wenn es wohl wieder am Preis liegt und nicht an der reinen Leistung.
Ebenso glaube ich dass AMD da noch was an der Leistung machen wird, also eine 1080 Custom geschlagen werden kann, aber das bringt nichts wenn die Customs die 400W knacken werden und vor allem wenn man die 13 TFlops nicht auf die Straße bekommt. Was Vega leisten kann, zeigen ja hardwarenahhe Tests. Dummerweise bleibt AMD nur über die Treiber zu verbessern, oder eben mehr Manpower anzustellen.. Raja hat eigentlich über die Jahre vieles bei AMD bewirkt, warum man allerdings die Erfahrungen von Polaris nicht hat einfließen lassen, verstehe ich nicht. Klar Vega läuft irgendwie im Fiji Modus und weit über sweetspot, aber da hakt eben doch mehr als nur der HBCC und der Rasterizer, ggf sind auch Stromsparnmechanismen aus, das müssen zukünftige Tests sagen. Die Industrie ließ verlauten, Vega wird kein Gamechanger (und das vor Monaten). Ich habe mir eine günstige 1080Ti gekauft und bin soweit zufrieden.. Sie macht ETS2 und anderes in guter Grafik und ist leise. Wenn 2020 ne neue GPU ansteht, vllt wirds dann ne Navi, oder eben die Nachfolgerin von Volta. Manchmal kann man über gewisse Menschen hier nur den Kopf schütteln.
Was ich mich allerdings ernsthaft frage ist: wie soll man diese IP in Ryzen als APU Integrieren? AMD muss ja eben auf die Kosten achten und ich befürchte Vega wird von den Kosten die APUs sehr teuer machen
 
Zuletzt bearbeitet:
Was mich persönlich an AMDs Argument, dass sie noch zu wenig Erfahrung für HBCC hätten um diesen (performancebringend) zu aktivieren, etwas wundert:
HBCC ist ja eine Hardwareeinheit, die AMD höchst wahrscheinlich wenn überhaupt nur sehr eingeschränkt programmieren kann. Beeinflussung vom HBCC wird durch den Treiber auch nur sehr eingeschränkt z.B. über page locking möglich sein, wofür der Treiber dann auch auf die spezifischen Anwendungen optimiert werden muss. Als Alternative dazu steht ja das herkömmliche und standardmäßig verwendete Speichermanagement bereit, wo der Treiber ALLE Daten, die ein Shader potentiell benötigt, vor dem Starten des Shaders auf die GPU kopiert. Beide Vorgehensweisen haben ihre Vorteile und Nachteile: Letztere ist zum Beispiel deutlich besser, wenn die meisten Daten auch tatsächlich vom Shader gelesen werden, erstere ist besser wenn nur wenige der Daten gelesen werden. Dementsprechend nehme ich an, dass AMD den HBCC standardmäßig deshalb deaktiviert hat, weil das Kopieren vom Treiber für die meisten Spiele besser funktioniert als das Paging/Caching.

Wie will AMD den HBCC jedoch noch verbessern dass er sich für Spiele lohnt? Das einzige was ich mir vorstellen kann ist, dass AMD versucht irgendwie eine Kombination von beiden Techniken in seinem Treiber zu implementieren, in der Hoffnung dass es für die meisten Spiele dennoch besser wird als das Kopieren durch den Treiber. Das wird aber spannend ob und in wie weit das noch klappt.


Sehr ähnlich steht es um AMDs implementierung des tile based renderers . . . .
 
Zuletzt bearbeitet:
Moriendor schrieb:
Es wäre im Grunde mal sehr interessant, die genauen (Hinter-)Gründe für den Wechsel zu GloFo in Erfahrung zu bringen

Es gab drei Gründe für den Wechsel: Geld, Geld und Geld.
Aber Defizite bei AMDs GPUs sind alleine AMD zuzuschreiben und hängen ebenfalls am Geld. Man mußte hunderte Hard- und (insbesondere) Softwareentwickler gehen lassen, schlicht aus Geldmangel. Das macht sich natürlich in verlängerten Entwicklungszeiten stark bemerkbar oder im unfertigen Zustand des Treibers wie gerade gesehen...

PS: Mit einem Umsatzanteil von ca. 5% ist Nvidia natürlich einer der Großkunden bei TSMC.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben