Test Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten

Status
Für weitere Antworten geschlossen.
Für die gebotene Leistung sind die Karten einfach zu teuer. Eine Vega 56 für ~300€ würde ich mir ja noch überlegen in den Rechner zu bauen aber sicherlich nicht für die angepeilten 400€. Ich bereue es jetzt keine 1080 im Frühjahr für ~450€ gekauft zu haben :(
 
MrBackslash schrieb:
Für die gebotene Leistung sind die Karten einfach zu teuer. Eine Vega 56 für ~300€ würde ich mir ja noch überlegen in den Rechner zu bauen

Wieso sollte sie nur 3/4 einer 1070 kosten, wenn sie schneller ist? Und Vega hat hier auch noch mehr Potential durch weitere Treiberoptimierungen. Und in DX12/Vulkan scheint sie auch besser zu sein.
 
Zuletzt bearbeitet:
coolmodi schrieb:
Wieso sollte sie nur 3/4 einer 1070 kosten, wenn sie gleich schnell oder sogar schneller ist?

Weil sie ja 60-100W mehr ziehen (je nach Profil) Deswegen.. (Das man hier UVP mit Marktpreisen vergleicht, das wird verschwiegen ;))
 
Mal abgesehen vom gefühlt sehr hohen Stromverbrauch finde ich die extrem schwankende Performance im Vergleich zu Nvidia und auch den eigenen (kleineren) Karten erschreckend.
Bis zu fast 30% schneller oder bis zu fast 30% langsamer? (im Vergleich zu den "gewünschten" Konkurrenten) :watt:
Klar, jede Grafikkarte liefert bei jedem Spiel etwas andere Leistung ab, aber was soll denn das?
Sind die Treiber Probleme dermaßen außer Kontrolle? Ist die Architektur für manche Engines einfach ungeeignet?

Wenn der Optimalfall wenigstens durchgängig wäre, wäre auch der Stromverbrauch angemessen, aber so... :freak:
Wobei sich auch 130% Performance bei 200% Stromverbrauch immer noch bescheiden anhört - aber wesentlich besser als 70% Performance bei 200% Stromverbrauch :headshot:
 
Inxession schrieb:
Ist ein offene Geheimnis das ich diesen Verein nicht mag. So long..

kann ich verstehen, wenn man sieht mit was für Methoden die arbeiten.

Wie gesagt, mich würde mal ein Test mit neutralen Treibern interessieren!

Und solange AMD seine Treiber offen hällt, während Nvidia die verschließt wie Ford Nox (n Schelm wer böses denkt! weglassen von Details usw. ), werd ich weiter AMD kaufen, auch wenn die etwas langsamer sind. Dafür hab ich aber n besseres Gewissen und werde warscheinlich auch nicht beschissen!
 
Zuletzt bearbeitet:
IBISXI schrieb:
Nö, die Monitorhersteller dürfen diesen frei verwenden.

Ich bezog mich darauf, dass man in jedem Fall an den GPU-Hersteller gebunden ist, egal ob AMD oder NV. Da nützt dir der freie Standard überhaupt nichts.
 
Ich bereue es jetzt keine 1080 im Frühjahr für ~450€ gekauft zu haben
Hast auch zur rechten Zeit vor dem Mining-Boom gekauft https://www.computerbase.de/preisvergleich/?cat=gra16_512&xf=9810_7+8228+-+GTX+1080
Naja evtl. gehen endlich die Karten Preise wieder runter.
kisser schrieb:
Ich bezog mich darauf, dass man in jedem Fall an den GPU-Hersteller gebunden ist, egal ob AMD oder NV. Da nützt dir der freie Standard überhaupt nichts.
Doch kostenlose Feature für den Monitorhersteller kostenloses Feature für dich sollte man doch eine AMD mal kaufen, wenn Nvidia auf G-Sync pocht ist das halt so, blöd ist es nur wenn man explizit Gsync oder Freesync möchte. Aber man spart immer noch 100€ im Schnitt.
 
Zuletzt bearbeitet:
Nicht lieferbar ! :utripper:

Wann kommt die Nano zum vernüftigen Preis ( und lieferbar ) ?;)
 
vkl schrieb:
Ryzen ist x-mal besser als Intel i7-Müll. 4 Kerne in fast 2018 xD

Emm, Intel hatte schon ein paar Jahre vor Ryzen mehr als 4 Kerne ;-) Oder hab ich ein Phantom in meinem Rechner?

Zu Vega: Genau das was zuletzt spekuliert wurde und was ich schon seit langem vermutet habe. In meinen Augen erstmal total unbrauchbar.
 
Blade0479 schrieb:
@dusk ...ja verstehe das mit den Benchmarks ...

Aber!? Und ich denke da spreche ich hier viele an:

Gebencht werden sollten die populärsten Spiele, ob Hairworks, Brotwärks, Entenwörks ist mir total schnuppe, weil im Endeffekt zählt das was hinten raus kommt und auf meinem Monitor landet und über spielbar oder nicht entscheidet.

Henne - Ei Problem / teufelskreis. nvidia hat derzeit grob zwischen 70% und 80% marktanteil bei dedizierten grafikkarten.

je höher der anteil der nvidia karten, desto größer die "marktmacht" von nvidia bei der spieleentwicklung aktiv einzugreifen. je größer der einfluss von nvidia auf die spieleentwickler ist, desto geringer ist die performance von amd im mittel. je geringer die performance von amd, desto geringer der marktanteil. mit 20% marktanteilen ist man eigentlich schon so gut wie tot, weil es immer weniger sinn macht (aus entwicklersicht) ressourcen in die optimierung zu stecken. da spart man sich halt 50% der optimierungskosten für 20% der karten auf dem markt.

zum vergleich: amd hatte zu der zeit der HD5000 serie knapp etwas über 50% marktanteil.

nun kam noch der mining hype verschärfend hinzu: die miner haben alle amd grafikkarten aufgekauft und spieler mussten zwangsläufig nvidia kaufen, was den anteil der nvidiakarten bei spielern noch künstlich erhöht. zudem sind die preise immernoch exorbitant hoch, obwohl der hype mittlerweile wieder etwas abgeflacht ist und die karten wieder einigermaßen verfügbar sind.


mit so nvidiafreundlichen benchmarks wie hier auf cb wird nvidia voll in die karten gespielt.

https://www.computerbase.de/artikel/grafikkarten/mass-effect-andromeda-benchmark.58852/

hier kann man sich mal anschauen, was tesselation macht - und obwohl CB selbst schreibt "Tessellation kostet Leistung, auch wenn man es nicht sieht" wird mit vollem tesselationslevel gebencht, was je nach szene amd grafikkarten um einen zweistelligen fps-wert nach unten drückt.

tesselation ist eine gute technik, wenn man sie richtig einsetzt, aber nvidia hat die eigenen karten darauf optimiert absolut hirnrissige mengen an tesselation berechnen zu können, um in spielen durch einen exorbitanten einsatz von tesselation die polygonanzahl auf astronomische höhen treiben zu können, die amd überpropertional ausbremsen. nvidiakarten brechen damit 5-10% ein, amd karten (pre polaris) 20-30%.

amd hat sich dazu entschieden die hardware nur begrenzt auf das gegimpe von nvidia auszurichten, was auch richtig ist. niemand braucht solche blödsinnig übertriebenen polycounts - das sind nur verschwendete ressourcen. im endeffekt beschert das aber nvidia den längsten balken.

als redaktion hätte man die option tesselation im amd treiber auf ein ausreichendes maß von 2x oder 4x zu begrenzen, oder wenigstens mit "amd optimiert" zu benchen, um nvidia mit der manipulation nicht durchkommen zu lassen. stattdessen bekommt nvidia hier das maximale raus, was tesselation bietet.

https://www.youtube.com/watch?v=IYL07c74Jr4

jetzt kann sich jeder selbst überlegen, ob er solche praktiken unterstützen möchte oder nicht.

ich nicht. und ich muss auch ganz ehrlich sagen, dass mir spiele, die in der beziehung besonders negativ auffallen, auch nicht auf die platte kommen. so mündig bin ich dann doch als konsument.
 
Zuletzt bearbeitet:
AMD-Mafiosi schrieb:
Zeigt aber das auch G-Sync ohne das Alterra Ding geht ;)

Nur bei Laptops wie du ja zweifelsohne weißt. Und sicher weißt du auch, dass die keinen DisplayPort-Standard nutzen. Es weiß also nach wie vor keiner, ob Nvdia auch AdaptiveSync über DP nutzen kann (unterstützt).
 
Niemals wird eine normale Custom Vega an der Palit vorbeiziehen. Wenn doch schmeiß ich nen Kasten Bier
Der Kasten ist mir sogut wie sicher. Da du nicht genau spezifiziert hast welche Vega:D, stelle ich die 1600€ FE 16GB Edition gegen deinen Vram Krüppel und muss nur lange genug warten bis deiner Karte der Vram ausgeht und meine Vega vorbeizieht. Ich hätte dann gerne ein Radler, aber schön gekühlt.
 
AMD hat dieses Jahr mit Ryzen, Threadripper, der RX 500er Serie und Vega sehr gute Produkte auf den Markt gebracht und konnte nach vielen Jahren wieder zu Intel/Nvidia aufschließen, aber der erhoffte Quantensprung blieb rückblickend betrachtet dann irgendwie doch aus.

Ich, der die Leistung rein zum Zocken bräuchte, finde jedenfalls nach wie vor keine Argumente nicht zum i7-7700K und zur GTX 1070 zu greifen.
 
Darüber hinaus ist die Palit 1080 niemals 20% schneller als die 1080 FE :lol:
 
Ich frage mich, ob AMD in ein paar Jahren aus dem Grafikkarten-Geschäft ausgestiegen sein wird und es dann nur noch einen Hersteller gibt.
 
deo schrieb:
Ich hatte schlimmeres erwartet. Wenn der Preis stimmt, muss man keine GTX1080 haben.

Der Punkt ist nur, dass AMD nur eine Alternative anbietet, und nicht das in der Gesamtheit
bessere Produkt zum gleichen oder besseren Preis. So gewinnt man keine Martkanteile hinzu,
ganz einfache Sache. Die Fans kaufen eh immer nur von einem Team, aber kein Nvidianer wird
bei diesem Test seine Überzeugung hinferfragen, im Gegenteil: Der lehnt sich zufrieden zurück.

Performance pro Watt

Das ist ein entscheidender Faktor wenn man sich ein neues System zusammenstellt. Wie stark
muss das Netzteil sein, wieviel Wärme entwickelt sich, wie hoch ist die Lautstärke des gesamten
Systems wenn man eine ggf. höhere Drehzahl der Lüfter einkalkulieren muss.

Stromkosten mögen kein Faktor sein für jemanden, der nur ein oder zwei Rechner daheim hat,
aber wenn man eine ganze Firma ausstatten will? Wenn gleiche System mit der Nvidia Karte 8
Stunden am Tag läuft und ca. 100W weniger braucht als das AMD System, sind das pro Gerät ~60€
Differenz, bei 50 Geräten sind das 3000€, und das jedes Jahr. Auch wenn man es mit nur 50W
rechnet, sind das immer noch 1.500€, auf 5 Jahre 15.000 bzw. 7.5000€. Und da sind die höheren
Kosten für Klimatisierung nicht mal mit eingerechnet. Das mal so am Rande. Die Zahlen sollen keine
absoluten Fakten sein, ich hab das nur mitm Stromrechner mal übern Daumen gepeilt, damit man
eine ungefähre Vorstellung bekommt, warum ich mich so an der Energieeffizienz aufhänge.
 
T3Kila schrieb:
Mal abgesehen vom gefühlt sehr hohen Stromverbrauch finde ich die extrem schwankende Performance im Vergleich zu Nvidia und auch den eigenen (kleineren) Karten erschreckend.
Bis zu fast 30% schneller oder bis zu fast 30% langsamer?

Meine Vermutung: Die neue Architektur bedingt einen kompletten Rewrite des Treibers. Man schaue sich nur mal die Größe des Treibers an. Da ist für jedes Spiel und für jede Graka-Architektur, die AMD derzeit noch unterstützt, etwas eigenes mit dabei. Für Vega fehlt nun noch der entsprechende Part und der muss aufwändig nachgepflegt werden. Wäre klasse, wenn diese These soweit stimmen würde und diese +30% schneller dann irgendwann (hoffentlich recht bald) bei jedem Spiel Realität werden. :)
 
just_fre@kin schrieb:
Ich, der die Leistung rein zum Zocken bräuchte, finde jedenfalls nach wie vor keine Argumente nicht zum i7-7700K und zur GTX 1070 zu greifen.
I7-7700K läuft am Limit (heute schon beim Streaming) CPU-Wechsel = Plattformwechsel
(Preis gegenüber 1600X deutlich höher)
GTX 1070 bei gleichen Preis wäre der kleine Vega schneller beim vorhandenen Freesync Monitor (da es eventuell schon dabei war) ist er auch besser.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben