Test AMD Radeon RX Vega im Test: Mit neuen Treibern und Spielen gegen Fiji

BestinCase schrieb:
Gut wir werden sehen...

Aber nochmal direkt gefragt, was kann man mit einer Vega nicht mach, was man mit einer 1080 machen kann, Bezug auf gaming?

Die GTX 1080 verbraucht weniger Strom, bei vega 64 muss man tweaken um auf einen ähnlichen Verbrauch zu kommen und braucht Glück.

Allerdings hat man bei AMD die deutlich größere Auswahl an Displays und muss vorallem deutlich weniger für den Monitor bezahlen. Für mich gewinnt im P/L gesamt eher Vega 64 als die GTX 1080. Für die GTX 1080ti gibt es keine Konkurrenz.

Krautmaster schrieb:
Ich seh das ähnlich. Freesync is AMDs stärkeres Argument zur Zeit was GPU angeht und auch der Markt hat es bisher gut angenommen. Es gibt recht viel Auswahl bei Monitoren und demnächst auch Samsung TVs. Das macht ne 56 um 400 Euro mit nem guten Freesync Monitor zu nem echt guten Deal was PL angeht.

Ich spiele mim Gedanken nen Samsung 65Q9FN zu holen, der müsste mit ner AMD Karte auch adaptive Sync können. Nicht dass ich das grad brauche, TV is TV, gezockt wird immer seltener. Aber was man hat das hat man und ich denke wenn mal mehr TVs mit Freesync können spielt das AMD in die Hände.

Grundsätzlich musst du vorallem keinen Gsync Aufschlag von 200 € beim Monitor draufzahlen. Ich hab eine Vega 64 weil ich nicht bereit bin für ein Gsync Modul (Elektroschrott) 200 € Aufpreis zu zahlen. Teilweise ist der Aufpreis sogar deutlich höher bei 300 €.
Totaller Schwachsinn, dazu haben die mich geärgert indem die das Modbios meiner Titan X Maxwell per Treiber gesperrt haben.

https://www.computerbase.de/forum/t...al-maxwell-bios-tweaker.1445972/post-21334127

Ich hab aktuell absolut keinen Bedarf mehr an Nvidia, die können mich die nächsten Jahre komplett am Arsch lecken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Leaked
das lässt sich doch technisch jetzt schon machen. Also traut euch. Warum denn nicht jetzt?

Sorry. ich höre jetzt auch auf zu stänkern.
 
Wolfgang schrieb:
Die Spiele sind alle aus einem Grund ausgewählt.
Aus welchem Grund denn?

Wieso sollte sich ein Vergleich der letzten Nvidia-Architekturen nicht umsetzen lassen?
 
Wadenbeisser schrieb:
Immer schön die Füsse still halten wenn man nicht weiss worüber gesprochen wird.
Es gibt keine direkten GCN 4 und 5 Vergleichsprodukte mit einem ähnlichen Ausbau, womit Störfaktoren wie die Einheitenskalierung letztendlich das Ergebnis verfälschen.

Ich halt mich ja an das Thema des Tests. Du kamst an da bei 1000 MHz den Stromverbrauch zu vergleichen, ned ich.:rolleyes:
Wadenbeisser schrieb:
Dein Nano - Vega Vergleich, ja wie hoch taktet denn eine Vega mit ähnlichem Verbrauch?
Die Nano eiert für die 175W idR. irgendwo zwischen 800 und 900 MHz rum, für 1050 MHz benötigt die FuryX so 250-300W. Eine Vega64 ist bei ca. 200W mit 1200-1300MHz dabei. Viel Spass beim Berechnen der Effizienz.

Du wolltest deinen Vergleich wegen Stromverbrauch usw.:rolleyes:
Du weißt schon dass eine Nano 4096 Shader hat, genausoviel wie eine Vega?
Und wo liegt eine Vega bei 175 Watt? Bei 1150 bis 1200 MhZ wohl, das wären dann 35% mehr Takt als die 900MHz eine Fiji Nano.
Du kannst das ja auch @ stock anschauen.
https://www.computerbase.de/artikel....60541/seite-6#abschnitt_performance_pro_watt
20% is da die Vega64 besser als die FuryX, wirds halt gegen die Nano auch ned besser werden.;)

Wadenbeisser schrieb:
In der aktuellen Entwicklung sehe ich eher ein grundlegendes Problem des PC Spiele Marktes.

Das Grundlegende Problem is genau wie bei Bulldozer die Architektur von Vega.
Das weiß Lisa Su ganz bestimmt, deswegn könnte Navi deutlich schneller werden, wenn man die Probleme lösen könnte.
Wadenbeisser schrieb:
Die letzten Jahre haben immer wieder gezeigt das die Produkte trotz vorhandener Vorteile von der Zielgruppe weitestgehend ignoriert werden und lediglich als Preisdrücker herhalten sollten.

AMD Produkte werden nie ignoriert wenn sie besser sind, vergiss diesen Quatsch mal.
Vielleicht dauerts bis Dell oder HP ihre bisherigen CPU Lieferanten ändern, aber die Menschen da draußen sind keine Fanboys, sondern lassen sich von besserem schnell überzeugen.
Wadenbeisser schrieb:
Nun verlagert man anscheinend den Schwerpunkt der Entwicklung dort hin wo man damit Geld verdienen kann und der Spieler Markt hat letztendlich das was er signalisiert hat haben zu wollen.

Das einzige was du hiermit signalisierst is, dass du den Testern, den Käufern und den Markt und allen anderen in der Welt die Schuld für die Probleme von AMD geben willst.:evillol:
Gehst du auch so durch dein Leben und gibst anderen die Schuld für deine Fehler?
Wadenbeisser schrieb:
I
Keine direkte Alternative zu nvidias Produkten, was Spieler wie mich aufgrund der Ablehnung ihrer Geschäftspraktiken mit Abstand am meisten anko**t und mir Jahr für Jahr mein Hobby mehr versaut.

Ja dann soll AMD mal den Hintern bei den Grafikkarten hoch bekommen, bei CPUs klappt es ja!
Die sind auf dem besten Wege Intel zu schlagen, wieso auch ned bei den GPUs in ein paar Jahrn?
Das dauert halt, aber schieb die Schuld doch ned auf andre.
 
  • Gefällt mir
Reaktionen: BestinCase
Casillas schrieb:
das lässt sich doch technisch jetzt schon machen. Also traut euch. Warum denn nicht jetzt?
Sorry. ich höre jetzt auch auf zu stänkern.
Warum sollten wir? Nvidia hat zum Launch gesagt, dass Pascal pro Takt gleich schnell ist wie Maxwell. Wir haben das in unser Launch-Review geschrieben. Alle Benchmark-Ergebnisse deuten auch darauf hin. Warum sollten wir das machen?

Köf3 schrieb:
Aus welchem Grund denn?
Wieso sollte sich ein Vergleich der letzten Nvidia-Architekturen nicht umsetzen lassen?
Das sind schlicht die Spiele aus dem Grafikkarten-Testparcours plus Final Fantasy XV, Far Cry 5 und Kindgome Come. Letztere sind die letzten drei AAA-Top-Spiele.
 
@O-Saft-Killer

Ja klar, allein wegen der Tatsache dass die Monitore deutlich günstiger sind. Würde ich heute ein Gaming Rig zusammen stellen wäre Adaptive Sync eigentlich einen muss. 4k und sync zwischen 25 und 60hz würden mir reichen. Mehr als 60hz gibt's bei 4k noch zu selten und zu teuer.

Bei 1440p gibt's aber meine ich schon viele recht gute Angebote und ich denke in den meisten Fällen ist die Gaming Erfahrung mit Adaptive Sync bei um 50hz besser als bei iwas mit vsync darüber.
 
BestinCase schrieb:
War klar das da wieder nichts kommt. :rolleyes:

Ich hab meinen Beitrag ergänzt. Ist irgendwie verunglückt. :D

Bei 1440p gibt's aber meine ich schon viele recht gute Angebote und ich denke in den meisten Fällen ist die Gaming Erfahrung mit Adaptive Sync bei um 50hz besser als bei iwas mit vsync darüber

Wenn man in 1440p spielt würde ich direkt auf 144 HZ mit Free sync gehen. Das packt die vega 64 easy ohne das die Grafik scheiße aussehen muss. Man muss nur die richtigen Regler drehen, hab in fast allen spielen auch mit meiner Vega 64 minimum 100 FPS bis über 200.

Spiele fühlen sich mit Freesync und 100 FPS unfassbar geil auf meinem xl 2730z an. Das ist wahnsinn was das aus macht. Muss aber dazu sagen, am besten funktioniert Gsync/Free sync nur bei schnellen Displays die keine hohen Schaltzeiten haben. Bei meinem Acer Predator XB271HUbmiprz habe ich mit Gsync kaum ein flüssigeres Bild wargenommen, im Gegenteil, das Bild wirkte sogar matschig, hatte teilweise Schlierenbildung durch Gsync.
 
Zuletzt bearbeitet:
o-saft-killer
daccord ;)
 
Dark_Knight schrieb:
Also muss ja AMD doch irgendwie alles richtig genug gemacht haben, so dass du dir das System so zusammengestellt hast.Somit ist Vega alles nur kein Flop.

Vega als Karte selber vielleicht ned unbedingt [bei den hohen Preisen allerdings scho], die neue Architektur wohl definitiv ein Flop, was der Test ja bestens zeigt.
Dark_Knight schrieb:
Ob AMD in Zukunft den Weg wie nVidia geht und eine reine Gaming GPU bringen wird und eine reine Profi GPU, wird sich zeigen. Aber anders als hier immer viele darstellen ist der einzige Nachteil der Vega Karten, das diese aufgrund der Allroundfähigkeiten und den dementsprechenden Hardwarefeatures die implementiert sind im Chip mehr Strom benötigt als die reinen abgespeckten Gaming Pendants von nVidia.
Und das macht halt Fanatiker wie dich aus, sie behaupten einfach irgendeinen unbelegten Kram ohne sich damit auseinanderzusetzen, lesen den Test nicht und haten einfach blind gegen den Tester.

Kannst mia ja mal zeigen wo eine Titan V oder GP100 schlecht für Gaming sein sollen.
Die gehen genauso ab wie eine GTX 1080 Ti, völlig wurscht ob die HBM oder die Tensor Cores oder DP mit drauf haben.
Den Test der V hast ja vor kurzem hoffentlich hier gelesen.
Vega is absolut keine generell auf Computing ausgerichtete Karte. Man hat sogar immens viel dafür getan endlich die Spieleleistung zu verbessern. Die Probleme kommen genau wie bei Polaris wo ganz anders her.
Dark_Knight schrieb:
Sich dann aber hier hin zu stellen und per se Vega als Enttäuschung ab zu stempeln und das auch immer wieder in Tests einfließen zu lassen. Sorry, aber das ist nicht wirklich ein Zeugnis von vernünftigem Journalismus.

Ist absolut gerechtfertigt, wenn alle Architekturkniffe nicht gegriffen haben, dann ist das enttäuschend.
Genau davon handelt der Test. Das ist keine generelle Bewertung von einer Grafikkarte.
Dark_Knight schrieb:
Die eigene Meinung, kann man dann immer noch per Kommentar schreiben, sei es als eigenen Beitrag oder wie alle anderen Forenuser dann hinterher.

Dein Problem is, dass du schlechte Testergebnisse nicht ertragen kannst wenn ein bestimmer Hersteller betroffen ist. Darf also ein Tester keine Fazits mehr ziehn? Dann lässt man am besten das ganze Fazit und die Rückschlüsse weg, könnte ja vielleicht der subjektive Eindruck von Wolfgang dabei sein.:p
 
Casillas schrieb:
Um positive Aspekte zu finden bzw. aufzuzeigen muss man nun mal neutral sein. Wenn man das als Redakteur vor einem Test nicht ist, wirds schwer. Das ist sicherlich nicht nur in dieser Branche so.
Um positive Aspekte zu finden, müssen solche zu allererst einmal existieren.

Ich halte es nicht für zielführend, die Presse für die negative Aufnahme der Vega-Linie verantwortlich zu machen, dafür ist AMD durch Design, Öffemtlichkeitsarbeit und solche Unmöglichkeiten wie abgekündigte Leistungsmerkmale schon selbst verantwortlich.
 
  • Gefällt mir
Reaktionen: Galatian und Gschwenni
Ja klar bei 1440p gehen deutlich mehr Hz als 4k. Viele GPU schaffen 4k eh nur iwo zwischen 30 und 60 FPS, das dynamisch am Bildschirm wäre schon gut. 120hz fehlt wohl noch die günstige gute Hw für DP1.3
 
Sternengucker80 schrieb:
Das ist nicht AMDs schuld, sondern eure.
Selbst wo AMD besser war als NV, wurde ja immer schön zu NV gegriffen.
Tja, heute recht sich euer Verhalten.
So ein Quark. Wenn AMD ein mittelmäßiges Produkt sinnlos überhypet und nicht mal in der Lage ist, die versprochenen Leistungsmerkmale zu implementieren, dann liegt die Schuld genau bei einem: AMD.
 
  • Gefällt mir
Reaktionen: Galatian und Gschwenni
mace1978 schrieb:
Um zu erkennen, ob eine Karte eine höhere IPC besitzt ist aber der Durchschnitt von einer "Willkürlich" ausgewählten Spieleauswahl schlecht geeignet.

Will heißen du willst nur die Spiele nehmen wo Vega was bringt und die wo Vega nix bringt soll man gefälligst rauslassen, dann macht der Test ja gar keinen Sinn mehr.:D

mace1978 schrieb:
Wenn Spiele auf beiden Karten gleich schnell laufen und andere auf einer Lösung schneller, dann zeigen die schnelleren den Fortschritt.

Ja, so ungefähr sollte man das verstehen. Aber wenn ich eine Architektur entwickel die nur hin und wieder was besser macht und sogar teilweise langsamer zu Werke geht, dann kann man damit die Architektur halt eben nur so bewerten, denn die muss immer abliefern.
 
BestinCase schrieb:
Wenn es Mining nicht gegeben hätte läge die 56er heute bei 350 und die 64er bei 399
Ohne Mining hätte AMD die Produktion für Apple durchgezogen und Vega dann ganz ruhig im professionellen Bereich verschwinden lassen. Karten im Bereich von 350 Euro Endkundenpreis sind allein durch den gestiegenen HBM2-Preis nicht profitable zu produzieren.
 
  • Gefällt mir
Reaktionen: Galatian
valnar77 schrieb:
Fühlst Du dich btw auch verarscht, dass Nvidia kein AdaptiveSync auf Ihren Karten freischaltet? Oder massive unnütze Tesselation bei manchen Publishern forciert, damit Ihre Karten besser darstehen als die der Konkurrenz?

Ich bin ja völlig bei Dir das Vega mehr Hoffnungen im Vorfeld (Marketing bla bla über ein halbes Jahr vor Release) geschürt hat, als dann wirklich eingetroffen ist. Aber vorsätzlich verarschen ist was anderes.

Zum ersten, ja das ist der Grund wieso ich zu meinem Asnyc Monitor doch noch ne 600€ V64 gekauft habe, hätte NV zu dem Zeitpunkt Freesync frei gegeben wäre AMDs GPU sparte wirklich schlagartig am Ende Gewesen am Desktop PC.
Das ich den Asnyc Monitor gekauft habe war der recht guten 290 geschuldet und der Vorsätzlichen BS-PR zu Vega.
Ich habe nie erwatet das Vega10 an GP102 kommt in DX11, aber mit -~30% habe ich wirklich nicht gerechnet...:rolleyes:
DANN kommt noch der ausverkauft der Vega Fe für 600 und LC für 900€ dazu die "ganze" 1-3% langsamer ist als die RX mit halben VRAM...
Also ja ich bin in soweit angepisst das ich beiden eine Change gebe da die Lorbeeren von AMDs Hawaii bei mir nun aufgebraucht sind.
Für mich sind nun beide Dreckssäcke, da kann ich auch NV kaufen sobald ein neuer Monitor ansteht.
 
Zuletzt bearbeitet von einem Moderator:
Krautmaster schrieb:
Ja klar bei 1440p gehen deutlich mehr Hz als 4k. Viele GPU schaffen 4k eh nur iwo zwischen 30 und 60 FPS, das dynamisch am Bildschirm wäre schon gut. 120hz fehlt wohl noch die günstige gute Hw für DP1.3

Ich hoffe es kommen bald schnelle 4k Displays mit 144 hz und Freesync. 100 Fps gehen auch in 4k mit schöner Grafik. Wobei es da natürlich schon schwerer wird. Aber man muss ja nicht nur schlecht programmierten Pseudo Tripple A Spiele spielen. ;)
 
incurable schrieb:
So ein Quark. Wenn AMD ein mittelmäßiges Produkt sinnlos überhypet und nicht mal in der Lage ist, die versprochenen Leistungsmerkmale zu implementieren, dann liegt die Schuld genau bei einem: AMD.

So ein ausgemachter Unsinn. Wenn Vega wirklich nur ein mittelmäßiges Produkt wäre, wie stünde dann erst nVidia mit seinen Gamingkarten da? Immerhin sind diese in der gleichen Kategorie nicht wirklich schneller und der einzige Vorteil ist der geringere Stromverbrauch, der sich aber auch dann erledigt wenn man die Karten weiter OCed.
Und die einzigen die gehyped haben, sind die User selber. Und klar AMD ist Schuld, das sie Features einbauen, die dann den Entwicklern zur Verfügung stehen und diese von fast allen nicht genutzt werden. Natürlich AMD ist an allem Schuld was dir so den Tag versaut. Ist schon immer wieder interessant, das ein Hersteller ein Produkt auf den Markt bringt, dieses nur zum Teil von Käufern und Entwicklern angenommen wird und die Schuld dann der Hersteller hat, der einfach nur Möglichkeiten anbietet.
Da man Menschen nicht zu ihrem Glück zwingen kann und dementsprechend auch AMD nicht die Entwickler ihre Features zu nutzen (Wobei, wenn nVidia das macht, ist das wieder ok weil es ja technologisch so fortschrittlich ist), bleibt alles so wie es ist.

Wenn dir ein Produkt nicht zu sagt, dann kauf es nicht. Sich aber hin zu stellen und per se es schlecht zu machen oder es als ein schlechtes Produkt hin zu stellen. Ja das zeugt wirklich von Ahnung. :>
 
Zurück
Oben