Test AMD Radeon VII: Benchmarks mit aktuellen Spielen und (Async) Compute

Neronomicon schrieb:
Da sage ich mal holy shit nein danke. :lol: Auch mit UV frisst mir die zuviel.
ja , dann bezahl für vergleichbare Leistung doch gleich das doppelte .... , irgendwer muß NV doch unterstützen , jetzt , da es abwärts geht bei NV :daumen:

ich finde RX56 für 260 Euro echt attaktiv , leider ist es kein Custom Kühler Design . Den Verbrauch kriegt man seehr leicht unter Kontrolle , verzicht auf 50 Mhz Chiptakt , Spannung runter und schon zieht die RX56 weniger als ne 1080 .....
 
  • Gefällt mir
Reaktionen: valnar77, Inxession und Sennox
Ben81 schrieb:
Bis spiele diese 16GB wirklich nutzen ist die Karte selber viel zu

Für Leute die ihre Spiele grafisch modden ist das beispielsweise eine tolle Sache, du würdest dich wundern wie schnell man 16 GB mit Texturen, meshes und shader voll bekommt. Bei AMD bekommt ein Modder also eine Karte mit 16GB schnellem Vram für um die 700, bei nvidia wäre das nächst größere Modell die RTX Titan mit 24GB für 2700€. Tellerrand und so
 
  • Gefällt mir
Reaktionen: .Sentinel. und Balikon
asterix_gvb schrieb:
Im Jahr 2019 sollten die Tests für High-End-Grafikkarten nur mehr in 4K und 5K mit DX12 und Vulkan API durchgeführt werden

Damit würde jede Tech Seite ihr eigenes Grab schaufeln, da man dann an mind. 95% der Kundschaft/Leserschaft vorbeitestet, sowohl was die Auflösung, als auch die Titel angehen würde.
Zumal man dann bei Karten wie diesen hier regelmäßig bei 40-50fps rauskommen würde (vor allem bei den Lows). Wer spielt denn so?

asterix_gvb schrieb:
Für die geringeren Auflösungen sind die Mid-Range Karten da

Das dürfte der Kunde zum Glück immer noch selbst bestimmen. Vor allem für High FPS kann man gar nicht genug Grafikleistung haben.

asterix_gvb schrieb:
Desweiteren sollten die 99% FPS für das Ranking bewertet werden und nicht die durchschnittlichen FPS

Kann man machen, nur schreckt das dann viele Menschen ab, eine neue Grafikkarte zu kaufen, da sie ja "langsamer" als die alte sein könnte (weil sie den 99th Wert nicht verstehen z.B.).
Ich bin für 2 separate Rankings, dann kann jeder für sich gewichten.

asterix_gvb schrieb:
Hab schon gesehen, das die GPU zu 100% ausgelastet war, aber die CPU nur mit 30%, aber auch umgekehrt

In einem GPU Test sollte die GPU zu 100% ausgelastet sein, dabei ist es komplett egal, wie viel Last auf der CPU liegt. In einem Spieletest mag das anders sein.
Deshalb sind FHD Tests mit einer 2080ti u.a. nicht aussagekräftig, weil die nicht komplett ausgelastet werden kann.
Grundsätzlich hast du natürlich Recht, da sollte schon immer auch zumindest die GPU Last (vor allem in Spieletests) angegeben werden.

asterix_gvb schrieb:
Die Lüfter sind zu laut, das hat aber AMD/ATI gefühlt immer gemacht, um seine Partner die Möglichkeit zu geben, Eigene-Produkte zu entwickeln/vermarkten.

Ob das der Hauptgrund für die lauten Lüfter ist, wage ich mal zu bezweifeln, zumal man immer noch nicht weiß, ob es jemals Customdesigns von der R7 geben wird.

asterix_gvb schrieb:
trotzdem sollten € 500-600 für High-End-Grafikkarten das Limit sein

Das ist mit der aktuellen Fertigung und den verwendeten Komponenten sowohl von Nvidia als auch AMD nicht machbar. Vielleicht wieder, wenn man ein Multichipdesign hat, aber so wird das definitiv nichts mehr.
Man muss halt akzeptieren, dass wir nah an der Grenze des technisch machbaren angekommen sind und die Preise von vor 5-10 Jahren leider nicht mehr möglich sind.
Also ne Titan (ehem. 580er Chip) wirds auch mit Konkurrenz nicht mehr für 500€ geben.
Auch AMD kann keine High End Karte für 500-600€ verscherbeln, mich wundert eh, dass man eine Vega 56 für 270€ rausdrücken kann ohne Verluste zu machen...
 
  • Gefällt mir
Reaktionen: W0lfenstein
ich hatte es schon bei der RX580 gepostet für 170 Euro , ich sehe das als Abverkauf der alten Karten an und glaube nicht an einen Navi Launch erst im Oktober ...
So wie AMD die GraKa jetzt abverkauft , könnte schon im April Navi rauskommen...
 
  • Gefällt mir
Reaktionen: Chaos Theory
Na das wird ja immer besser, demnächst muss ich mir als Spieler zuerst überlegen welche Spiele ich spielen will,
dann Graka festlegen und dann den Monitor!
Holy shi.....
 
myblade schrieb:
Hust... Grundsätzlich sagt das DX-Featureset nichts darüber aus, wie und in welchem Umfang sie in der Engine implementiert sind. Beispiel? WOW... war vorher auch DX12 und seit neuestem mit Multithread-Optimierung... Ergebnis... +35% auf einem Ryzen 2500X bzw. 36% auf einem 2700X... hier wird sicherlich auch Intel profitieren, aber dies soll nur belegen, dass "DX12" nicht viel aussagt ^^

Dass es bei TimeSpy und Firestrike bezüglich des DX-Levels andersherum ist, ok... stimmt wohl ;)

Was aber die CPU- und RAM-Last-Thematik angeht, kann kaum auf "AMD-spezifische" Optimierungen zurückgeführt werden... denn anders versteh ich deinen Hint auf die "Dice und AMD-Zusammenarbeit" nicht :) Wodurch soll diese denn erklärt werden? Insgesamt weniger CPU und RAM-Last bei mehr Leistung, während sonst nVidia mehr Leistung liefert? Gerade da wird man auf die Unterschiede schauen müssen... und das sind dann nicht AMD-spezifische Optimierungen ;) In deinen Screens is es ja auch noch bei anderen Spielen so...

Und ob neutral oder nicht.... es ist jedenfalls auffällig :)

Aber daher auch die Frage, ob sich wer anderes dazu äußern könnte :)

Vorneweg.
Bitte neutral über das Thema diskutieren.
Egal welche Karte schneller, besser, hübscher ist.
(Ich will Leistung, egal welcher Markenname da drauf steht.)

Korrekt DX11 oder DX12 sagt wenig über die Multithread Unterstützung aus.
Aber genau auf diesen kausalen Zusammenhang verweist dieser Threadersteller.
Daher zweifele ich sein Wissen an.

Man kann auch Assassin's Creed: Origins/Odyssey nehmen, welche auf DX11 basieren und "sehr gut" mehrere Kerne belegen/auslasten. (Randbemerkung: Trotzdem kommen in der Kack Engine zu wenige FPS rüber :-D )

Zum Thema Dice und AMD:

https://www.gamestar.de/artikel/bat...-mit-amd-fuer-frostbite-titel-an,3024779.html

Ja die beiden arbeiten seit 2013 zusammen an der Frostbyte 3 Engine, um diese auf AMD zu optimieren.
Ist ja auch nichts verwerfliches dran, sonder einfach ein Fakt.
Macht ja auch Sinn, da EA diese Engine überall einsetzen will und die Konsolen GPUs von AMD kommen.

Daher ist es doch positiv, dass dieses Game damit gut funktioniert.

CPU/RAM Usage Unterschiede bei verschiedenen Grafikkarten sollte vielleicht jemand wie @FormatC sich mal austoben :-)
Ich denke da würden wir die detaillierteste Analyse bekommen.
 
MK one schrieb:
ich hatte es schon bei der RX580 gepostet für 170 Euro , ich sehe das als Abverkauf der alten Karten an und glaube nicht an einen Navi Launch erst im Oktober ...
So wie AMD die GraKa jetzt abverkauft , könnte schon im April Navi rauskommen...

AMD hat es doch selbst schon bestätigt, dass sich Navi verschiebt und mit einem Release nicht vor Oktober zu rechnen ist.
Wie kommst du da auf April ?

Ich hab es by the way noch vom letzten Jahr in den Ohren: "Kauf dir doch keine Vega56 jetzt, im Frühjahr kommt Navi ! Lieber darauf warten"... Ja ja :freak:. Ich hab damals als noch nichts konkretes fest stand schont gesagt, das ich nicht vor Q3 oder Q4/2019 mit Navi rechne und es hat sich leider bestätigt.
Da kommt so schnell gar nix und wenn, dann maximal knapp unter Vega56/64 zum Midrange Preis anfangs Hoffnungslos überteuert und vergriffen, wie immer bei AMD GPU Releases. Im Highendbreich wird die Vega VII verbleiben, ich gehe nicht davon aus, dass da dieses Jahr noch was kommt.
 
Zuletzt bearbeitet:
*** schrieb:
MSI Vega 56 für 260 Euro inkl 3 Games: ich sag nur holy shit :D
MK one schrieb:
ich finde RX56 für 260 Euro echt attaktiv , leider ist es kein Custom Kühler Design .
Das ist doch die, auf die man einen Wasserkühler schnallen kann? Hätte ich den Preissturz erahnt, hätte ich nicht letzten Juni eine Vega64 für 460€ gebraucht gekauft. Damals waren die MSI-Karten bei 600€
 
  • Gefällt mir
Reaktionen: Chaos Theory
DeadEternity schrieb:
AMD hat es doch selbst schon bestätigt, dass sich Navi verschiebt und mit einem Release nicht vor Oktober zu rechnen ist.
Wie kommst du da auf April ?
Wer hat was bestätigt ?? AMD ?
Bisher ist das nichts als ein Gerücht von Cowcotland ..... , ansonsten wäre diese AMD Meldung mir entgangen ...

https://www.mindfactory.de/product_...-GPX-Pro-ATI-RX-Vega-M01-schwarz_1200815.html
was anderes Interessantes hab ich bei Mindfactory gesehen , es ist lange her das ich 3000 er DDR4 / 2 *8 GB Speicher für 87,90 gesehen habe ....
Ergänzung ()

Colindo schrieb:
Das ist doch die, auf die man einen Wasserkühler schnallen kann? Hätte ich den Preissturz erahnt, hätte ich nicht letzten Juni eine Vega64 für 460€ gebraucht gekauft. Damals waren die MSI-Karten bei 600€
Du sagst es , leider liegt der AIO Kühler noch bei 180 Euro ,,, , hat ich mir auch schon angesehen ... :D
https://www.mindfactory.de/product_...-GPX-Pro-ATI-RX-Vega-M01-schwarz_1200815.html

https://www.alphacool.com/shop/neue...ool-eiswolf-240-gpx-pro-amd-rx-vega-m01-black
sind übrigens ne ganze Reihe zu kompatibel
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Acedia23
MK one schrieb:
Wer hat was bestätigt ?? AMD ?
Bisher ist das nichts als ein Gerücht von Cowcotland ..... , ansonsten wäre diese AMD Meldung mir entgangen ...

Angeblich wurde es geleakt, laut AdoredTV, PC Builders Club etc...
 
Max007 schrieb:
Hauptsache im ersten Test die Spiele rauslassen, bei denen die VII gut abschneidet um ein massiv überzogenes negatives Fazit zu titeln. Und einige Tage später reicht man einen Test nach, bei dem die VII in 4K mit 93.3 zu 96,8% zu einer 2080 FE abschneidet. Die 2080 hat zum Release 870€ gekostet, schon vergessen?

Nvidiabase bestätigt die Vorwürfe alle Jahre aufs Neue.

Wenn also neue Treiber die Spannung etwas runtersetzen und somit Temp/Lautstärke im Rahmen sind, trennt die VII nur noch 50-70€ von einer Empfehlung gegenüber einer 2080FE? Daran müsst Ihr Euch dann aber auch messen lassen.

Gleich vorweg, ich habe nicht alle Kommentare durchgelesen. Aber selbst dieser Test scheint mir fragwuerdig. Warum wurde nicht der neuste Treiber fuer die Vega VII verwendet aber fuer die 2080 schon? Fuer die faulen: Vega VII Treiber. Sollte man nicht wenigstens auf gleichem Stand testen? Und ueber den Preis mit UVP gegen Strassenpreis urteilen ist irgendwie auch schwach.

Rockstar85 schrieb:
Also im Klartext ne Option, wenn man keine 2080 möchte.. Denn wie du ja sagtest, ne FE kostet halt auch ihre 850€, die Customs sind teilweise günstiger.
Es kommt massiv auf das Spiel und die Anwendung an. Wie immer leider keine Karte für jedermann..

Schade, dass die Trolle das Thema so massiv eskalieren ließen..

neue Überschrift des Tests wäre nun: Radeon Seven, Teuer, Laut und Anwendungsabhängig, aber 16GB HBM

Vllt können die Käufer der Karten ja in 2-3 Wochen etwas besser Berichten. Ich halte mich da an Igors Worte: Selber testen und schauen ob man damit glücklich wird.
Kunden einer 1080ti oder gleichwertig, sind eh nicht die Addresse für die Nutzer. 980Ti und 290X Käufer finden hier sicher ihre Option. Wenn ich die Bauteilbestückung ansehe, frage ich mich, warum AMD hier soviel Geld investiert?
Schaut euch das Bullzoid Video dazu an, alleine die Vcore Bestückung liegt bei fast 100$

@
Berserkervmax
Aber nen 9900K Der8auer Edition haben.. Merkste selbst?

Che-Tah
Schauen wir mal, ich denke 2020 wird die Seven die 2080 überholt haben. Allerdings wird AMD sich nicht mit den Strix, Superclocked und anderen OC Gamermodellen messen können. Ich hoffe AMD tut was gegen den Nutzlosen Kühler noch mal. Oder aber Sapphire richtet das Problem

Den Trollen wird halt ordentlich Futter gegeben. Wobei viel von dem Futter halt nicht ganz auf sicheren Beinen steht. Alleine die Ueberschrift sollte schon anders lauten: Radeon VII, zu laut, UVP zu hoch, Strassenpreis noch unbekannt, Andwendungsabhaengig, aber 16GB HBM. Die Leistung kann man sich halt hinbiegen wie man will je nach Auswahl. Selbst die Compute Anwendungen hier sind schon duerftig. Ich habe es im anderen Thread auch schon erwaehnt, Phoronix hat da einen interessanten Test. Und da lautet die Ueberschrift halt schon mal komplett anders.

CB konzentriert sich viel zu sehr auf Spiele und ignoriert einen ordentlichen Teil der Zielgruppe von dieser Grafikkarte. Das kann man machen, dann sollte man aber vorsichtig mit der Formulierung sein, ansonsten bekommt man recht schnell unterstellt voreingenommen zu sein. Aber das Loch hat sich CB selber gegraben.

@Wolfgang @CB Wie schon im anderen Test gefragt, macht ihr noch Machine Learning Tests? PlaidML bietet sich an dafuer da es Support fuer AMD Karten hat. Im Test von Phoronix schneidet die Karte nicht schlecht ab, je nach Netzwerk. Und das ist sehr wohl ein Anwendungsgebiet fuer die Karte, da es eine leicht beschnittene Instinct ist.
 
  • Gefällt mir
Reaktionen: Rockstar85 und Sennox
DeadEternity schrieb:
Angeblich wurde es geleakt, laut AdoredTV, PC Builders Club etc...
die sich alle auf ein und dieselbe Quelle berufen , allesamt voneinander abgeschrieben , sieh dir den CB Artikel dazu an , dann weißt du auch woher alle anderen das haben ....
https://www.computerbase.de/2019-02/gpu-amd-navi-oktober-2019/
Cowcotland ist ne französische Tec Seite und sie können genausogut falschliegen wie AdoredTV mit Navi Launch zur CES 2019 ...

GPU-Gerüchte: AMDs Navi angeblich frühestens im Oktober 2019 , so lautet die Überschrift bei CB
 
  • Gefällt mir
Reaktionen: Chaos Theory und DeadEternity
Dural schrieb:
Turing ist die deutlich modernere Architektur als Vega, jeder der behauptet Vega dürfte besser reifen als Turing hat schlicht keine Ahnung. Selbst die 16GB werden der Karte kaum was bringen, jedenfalls in ihrer Lebenszeit (2 Jahre) nicht, die GPU ist schlicht zu langsam.

Das sieht man am deutlich besseren Abschneiden von Turing unter DX12 und Vulkan. Halt, nein, Vega legt hier deutlich zu - ich denke, Turing ist in der Tat die modernere Architektur. Allerdings sitzt CGN in der XBox und Playstation, weshalb in Zukunft mehr Spiele nahe an der Compute-lastigen Architektur der Radeon-Karten konzipiert werden könnten.

Ein weiterer Punkt könnte sein, dass AMD zum Start neuer Karten einfach die schlechteren Treiber liefert und so im Laufe der Zeit über Optimierung mehr rausholen kann. Das kann man als Vor- oder Nachteil sehen.
 
Neronomicon schrieb:
Im Treibermenü 2 Klicks, sehr einfach.

Ja, 2 Klicks mit vorher ermittelten Werten und dann direkt Bluescreen. Ganz toll dieses Undervolting. Funktioniert jedes Mal.

MK one schrieb:
So wie AMD die GraKa jetzt abverkauft , könnte schon im April Navi rauskommen...

Und dann gibts noch kein Join the Rebellion und Poor Turing Marketing? So gar kein Marketing? Nicht mal Leaks?
Dann müsste sich AMD verdammt sicher sein was tolles rauszuhauen oder verdammt sicher sein ne Luftpumpe zu präsentieren.

Ich glaube eher dass man die Karten für mehr Geld einfach nicht mehr loswird. Simple as that.
 
Zuletzt bearbeitet:
Esenel schrieb:
Vorneweg.
Bitte neutral über das Thema diskutieren.
Egal welche Karte schneller, besser, hübscher ist.
(Ich will Leistung, egal welcher Markenname da drauf steht.)

Korrekt DX11 oder DX12 sagt wenig über die Multithread Unterstützung aus.
Aber genau auf diesen kausalen Zusammenhang verweist dieser Threadersteller.
Daher zweifele ich sein Wissen an.

Man kann auch Assassin's Creed: Origins/Odyssey nehmen, welche auf DX11 basieren und "sehr gut" mehrere Kerne belegen/auslasten. (Randbemerkung: Trotzdem kommen in der Kack Engine zu wenige FPS rüber :-D )

Zum Thema Dice und AMD:

https://www.gamestar.de/artikel/bat...-mit-amd-fuer-frostbite-titel-an,3024779.html

Ja die beiden arbeiten seit 2013 zusammen an der Frostbyte 3 Engine, um diese auf AMD zu optimieren.
Ist ja auch nichts verwerfliches dran, sonder einfach ein Fakt.
Macht ja auch Sinn, da EA diese Engine überall einsetzen will und die Konsolen GPUs von AMD kommen.

Daher ist es doch positiv, dass dieses Game damit gut funktioniert.

CPU/RAM Usage Unterschiede bei verschiedenen Grafikkarten sollte vielleicht jemand wie @FormatC sich mal austoben :-)
Ich denke da würden wir die detaillierteste Analyse bekommen.

Ich bin immer neutral, daher bin ich auch allen Dingen skeptisch gegenüber ;)

Bezüglich dem kausalen Zusammenhang les ich das nicht zwingend so.

Die Zusammenarbeit bringt aber immernoch nicht solche gravierenden Unterschiede hervor :) Was du aber immernoch außer Acht lässt, ist die Schedulerthematik, wirfst dem Kollegen aber mangelndes Wissen vor :)

Du willst Leistung? Dann sollte es ebenso in deinem Interesse sein, dass Ressourcen nicht aus Faulheit oder Kostengründen verschwendet werden sollten.
Bei optimaler Multithread-Optimierung profitieren ja nicht nur die Grafikkarten, sondern auch jegliche Prozessoren davon. Wieso ist Intel in Spielen besser? Allein wegen des Taktes. In Anwendungen sieht es plötzlich anders aus. Dann kommt z.B. ein WoW und implementiert entsprechende Optimierungen und man hat plötzlich 35% mehr Leistung... bei Intel wirds sicherlich auch ein + gegeben haben...allerdings in unbekannter Höhe.

Wenn das, was der Kollege schreibt, aber stimmt und seine Schlüsse richtig sind, verschwendet nVidia Ressourcen bzw. lagert Last der Grafikkarte auf die anderen Komponenten aus... was nur solange gut geht, wie dort kein Bottleneck entsteht... aber trotzdem fragwürdig ist.

Was die Benchmarks angeht: Nicht alle testen auch nach, wenn es neue Treiber gibt... und auch nicht alle Ergebnisse sind nachvollziehbar... z.B. hat bei Overclock3d die Radeon VII bei BF5 sogar erheblich weniger Frames als ne Vega 64 oder eine RTX 2060, während sie bei 9 anderen, sporadisch geprüften Seiten auf Höhe der RTX 2080 liegt oder ihr davon läuft... ähnlich bei Far Cry 5.

Wie auch immer... ich denke, es gibt hier jedenfalls genug Futter, um sich das mal alles genauer anzuschauen...

Und um mal flächendeckend ein richtiges Ressourcenmanagement und -using zu fordern ;)
 
  • Gefällt mir
Reaktionen: Esenel
Kacha schrieb:
Phoronix hat da einen interessanten Test.
Dass die VII die schnellste GraKa für Linux ist, überrascht mich jetzt wenig, wo doch nV schlichtweg nicht funktioniert (angeblich. Ein Freund von mir heult schon ewig)
 
UNRUHEHERD schrieb:
Das sieht man am deutlich besseren Abschneiden von Turing unter DX12 und Vulkan. Halt, nein, Vega legt hier deutlich zu - ich denke, Turing ist in der Tat die modernere Architektur. Allerdings sitzt CGN in der XBox und Playstation, weshalb in Zukunft mehr Spiele nahe an der Compute-lastigen Architektur der Radeon-Karten konzipiert werden könnten.

Deutlich zulegen sollte man eher in Frage stellen von wo man kommt. Wenn du unter DX11 nur 80% auf die Straße bringst ist eine Steierung auf 95% natürlich höher als wenn die Konkurrenz schon bei 90% anfängt.

Warum legt Turing dann in einigen DX12 und Vulkan (siehe Wolfenstein 2) auch immer noch zu?
Unterschied ist nur dass man häufig unter DX11 schon etwas besser performt und nicht zwangsweise die neuen APIs braucht.

Im Gegensatz zu Maxwell und Pascal fällt Turing galt nicht zurück sondern steigert sich noch.
Daher wird es nicht so einfach werden da groß zu überflügeln.
Hängt immer davon ab welcve Architektur der Entwickler eher anspricht.
 
Zurück
Oben