Test AMD Radeon VII: Benchmarks mit aktuellen Spielen und (Async) Compute

myblade schrieb:
Wäre schön, wenn Computerbase mal hierauf eine Stellung beziehen könnte ;) Denn auch hier wird dies ja irgendwie bestätigt.
Sehr interessante Graphen! Die CPU-Auslastung der 2080 hat ja echt enorme Spike bei der Framerate. Finde auch die weiter unten geposteten Ergebnisse von TechPowerUp wichtig, wo die Vega56 nach einem halben Jahr die 1080 überholt.
 
  • Gefällt mir
Reaktionen: Schranz0815
Danke für den Nachtest.
Erfahrungsgemäß dürfte sich in den nächsten ein bis zwei Monaten noch einiges an Performance über Treiberoptimierungen ergeben. Die 2080 (OC) wird sie damit sicher nicht unbedingt schlagen, aber den Abstand weiter verkürzen, auch unabhängiger vom jeweiligen Spiel.
Wenn dann der Preis noch fällt und attraktive Partnerkarten mit OC auf den Markt kommen, wäre sie grundsätzlich eine Überlegung wert als Ersatz für meine 1080...
Was nicht heißen soll, daß ich mit meiner NVidia unzufrieden wäre, ganz im Gegenteil. Aber ich war jahrelang auch sehr sehr zufrieden mit ATI/AMD/Radeon, und Konkurrenz belebt bekanntlich das Geschäft :)
 
@reappearance

Ist doch ganz einfach. Vega basiert noch zum Großteil auf der GCN Architektur, die 2012 auf den Markt kam. Die Architektur war nie für hohe Taktraten ausgelegt. Nvidia optimiert ihre Karte soweit dass die nahe am Sweetspot agieren, zudem muss der Chip nicht so viel Balast mitschleppen und kann da höher takten ohne dass der Verbrauch darunter leidet.

AMD hat mit Vega eine Allround Karte gebracht, die alles kann.
Die Taktraten musste man höher setzen um die 2080 zu erreichen, heißt die Karte läuft näher am Limit und verbraucht somit halt mehr Strom, der 7nm Prozess hat da geholfen die Taktratenn zu steigern, doch das geht halt zulasten des Verbrauchs.
Im Grunde ist die Radeon VII eine Profi Karte mit der man zocken kann, als solche sollte man sie auch sehen und AMD wird sie in naher Zukunft auch sicher so vermarkten.
 
  • Gefällt mir
Reaktionen: Balikon
xeonking schrieb:
Was genau ist da Zukunftsfähig? Raytracing ist definitiv eine tolle Sache, aber die Nvidia Hardware dafür zu Schwach. Zumindest in einem Bereich in der sich Otto Normal eine Gpu kauft.

Zu schwach gibt es da nicht. Es liegt an den Entwicklern, dieses Feature sinnvoll einzusetzen und dabei muss man natürlich auf die Leistungsfähigkeit der Hardware Rücksicht nehmen. Eine andere, leistungsfähigere Implementierung gibt es ja derzeit nicht.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Ich lese daraus, dass die Karte noch gut reifen kann, durch optimiertere Treiber/Software. Zusammen mit dem großen Test zur Karte bleibt also mein Fazit gleich: AMD hat bezüglich Standard-Spannungen und Lautstärke des Kühlsystems ordentlich versagt, aber einen an sich guten Chip geliefert. Wer bereit ist selbst Undervolting zu betreiben bekommt eine anständige Karte, wer Ruhe haben will wartet besser auf Custom-Modelle.
 
  • Gefällt mir
Reaktionen: Suteki
reappearance schrieb:
wenn man bei BF V so gut da steht obwohl Nvidia dort federführend war.
Liegt daran das Dice und AMD vor BFV über 10 Jahre lang Partner waren, auch auf Frostbite Engine ebene.
Mit UV wird die Radeon7 Effizienz, sieht man schön im Haupttest hier auf CB.
 
zombie schrieb:
Eigentlich müßte CB den ersten Test Aufgrund der Erkenntnisse des zweiten Tests, der Fairness halber überarbeiten. Allein das Fehlen von Battlefield5 war für mich schon sehr verwunderlich, weil es ein Top aktuelles, weit verbreitetes Game ist, dass auf Radeons immer gut läuft. Allein das Game hätte doch die Bewertung der Leistung deutlich rausgerissen.

Battlefield 5 ist einfach kein Nvidia Spiel. Es sei denn, man möchte tolle neue Features zeigen :D;)
 
  • Gefällt mir
Reaktionen: Schranz0815
rico007 schrieb:
@reappearance
Nvidia optimiert ihre Karte soweit dass die nahe am Sweetspot agieren, zudem muss der Chip nicht so viel Balast mitschleppen und kann da höher takten ohne dass der Verbrauch darunter leidet.

Dir Radeon VII hat 13,2 Mrd Transisistoren , die 2080 Ti hat 18,6 Mrd , NV profitiert von angepassten Fertigungsverfahren , beim Wechsel von 16 auf 12 nm haben sie auf eine höhere Dichte verzichtet und nur den geringeren Verbrauch und leicht höheren Takt mitgenommen , deswegen der 754 mm2 Die , die Energieeinsparung haben sie dann gleich wieder in Form von zusätzlichen Transistoren verballert .
1080 TI = 12 Mrd Transistoren , 2080 TI = 18,6 Mrd = 55 % mehr Transistoren ..... und da gab es doch glatt hier einen , der hielt den Wechsel von 16 auf 12 nm für reines Marketing :rolleyes:
 
kisser schrieb:
Eine andere, leistungsfähigere Implementierung gibt es ja derzeit nicht.

Besonders gibt es diese Implementierung nur bei ein paar 100k Spielern. Die Spielestudios warten nur darauf für diese potentiellen paar hundert k Menschen (die dann 30€ Keys kaufen) für teuer geld RTX zu implementieren.

Also: RTX nur wenn Nvidia kräftig zahlt oder übernächste Konsolen Gen.
 
Die 2080 macht +33% zur V64 bei doppeltem Preis? Just buy it!

Also jetzt, mit aktivierten Pro Treibern, wird die VII schlagartig attraktiver für ne ganze Reihe an Kunden.
Gaming performance on par mit ner 2080? Geschenkt obendrauf.

Hat jemand nen Vergleichstest zu ner WX7100 oder P4000 parat?
 
  • Gefällt mir
Reaktionen: Balikon
TenDance schrieb:
Dann siehst Du aber nicht was nVidia selbst sieht und auch macht.
low-level-API ist die Zukunft, nicht zuletzt weil alle next gen Konsolen dies als Standard nehmen. nVidia versperrt sich da rein aus Taktik, da sie dadurch weniger profitieren im aktuellen Portfolio als ihr Konkurrent. Dessen Probleme werden dadurch ziemlich gut angegangen.

Was soll ich da nicht sehen? Es ust schon klar dass es Nvidia nicht eilig hat. Gerade wenn man in DX11 teilweise gleich schnell oder sogar schneller ist als die Konkurrenz mit DX12.
Da ist eher die Frage wozu unbedingt eine neue API?
Knackpunkt ist dass es bei DX12/Vulkan mehr in Entwicklerhand liegt was bei rum kommt und auf wen er zugeschnitten ist. Man kann über den Treiber nicht mehr viel korrigieren.
Bisher haben wir ja eher eine 50/50 Chance dass DX12 besser läuft als DX11.

Dass man da als Marktführer nicht gleich in die ferne Zukunft investiert die dann ebenfalls der Konkurrenz hilft ist kein Geheimnis.

Ich sege auch eher bei AMD das Problem dass man immer etwas zu sehr 2-3 Jahre voraus ist und hofft dass genügend Entwickler darauf anspringen.
Manche Leute wollen aber jetzt doe möglichst volle Leistung und keine Karte die 80% der Leistung abruft und in 3-4 Jahren dann bei 95-100% landet.
Da gibt es dann schon wieder neue Techniken und Funktionen die eine ältere Karte dann eh nicht mehr nutzen kann.
Keiner kann sagen wie es in paar Jahren läuft. Langfristig planen ist immer ein Risiko. Kann klappen wie man an pasr älteren AMD Karten sieht aber auch schnell anders aussehen.
Wer weiß wie es kommt wenn AMD von GCN abrückt. Dann könnten sich die Entwickler auf neue Architekturen konzentrieren und die Alten fallen in den Möglichkeiten etwas ab.

Muss Jeder selber wissen was er für Richtig hält. Anderen vorzuschreiben auf das falsche Pferd zu setzen geht eh nicht weil wir nicht wissen wie es in paar Jahren aussieht.
 
Luxmanl525 schrieb:
Dito, siehe oben. Auch hierzu gilt, mach dich erst einmal etwas sachkundiger, bevor du sowas vom Stapel läßt.
Wo "oben"?
Liefer du doch erstmal harte Fakten, bevor du hier so ein dünnes Zeug daher blubberst.

Die Karte würde auch mit der halben Bandbreite funktionieren.
Davon mal abgesehen hätte man auch einfach kleinere HBM-Module nehmen können.

Das Gebabbel von "Die Karte KANN NUR MIT 16GB funktionieren!!!!!11111" ist dermaßen hohl, da fällt mir echt nichts mehr zu ein.
 
USB-Kabeljau schrieb:
Wo "oben"?
Liefer du doch erstmal harte Fakten, bevor du hier so ein dünnes Zeug daher blubberst.

Die Karte würde auch mit der halben Bandbreite funktionieren.
Davon mal abgesehen hätte man auch einfach kleinere HBM-Module nehmen können.

Das Gebabbel von "Die Karte KANN NUR MIT 16GB funktionieren!!!!!11111" ist dermaßen hohl, da fällt mir echt nichts mehr zu ein.

Nein hätte man nicht da HBM2 <4GB nicht produziert wird. Halbe Bandbreite = näher an der Vega 64 und noch weiter weg von der 2080.

Für die Bandbreite braucht man schlicht vier Module, 2GB Module gibt es nicht. Hätte man 2x 4GB verbaut (was bei dem Takt genau 500GB/s wären anstatt 488GB/s) hätten hier noch mehr Leute rumgeheult als jetzt schon.

Wenn euch das zu teuer ist kauft euch ne 2070 mit 8GB oder eine 2060 mit ganzen 6GB, aber heult nicht jeden Radeon Artikel in den Kommentaren voll. Ist ja grauenhaft...

Die Karte ist so auf dem Markt, euer Gezeter und Gemecker dürfte AMD einen S..... interessieren. Wer für die Karte Verwendung hat kauft sie, wer nicht halt nicht.
 
  • Gefällt mir
Reaktionen: s0UL1, Botcruscher, Acedia23 und 3 andere
Danke Computerbase für einen weiteren Test, das verschafft gerade auch den Spielern etwas mehr Klarheit. Ich sagte es schon im Hauptthread: Der Erfolg der Karte steht und fällt mit dem Preis (und entsprechend der Verfügbarkeit).

Wenn ich mir tatsächlich so eine Karte für viele hundert Euro kaufen würde, dann wäre mein persönlicher Anspruch daran, dass sie auch mal 4 oder vielleicht 5 Jahre ihren Dienst verrichtet, da sehe ich mittel- bis langfristig in 16GB HBM VRAM mehr Zukunftstauglichkeit als 4 - 9% weniger Leistung gegenüber der RTX 2080 (was sich in der Praxis unter 4K letztlich in wenigen fps niederschlägt).

i-Tüpfelchen im Test wäre gewesen, wenn die RTX 2070 FE noch überall mit drin gewesen wäre, da ich sehr stark davon ausgehe, dass die Radeon VII schon nach wenigen Monaten in diese preisliche Region abrutschen wird: RTX 2080 gibts jetzt schon für unter deutlich unter 700€, die RTX 2070 für unter 500€. Sofern die Radeon VII in Richtung 600€ wandert, ist das doch perfekt für alle Beteiligten.
 
@USB-Kabeljau

Klar würde die Karte mit der halben Bandbreite genauso funktionieren.

Vega 64 / 56 sind ja nicht bekannt dafür unter der Bandbreite zu leiden, daher sind die Modelle mit Hynix-HBM auch nicht verachtet weil man den HBM nicht/kaum übertakten kann. \s

Ob du es wahr haben willst oder nicht, ein nicht unerheblicher Teil des Performance-Plus bekommt man aus der verdoppelten Brandbreite. Man kann eine Vega 64 auch auf die 1750MHz Real-Takt bringen, wenn die Kühlung und Spannungsversorgung passt (siehe User Benchmarks).
Wie man in den Benchmarks auch unschwer erkennen kann ist auch jede Karte dort auf dem HBM übertaktet (945MHz Stock).
Laut CB bringt der Schritt von 800MHz auf 1000Mhz HBM mit der Radeon VII immernoch 6% mehr Leistung.

Das gebabbel das "geht auch ohne" ist nonsense. Wenn man 2 Stacks beibehalten hätte wären die Karte eine Vega 64 mit weniger CU/Shadern und einem verbessertem Verbrauch im Vergleich zu einer hart übertakteten Vega 64.


Und es gibt zur Zeit niemanden der 2GB HBM2-Stacks anbietet (soweit ich weiß).
Warum auch, der Consumer-Markt nutzt in der Regel kein HBM2, eben wegen der kosten. Und für Enterprise (Compute)-Karten sind die 16GB ganz klar von Vorteil.


Die Karte ist nunmal ein Instinct-Package, auf einem Instinct-PCB was an Gamer verkauft wird. Radeon VII ist ein Lückenfüller für den AMD neben einem (schlechtem) Kühlerdesign keinen Entwicklungsaufwand hatte.
 
  • Gefällt mir
Reaktionen: Balikon
just_fre@kin schrieb:
Danke Computerbase für einen weiteren Test, das verschafft gerade auch den Spielern etwas mehr Klarheit. Ich sagte es schon im Hauptthread: Der Erfolg der Karte steht und fällt mit dem Preis (und entsprechend der Verfügbarkeit).

Richtig. Dafür muss die Karte aber A: breit verfügbar sein (was noch kommt, die erste Charge ist halt ratz fatz vergriffen gewesen) und B: wenn der Preis fällt was aber nicht 5 Tage nach Release passiert und schon gar nicht wenn man sie aktuell nicht kaufen kann.

Dazu macht AMD die Preise nicht (abgesehen von der UVP) sondern schlicht die Händler. Die langen jetzt natürlich nochmal gepflegt ins Sparschwein der Käufer.
 
  • Gefällt mir
Reaktionen: Sennox
@USB-Kabeljau:
Warum sollte man Dir die Arbeit abnehmen, sich über Vega 64, HBM und Radeon VII selbst zu informieren? Wenn Du das getan hättest, wüsstest Du, dass die Vega 64 (und die Fury übrigens auch) Bandbreitenlimitiert sind. Informationen dazu gibt es genug.
Dank @Joshinator brauche ich nun nicht mehr groß auszuholen. Anderer Leute Argumente nur hohles Gebabbel zu nennen, ohne sich auch nur ansatzweise damit auseinanderzusetzen, zeugt nicht von Diskussionskultur.


myblade schrieb:
Wäre schön, wenn Computerbase mal hierauf eine Stellung beziehen könnte ;) Denn auch hier wird dies ja irgendwie bestätigt.

Interessante These. Wäre echt mal eine Untersuchung wert.
 
  • Gefällt mir
Reaktionen: Sennox und Colindo
myblade schrieb:
Wäre schön, wenn Computerbase mal hierauf eine Stellung beziehen könnte ;) Denn auch hier wird dies ja irgendwie bestätigt.

Geht um Multithreadoptimierung und Scheduler-Unterschiede... und dass eben Battlefield 5 und die Frostbite-Engine das Verhältnis umdreht.

Der Thread Ersteller redet halt Stellenweise ganz schöne Grüze:

"When looking at 3DMark DirectX 11 Timespy benchmark with low/bad Multi-core optimalisation you'll see the Radeon VII loosing against an RTX 2070.
...
While looking at Firestrike Extreme, from the same developpers on DirectX 12 with good Multi-core optimalisations the Radeon VII does seem to keep up and even beat the RTX 2080."

Also erstens handelt es sich hier um Benchmarks, die absichtlich die CPU Last niedrig halten, um GPU Leistung zu testen.
Zweitens ist es genau andersrum.
Timespy ist DX12 und sollte daher ja Multithread Support bieten und den AMD Karten besser schmecken.
Firestrike ist DX11 und hierbei schafft es eine R7 bis auf ca. 20% an eine 2080Ti zu kommen, ABER nicht aus den oben genannten Gründen.

Oder auch

" Benchmarkers don't actually play the games they test, and they will never test streaming performance on cards. And personally, I think they should. It would give gamers another perspective on Nvidia hardware."

Dann hat er noch nichts von GamersNexus gehört 🙃

Des Weiteren performen die AMD Karten so gut, da Dice und AMD über die letzten Jahre zurecht sehr gut zusammengearbeitet haben, um eine super Engine bereitszustellen.
Das wird auch nichts an einer einmaligen Zusammenarbeit seitens Dice mit Nvidia ändern.

Dazu kommt noch, dass der Test von einer Person gemacht wurde die komplett auf R7 pocht.
Neutral ist was anderes.
Auch wenn die Ergebnisse stimmen sollten, kann man dem Test wenig Bedeutung beimessen, da das Thema einfach nicht objektiv abgehandelt wurde.


Und zu guter Letzt. Es geht hier, um ein Game.....

Die Geschichte über 33 Games sieht anders aus (-7% zur 2080):
Screen Shot 2019-02-12 at 10.51.58 AM.png

Ich würde mir aber auch lieber mehr solcher Ausreisser wünschen!
Screen Shot 2019-02-11 at 4.37.04 PM.png
 
  • Gefällt mir
Reaktionen: Balikon und Benji21
Da hier immer wieder die VRAM Diskussion aufkommt, wäre ein dedizierter Artikel hierzu vielleicht sehr hilfreich.

In so einem Artikel würde ich mir folgendes wünschen:
  • Bildvergleich der Texturen zwischen sehr VRAM lastigen Spielen und weniger VRAM lastigen Spielen (z.B. RE2 vs BF5) sowie zwischen Texturen auf Ultra vs Texturen auf High/Medium im gleichen Spiel.
  • VRAM Auslastung vs. wirklicher VRAM Verbrauch
  • Die Technik, die verantwortlich ist, dass VRAM geleert und wieder befüllt wird und deren unterschiedliche Implementation
  • Warum genau Spiele mit geringem Verbrauch dennoch besser aussehen können als Spiele mit hohem VRAM Verbrauch (siehe BF vs RE2)
  • Einfluss der Speicherbandbreite (Nvidia vs AMD, Nv vs Nv (neue Kompression), AMD vs AMD (mehr Bandbreite))

Sollte es einen solchen umfassenden Artikel schon geben, freue ich mich über jeden Link dazu.Denn aktuell scheint der VRAM Verbrauch signifikant ohne irgend eine optische Verbesserung anzusteigen. Woran liegt das?
 
  • Gefällt mir
Reaktionen: Coeckchen, tomasvittek und playoxking
Exakt. Die Karte ist nicht zu teuer. Sie ist ausverkauft.

Wieso sollte man die geringen Mengen an Karten verschenken, wenn Sie ihr Publikum finden?

Der erste Test, vor allem aber die Überschrift, war Bild Niveau, nicht mehr und nicht weniger. Hier sollte sich CB ernsthaft hinterfragen warum man immer mal wieder solche Aussetzer hat.

Mmn kann das nur an der nVidia NDA liegen. Keine der Turing Karten, bzw überhaupt keine nVidia Karte wurde bisher in der Überschrift "zerrissen".

Ja, die RVII ist nicht dort wo viele sie gern sehen würden.
Zwischen 2080 und 2080ti bei 500€ Preis

Eine Alternative ist sie trotzdem.

Das mehr Grüne als rote Karten verkauft werden, lässt sich nicht von der Hand nd weisen. Das ist fakt.

Turing ist aber kein Verkaufsschlager.. Das kann man gut recherchieren und auch an den zig Aktionen der Partner in den sozialen Medien erkennen.

Ich sag es nochmal.. nVidia hat AMD einen Gefallen getan, die Preise so hoch anzusetzen. Hätten Sie eine GTX 2080 mit 12 GB Speicher für 500€ gebracht, wäre AMD toter als Tot im GPU Markt

So sind sie jetzt ein wenig in der Ecke mit ihren hohen Preisen, hohen Margen und geringeren Verkaufszahlen als erhofft/erwartet.

Eine radikale Preissenkung sieht kein Aktionär gerne... Wohl auch ein Grund dafür das der Kurs wirklich radikal eingebrochen ist und weiterhin alles andere als stabil ist.

Sogar die ARD berichtet über die Katastrophale Aktie von nVidia.

2080ti schnellste und beste Karte, ja...
Aber "zu langsam und zu teuer"
Für den Preis.
So geht es der 2080 und der RVII auch...

Im Brot und Butter Bereich sind beide gut aufgestellt. Wieso man aber dort, statt einer 580/590 eine 1060 kauft/gekauft hat, das erschließt sich mir nicht.

Da sind die Radeons bis auf den Verbrauch besser aufgestellt. Mitunter auch mit den Spiele Bundles deutlich attraktiver
 
  • Gefällt mir
Reaktionen: NikoNet, Balikon, Sennox und eine weitere Person
Zurück
Oben