Test AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2

MK one schrieb:
Der " Segen " von Navi wird der Preis sein , geschissen auf High End :D , ich will ne GraKa mit 1080 er Leistung für 250-300 Euro mit 150 Watt Verbrauch ... , und nicht beschnitten auf 6 GB ....
Das was du suchst wurde von Nvidia 05/2016 released und nennt sich GTX 1080. Wenn du noch ein bisschen wartest, bekommst du eine gebrauchte GTX 1080 zu deinem angepeilten Preis. Kein Grund auf ein erfolgloses Hoffen auf den Heilsbringer Navi, du kannst dir einfach eine 1080 kaufen. Die hat dann auch die Leistung einer 1080, ganz so wie du es wolltest. Thank me later!
 
  • Gefällt mir
Reaktionen: SyntaX, Burfi und Dural
Taxxor schrieb:
somit kann man sie bei der Preisentwicklung nur mit den Vegas vergleichen
Das mag sein. Es ging ja nur darum zu erklären, warum Leute darauf kommen, dass der Preis so sehr fällt. Auch die 580 8GB ist inzwischen billig
 
Die Karte ist für mich okay - nicht mehr und nicht weniger.

Die Überschrift des Artikels ist allerdings total lächerlich und liegt auf Bildzeitungsniveau!
 
  • Gefällt mir
Reaktionen: Mcr-King, Acedia23, Bornemaschine und eine weitere Person
jstar5588 schrieb:
Fakt ist, und jeder der halbwegs klar denken kann wird das genauso beurteilen:

Die Karte ist in aktuellen AAA-Titeln in 1440p gleichauf oder besser als eine 2080 zum ungefähr gleichen Preis.
Doppelter Speicher und noch nicht Treiberoptimiert zukunftssicherer.
Und der Preis wird schneller fallen als der einer 2080.
Da juckt mich Raytracing in Battlefield V überhaupt nicht, das ist ein Shooter und kein OpenWorld-Game.

Mal die grüne Brille abnehmen und aufs P/L-Verhältnis achten.
Ok
R7 ist lauter, heisser, teurer, langsamer, ohne vergleichbare new tech wie Turing, hat aber (für Full hd, 1440p und in den meisten Fällen auch für 4K) Irrelevanz mehr Video RAM.

Also weniger Leistung bei wohlwollend ähnlichem Preis.

Da braucht man keine grüne Brille, um die R7 direkt gar nicht zu kaufen vs der 2080.
 
  • Gefällt mir
Reaktionen: CrustiCroc, hahaqp und Postman
Taxxor schrieb:
Welche anderen Spiele außer BFV nutzen denn aktuell RTX, um das zu beurteilen?

Wenn es um die Optik geht, dann sollte man diese doch auch wahrnehmen, oder etwa nicht?
Also einerseits soll RTX einen derart heftigen Unterschied in der Optik ausmachen, aber das ist dann auch nicht so sehr wahrnehmbar, sondern einfach nur vorhanden? Widerspricht sich.

Nochmal, Du verwechselst "wahrnehmen" mit "vorhanden sein". Man nimmt den Unterschied bei BF V einfach beim spielen kaum wahr, weil man sich eben auf die Action konzentrieren muss, und keine Zeit hat, sich die Effekte anzusehen.

Das ist bei vielen Spielen (speziell denen, die mich interessieren) eben anders.

Man kann aber auch bei BF V sehr gut sehen, wie groß der Unterschied ist - YT Videos gibt's ja jede Menge. Das ändert nichts daran, dass BF V mit das ungeeignetste Spiel als Showcase ist, und dass ich, wäre ich BF Fan, ganz bestimmt kein Geld für RTX ausgeben würde.

Wenn RTX in Spielen verwendet wird, die mich interessieren, dann werde ich mir auch überlegen eine RTX Karte zu kaufen. Vorher nicht.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Stunrise schrieb:
Kein Grund auf ein erfolgloses Hoffen auf den Heilsbringer Navi, du kannst dir einfach eine 1080 kaufen. Die hat dann auch die Leistung einer 1080, ganz so wie du es wolltest. Thank me later!
Dann aber mit mehr Verbrauch und schlechter DX12/Vulkan Leistung. Nichts für einen Kauf in 2019, dann lieber warten, dass die RTX2060 in diese Preisregion kommt.

Grestorn schrieb:
Nochmal, Du verwechselst "wahrnehmen" mit "vorhanden sein". Man nimmt den Unterschied bei BF V einfach beim spielen kaum wahr, weil man sich eben auf die Action konzentrieren muss, und keine Zeit hat, sich die Effekte anzusehen.

Man kann aber auch bei BF V sehr gut sehen, wie groß der Unterschied ist - YT Videos gibt's ja jede Menge.
Auch wenn ich mit YT Videos dazu ansehe, empfinde ich den Unterschied als sehr marginal und, meist nur in Standbildern zu erkennen.
Der einzige Showcase, wo man es deutlich gesehen hatte, war bei der Nvidia eigenen Vorstellung, wo ganz offensichtlich die Reflektionen ohne RTX absichtlich schlechter dargestellt wurden, als man es selbst aus einem BF3 kennt.
 
  • Gefällt mir
Reaktionen: Mcr-King
Taxxor schrieb:
Also ich habe bei BFV schon deutlich mehr Reviews gelesen/gesehen, in denen gesagt wurde, dass man die Raytracing Features beim aktiven Spielen nicht sonderlich wahrnimmt, als umgekehrt.
stimme dir voll zu ..
http://www.pcgameshardware.de/Battl...ws/Bemerkt-man-Raytracing-ueberhaupt-1270021/

Battlefield 5 im Blindtest: Bemerkt man Raytracing?


Das Ergebnis des Vergleichs hat sogar den Ersteller des Videos überrascht, denn oft musste er sich vergewissern, welche Szene nun Raytracing nutzt und welche nicht. Auch ohne Raytracing stellt Battlefield 5 viele Reflektionen und Lichteffekte sehr realistisch dar. Erkennbar ist Raytracing in manchen Fällen klar dadurch, dass beispielsweise Pfützen größer sind und mehr erkennbare Wellen aufweisen.
 
  • Gefällt mir
Reaktionen: teufelernie, FatalFury und Joshinator
duskstalker schrieb:
glaubst du auch selber, was du da schreibst? nvidia performt gut in "amd" titeln, und amd performt schlecht in nvidia titeln. das solltest du als redakteur, der das zeug bencht, doch am besten wissen?

wie ist denn die amd performance in destiny 2? ghost recon wildlands? final fantasy 15? mass effect? hellblade (UE4)? fortnite (UE4)? witcher 3 mit hairworks? GTA5? world of tanks? shadow warrior 2? war thunder? um mal ein paar gameworks bzw. nvidia gesponsorte titel aufzuzählen.
Andere Seiten benchen diese titel ebenfalls. Nun mach mal halblang mit deiner wortwahl bzw. deinen Unterstellungen. Fakt ist einfach, dass die Radeon als Gesamtpaket leider nicht das bringt, was Bewegung in den Markt und ins Preisgefüge bringen könnte. Für den Preis, gepaart mit Leistung, Lautstärke und Verbrauch ist das einfach zu wenig. Die 16 GB werden es auch nicht herausreißen, denn bevor diese benötigt werden kommt der Chip eh an seine Leistungsgrenzen.
 
  • Gefällt mir
Reaktionen: CrustiCroc, tomasvittek, .Sentinel. und eine weitere Person
Crax schrieb:
Im CB Test ist die 2080 rund 13% schneller in 1440p von welchen Fakten redest du?

Im CB-Test fehlen auch Titel wie BFV, Far Cry, Sniper Elite 4, The Division (DX12), das sind alles Spiele bei denen Vega besser als 2080 abschneidet.
Im Fall von BFV sogar mit einem verdammt gutem Vorsprung.

Das Bild hier ist recht eintönig, und es wurden unbekannte Spiele wie Hellblade: Senua's Sacrifice getestet.
Ich will CB nix unterstellen, aber die Spiele sind sehr komisch ausgewählt (auch die Rechtfertigung der Redaktion ist fraglich).
Wurde aber schon versprochen das weitere Tests folgen werden, vielleicht hat man dann auch Treiber die richtig funktionieren und nicht Neuinstallationen von Windows erfordern.

(Will damit nicht andeuten das Vega 20 schneller ist, nur das der Parkour hier fragwürdig ist und die Karte in anderen Reviews weniger schlecht dasteht)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thraker, Herr Melone, Acedia23 und 5 andere
GERminumus schrieb:
Habe die Überschrift gelesen und meine Sidegrading Träume sind direkt geplatzt.
Bin schwerst ernüchtert.
Das nicht mal, meine 1080ti als REFERENZ geschlagen wird, ist unfassbar für mich.
Unter WQHD ist die Vega 5% LANGSAMER als die Referenz 1080ti!?

Ach Lisa, komm schon
Vega VII ist nur ein Refresh für navi zur CES 2019
 
Stunrise schrieb:
Das was du suchst wurde von Nvidia 05/2016 released und nennt sich GTX 1080. Wenn du noch ein bisschen wartest, bekommst du eine gebrauchte GTX 1080 zu deinem angepeilten Preis. Kein Grund auf ein erfolgloses Hoffen auf den Heilsbringer Navi, du kannst dir einfach eine 1080 kaufen. Die hat dann auch die Leistung einer 1080, ganz so wie du es wolltest. Thank me later!
No Chance , kein gebrauchter Mining Schrott .

Wieso sollte man ne gebrauchte Karte kaufen wenn man eine neue zu dem Preis kaufen kann die mit ein wenig UV vermutlich wesentlich weniger verbraucht ? So etwas kann auch nur einem NV Fan Boy einfallen ....
 
  • Gefällt mir
Reaktionen: s0UL1
cat_helicopter schrieb:
Das macht doch keinen Sinn? Warum liegt eine VII am CPU Limit mit weniger FPS als eine NVidia?
Das war auch schon zu Maxwell-Zeiten so und einer der Gründe, wieso ich dann doch eine GTX 960 gekauft habe.

Ob's an den Treibern oder der Architektur allgemein liegt, weiß ich nicht.
Aber mit einer AMD-Grafikkarte wird die CPU stärker belastet als mit einer NVidia-Karte.
 
Rockstar85 schrieb:
Der NV Boss hat das Problem mit Gameworks erst geschaffen.. Schau dir mal die Rohleistung an und dann den THG Test beim Thema Computing.. Na Klingelts.?

Deswegen performen ja auch die in letzter Zeit recht zahlreichen AMD Gaming Evolved Spiele ja entsprechend der Rohleistung der Karten...

ömm.

Oder auch nicht. Vielleicht doch nicht nur das verhasste Gameworks, dem alles mögliche unterstellt wird, nur damit das Weltbild passt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CrustiCroc und Dural
Piecemaker schrieb:
  • Nehmen wir an du spielst 365 Tage im Jahr...
  • Man hätte dann im Jahr ganze 42€ gespart.Strike!Also, es ist wirklich scheiss egal bezüglich der Stromkosten.
Bei deiner Milchmädchenrechnung hast du nur eines Vergessen! Und zwar das man die Karte im Schnitt 3 Jahre hat (eher noch länger, wenn man die 16Gb VRam hinzuzieht, das PRO Argument der Karte).

Dann sind es nicht theoretisch 42€, sondern um die 120 €. Dann gibt es eine komische Sache in DE. Man kann erwarten, das die Strompreise weiter erhöht werden.
Dann wäre es noch mehr. Aber lassen wir das weg.

Also müsstest du bei 3 Jahren Nutzung 120 € auf den Kaufpreis draufschlagen. Dann wären es nicht 729 €, sondern 849 €!

Dafür bekommt man auch eine NV RTX 2080! Es gibt auch 2080 die weniger kosten(680!). Also für mich als Spieler, müsste ich wählen, würde dann die Nvidia nehmen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
fitzelsche schrieb:
Irgendjemand erwähnte BF5 als NVIDIA Sandkasten. Ich darf daran erinnern, dass das Anno 2008 AMDs Sandkasten war mit Mantle....
BOBderBAGGER schrieb:
hust das war mit battlefield 4 2014 rum
Meint ihr nicht eher Ashes of the Singularity ?
Das hatte zumindest den Demo Vorzeigestatus die Battlefield bei nvidia heute hat.

Wer erinnert sich noch an die Bilder vom 3DMark Serra der nie verfügbar wurde?
Ich habe dazu einen netten Entwickler Kommentar bei Steam gefunden:
"Serra" (internal codename) is/was not a benchmark, but a custom demo for AMD. We have no plans to release it publicly.

3DMark is a perfectly representative benchmark developed in co-operation with AMD and NVIDIA and is not specifically optimized for any vendor.
https://steamcommunity.com/app/223850/discussions/0/1729827777335796190/

Heute hat man offensichtlich kein Problem mehr damit.
 
Grestorn schrieb:
Oder auch nicht. Vielleicht doch nicht nur das verhasste Gameworks, dem alles mögliche unterstellt wird, nur damit das Weltbild passt.
Das stimmt wohl, gerade Wolfenstein 2 ist ja der AMD Titel schlechthin, wo man zu Release mit der Vega sogar an die 1080Ti rangekommen ist.
Nur skaliert Turing mit dem Spiel sogar noch besser, als Vega es tut und der Abstand zwischen Radeon VII und RTX2080 ist in diesem "Gaming Evolved" Titel fast so groß wie bei Hellblade und über dem Durchschnitt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CrustiCroc, Rockstar85 und Grestorn
wolve666 schrieb:
Viele vergessen anscheinend, das amd ein ungleich kleineres Entwicklungsbudget hat im Gegensatz zu Nvidia . Und darüber hinaus auch an mehreren Fronten entwickelt. Kann dieses gebashe nicht mehr hören

Interessiert doch keinen. AMD hat bewiesen, dass sie exzellente Produkte abliefern können und wenn das passiert, kaufe ich sie ihnen auch ab. Die Vega-Chips hier werden nicht dadurch besser, dass das Entwicklungsbudget klein war. :freak:
 
  • Gefällt mir
Reaktionen: CrustiCroc und K3ks
USB-Kabeljau schrieb:
Das war auch schon zu Maxwell-Zeiten so und einer der Gründe, wieso ich dann doch eine GTX 960 gekauft habe.

Ob's an den Treibern oder der Architektur allgemein liegt, weiß ich nicht.
Aber mit einer AMD-Grafikkarte wird die CPU stärker belastet als mit einer NVidia-Karte.
was oft an NV s Phys X liegt , bei NV auf den GraKa s berechnet , bei AMD zwangsläufig auf der CPU
 
  • Gefällt mir
Reaktionen: Volkimann und Dural
Wadenbeisser schrieb:
Meint ihr nicht eher Ashes of the Singularity ?
Nein, mit BF4 hat man doch mit AMD hart an Mantle gearbeitet. Die Überreste von BF4 sieht man in der BF serie heute noch.
Ashes of the Singularity ist doch überhaupt kein Spiel :evillol:

Und ist Wolfenstein 2 nicht auf Turing wegen Mesh Shaders(oder Adaptive Shading?) auf einmal so gut? Die wurden doch zu Turing realease in das Spiel gepatcht.
 
Zurück
Oben