Test AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2

Also wenn ich das alles mal ganz nüchtern betrachte.
Kann es sein das die 2070, selbst im Vergleich zu UV Variante so ziemlich auf Augenhöhe ist, weniger Strom verbraucht, weniger kostet und leiser ist?

Oder habe ich was übersehen?

Edit:
Ich rede vom reinen 1920*1080 Betrieb
 
  • Gefällt mir
Reaktionen: Luzifer71, Stuntmp02 und megaapfel
So schlecht ist die Karte doch nicht. Bessere Designs und ein niedriger Preis, würden die R7 attraktiver machen. Abwarten und Tee trinken...
 
@MK one

Puh... Was soll ich noch machen, damit Du es begreifst...

PhysX gibt es in zwei "Arten".

  • CPU basiert, das auf allen Systemen läuft, und das als Bibliothek in vielen Spielen eingesetzt wird. Genau das ist, was jetzt auch Open Source ist. Das läuft auf allen Systemen IMMER in der CPU, egal welche HW vorhanden ist.
  • HW-accelerated. Das läuft nur auf NVidia. Auf anderen Systemen sind die Effekte nicht zu sehen.

Ich weiß was ich noch machen kann, als Dir die Artikel zu zeigen, in denen genau das steht. Und außerdem ist es seit Jahren bekannt, dass es genau so und nicht anders ist.

Informier Dich doch bitte ein wenig, bevor Du Dich hier öffentlich so blamierst.
 
  • Gefällt mir
Reaktionen: CrustiCroc
Wie immer gleich alle gereizt sind, wenn sein Lieblingshersteller nicht das liefert was erwartet wird.

Die Karte ist völlig in Ordnung, aber viel zu teuer. Aktuell reiht sich die Karte sehr gut ein, leider nicht für den Preis. Mal abwarten und Tee trinken, ob noch was gescheites kommt.
 
  • Gefällt mir
Reaktionen: Bard
Ich verstehe AMD nicht. Dass man die aussortierten Instinct-Karten an den Mann bringen will, kann ich absolut nachvollziehen. An sich ist die Radeon VII auch eine ordentliche GPU: schnell genug für WQHD und 4k mit leichten Abstrichen. Schöne Erweiterung des eigenen Portfoliots nach oben. Konkurrenzfähig zur 2080? Naja, aufgrund fehlender Features und Performance hätte man doch lieber die 2070 anvisieren sollen. Da kommt man aber anscheinend preislich nicht hin, HBM2 ist zu teuer. Und da das ja Instinct-Karten sind ist der HBM ja schon verbaut. Mist.

Also gut: Marketing Richtung 2080-Konkurrenz und an "Prosumer". Um das Ganze schmackhafter zu machen gibt man der Karte auch einen sehr hochwertig wirkenden Kühler. Klasse Idee, eine leiser Referenzkarte von AMD wäre ja auch mal eine nette Überraschung.

Wo zum Henker war die Testphase bei diesem Produkt? Hatte Huang da Recht, wurde die Karte über Nacht gebastelt?
Sie wird zu heiß, bräuchte deutlich mehr Fläche und Masse. Die Lüfter drehen viel zu schnell und sind zu kein. Und ganz ehrlich: fehlendes RGB ist bei den absoluten Enthusiasten sicher auch nicht gerne gesehen (wie sinnvoll das ist sei jetzt mal dahingestellt). Wo ist da der Premium-Anspruich an das Produkt bei dem Premium-Preis?

Jetzt steht es wieder überall im Netz: AMD ist laut und heiß und trotzdem nicht schnell genug. Wieso ist die Karte mit drei Lüftern so verdammt laut? Wieso fragt man nicht einmal Sapphire oder Powercolor vor dem Release wie das richtig geht mit dem Kühlen? Ist wirklich jede News besser als keine? Die einzige Neuerung, die diese Karte bringt ist, dass AMD preislich zu Nvidia aufgeschlossen hat. Bravo.

Aber es gibt Hoffnung:
Wenigstens der 7nm-Prozess scheint halbwegs zu funktionieren. Die Karte ist 25% schneller als Vega 64 bei ähnlichem Stromverbrauch. Das lässt auf Zen 2 hoffen. An Navi glaube ich fast nicht mehr...

So langsam wird meine 480 mir doch zu langsam, aber so richtig schmackhaft ist mir keine der aktuell verfügbaren GPUs. Ich hab warte studiumsbedingt sowieso bis ~Oktober, aber ich vermute fast, dass Vega 64 auch dann noch die einzig sinnvolle AMD-Option sein wird.
 
  • Gefällt mir
Reaktionen: Langsuan und Kalsarikännit
@MK one
Stammen die Leistungsaussagen aus der Zeit zu der bei der Auslagerung auf die GPU hoffnungslos veralteter FPU Code genutzt wurde der auf einen Kern begrenzt war oder aus der Zeit danach? Das Märchen mit der "hochqualitative Erfahrung" wurde ja schon Jahre zuvor durch die PPU Karten widerlegt. Das war nicht weiter als eine faule Ausrede für die künstliche Begrenzung.

Ach ja, und schön die klassische CPU Variante von der beschleunigten Variante unterscheiden denn das eine wird immer von der CPU berechnet und beim anderen ist die Berechnung per CPU lediglich ein Fallback.
 
DeadEternity schrieb:
Die Überschrifft ist reisserisch, polarisierend und treibt die Fanboy Wars hier im Forum voran, liest sich nämlich genauso wie ein ebensolcher Kommentar.

Entweder man wählt eine Überschrift die die Ergebnisse in dem Artikel spoilern, oder man wählt eine Überschrift die das nicht tut.
Es gibt heutzutage eine Menge an AMD Sympathisanten die quasi dauerhaft versuchen mit Foren-Wars irgendwelche Tester die einfach nur ihre Arbeit machen, einzuschüchtern.

Die Radeon VII ist in allen Punkten schlechter als günstigere 680 Euro RTX 2080 und in den beliebten Auflösungen auch klar langsamer, in Full HD, sogar 16% und in WQHD 13%.
Wenn du dir das schönsaufen willst, bitte!
 
  • Gefällt mir
Reaktionen: CrustiCroc und Stuntmp02
Grestorn schrieb:
@MK one
Puh... Was soll ich noch machen, damit Du es begreifst...
  • CPU basiert, das auf allen Systemen läuft, und das als Bibliothek in vielen Spielen eingesetzt wird. Genau das ist, was jetzt auch Open Source ist. Das läuft auf allen Systemen IMMER in der CPU, egal welche HW vorhanden ist.
  • HW-accelerated. Das läuft nur auf NVidia. Auf anderen Systemen sind die Effekte nicht zu sehen.
Ich weiß was ich noch machen kann, als Dir die Artikel zu zeigen, in denen genau das steht. Und außerdem ist es seit Jahren bekannt, dass es genau so und nicht anders ist.
Informier Dich doch bitte ein wenig, bevor Du Dich hier öffentlich so blamierst.

Puh... Was soll ich noch machen, damit Du es begreifst... ---> deine Worte ... , schau in den Spiegel ....
https://www.golem.de/news/nvidia-ph...tzt-vollstaendig-open-source-1812-138058.html

Bislang war nur der Teil von PhysX, der auf der CPU berechnet wurde, als Open Source verfügbar.
Nun gilt das auch für den Code, für den die GPU zuständig ist, was die Möglichkeiten für Entwickler enorm erweitert.
In seinem Blog schreibt Nvidia, dass mit der Engine besonders an Anwendungen im Bereich von Deep Learning, der Robotik sowie für die Simulation selbststeuernder Autos und für High-Performance Computing gearbeitet werden kann - und natürlich an Games. Die Engine kann auf Windows, Linux, MacOS sowie auf Geräten mit iOS und Android verwendet werden.

wer blamiert sich hier ?
 
  • Gefällt mir
Reaktionen: Herr Melone, Luzifer71, .Sentinel. und 2 andere
Oh oh oh, ich bin gespannt auf die ersten 7nm NVIDIA Karten. Mit ach und Krach kommt man an die gleiche Effizienz von NVIDIA. Für nen zwischen Schub ganz nett, aber da zuck ich noch nichtmal. Abwarten was Navi so bringen wird.
 
dr. lele schrieb:
Wo zum Henker war die Testphase bei diesem Produkt? Hatte Huang da Recht, wurde die Karte über Nacht gebastelt?
Die war lange geplant, verworfen, ausgegraben und dann einfach verkauft. Einige Quellen (wohl direkt aus AMD kommend) sagen, dass sie begraben wurde, da sie nie und nimmer wirtschaftlich sein könnte. Dann hat man die Preise der RTX Karten gesehen und scheinbar war Navi doch nicht fertig (es gab Meldungen, dass die vor Dezember heil und bei AMD lauffähig waren) und eh nicht ganz so schnell, wie die 2080. Dann hat irgendwer die wohl doch rausgebracht. Der Chip war fertig, das PCB hatten sie, der Zusammenbau lief und dann eben einige Radeon VII zu verkaufen ist nicht so extrem teuer, dass es gar nicht gehen könnte.

Was nun daran wahr ist weiß ich aber nicht. Da gibt es ja viele unterschiedliche Angaben zu. Consumer Vega 20 war jedenfalls am Anfang Mal ein Plan. Dann wurde auch offiziell gesagt, dass es keine geben wird und jetzt ist sie da.
 
  • Gefällt mir
Reaktionen: Rock Lee und dr. lele
@MK one

Ok, dann sind jetzt auch die HW-accelerated Bibliotheken von PhysX OpenSource. Das war ursprünglich nicht der Fall, ich wusste nicht, dass sich das doch schon vor knapp 2 Monaten(!) geändert hat.

Was ja nicht bedeutet, dass PhysX jetzt auf einmal auch in den Spielen HW-basiert genutzt wird. Die Liste der Spiele, die PhysX tatsächlich HW-accelerated nutzen, habe ich Dir ja oben geschrieben. Das letzte aktuelle Spiel ist Everspace und Fallout 4 - für kleine, unbedeutende Effekte.

Du lenkst IMMER vom eigentlichen Punkt ab, nur um nicht zugeben zu müssen, dass Dein ursprüngliches Argument - dass NV wegen PhysX gegenüber AMD einen Vorteil bei der CPU Last hätte - schlicht falsch ist.
 
Zuletzt bearbeitet:
Piecemaker schrieb:
1. Schauen wir uns doch einfach mal an, was die Statistik sagt:
https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

2. Nun schauen wir in die Zukunft: Wie sieht das in 3 Jahren aus?
[…]
Jetzt kommt der Knackpunkt:
In 3 Jahren haben also 1/5 aller Gamer eine Grafikkarte mit mindestens 8GB Vram. Releasen wir nun ein Spiel welches für very High diese 8gb Vram benötigt, kommen gerade mal 1/5 aller Gamer in diesen Genuss. In 3 Jahren!
In 3 Jahren hat aber jemand der sich eine R7, RTX 2080 oder z.b 2080 Ti jetzt geleistet hat, schon längst eine neue Grafikkarte. Denn wieviel sich in 3 Jahren so auf dem GFX Markt ändert siehst du schön an meiner GTX 970 mit 4gb Ram: Sie ist ~4 Jahre alt. Mit dieser kann man immer noch ein Shadow of the Tombraider in highest settings in 1080p bei 39FPS spielen.
Jemand der sich jetzt eine R7 für 750€ kauft, oder z.B. die Konkurrenzkarte RTX 2080, wird in spätestens 3 Jahren Upgraden. Z.B. überspringt er die RTX 3080 aber greift dann in ~3 Jahren zur neuen RTX 4080. Verstehste? Weil das Mehr an Speicher eben gar nichts bringt, wenn das Spiel ruckelt weil du eine Grafikkarte verwendest die schon 2 Generationen alt ist (so wie meine). Meiner GTX 970 würde es gar nichts bringen wenn sie 16gb Vram hätte, oder? Dann hätte sie vielleicht in Tombraider 40 FPS. 1440p oder gar 4k währen aber immer noch nicht drin! Und jetzt?

Glaub mir mal, darauf zu setzen, das du in ~3 Jahren von den 16gb Vram profitierst, ist unwahrscheinlich, da du dir dann eher eine neue Karte zulegen wirst, da die GPU selbst viel zu schwach ist.

Und auch in 3 Jahren ist es unwahrscheinlich das 8gb Vram so zum Standart geworden sind, so das man das mit der Verbreitung einer 4gb Ram 1060 heutzutage vergleichen könnte.

Es ist utopisch davon auszugehen, das in 3 Jahren plötzlich alle mehr als 8gb Vram benötigen. Die letzten 4 Jahren gingen mit 4gb Vram klar. Die nächsten 4 Jahren werden 8gb Vram ausreichen. Und in vielleicht 5 Jahren hast du einen Benefit von den 16gb Vram der R7. Dann ist es zwar schön das du halt genügend Speicher besitzt, aber trotzdem nur 24FPS aufgrund der schwachen GPU im Game hast.
1. Völlig unbrauchbare Statistik, nur wie auf Millionen von PCs auf China(u.A.)-Internetcafes Steam installiert wird heisst das noch lange nicht, dass das einen Einfluss darauf hat, welche Karten Gamer in Deutschland,Amerika etc kaufen.

2. Da die Annahme schon falsch ist, ist deine Schlussfolgerung natürlich auch nicht zu gebrauchen.
Trotzdem hast du auch mit dieser Schlussfolgerung nicht unbedingt Recht. Kunden die so viel Geld für eine Grafikkarte ausgeben sind sicher eine Spezialgruppe und man kann tatsächlich darauf spekulieren, dass viele von denen schon 2 Jahre später(oder früher) die Karte gegen eine neue Austauschen und ihr Topmodell auf eBay oder sonstwo versteigern.
Ansonsten musst du bei Kaufentscheidungen nicht unbedingt von einem informierten Käufer und durchdachten Entscheidungen ausgehen. Das gibt es sicherlich, gibt aber genug Leute, die der Meinung sind, ich gebe nun richtig Asche aus, und habe dann erstmal X-Jahre Ruhe. Das mag ihr Ruhebedürfnis befriedigen, ist i.A.aber nicht die wirtschaftlich sinnvollste Entscheidung.
Großartig ist natürlich, dass du den prominentesten Speicherkrüppel sozusagen aller Zeiten gewählt hast.
16GB VRAM ist vermutlich nicht die logischste Entscheidung, viel VRAM ist für Kunden aber durchaus ein ziehendes Argument -schon immer gewesen-. Und es hat möglicherweise auch seinen nutzen, der sich leider nicht in Durchschnitts-FPS darstellt.
Des weiteren gibt es zu einigen Spielen Texturmods, die den VRAM-Verbrauch hochpushen und auch für den Spielehersteller ist es leicht möglich bessere Texturen anzubieten, die vor allem mehr VRAM brauchen, aber nicht eine bessere Karte, dafür brauchen nur mehr VRAM auf dem Markt ankommen.
Bei der 1060 war nvidia der Meinung ein Modell mit 3GB wäre noch Zeitgemäß. Die Karte wurde soweit ich das mitbekommen habe von der kompletten Fachpresse zerrissen. Wie die Zukunft wird, das wird man sehen, aber 6GB-8GB werden Spieleentwickler heutzutage für High-Settings als gesetzt ansehen. Warum sollte sie nächstes Jahr nicht 16GB als gesetzt für Ultra ansehen, ach ja weil Nvidia der Meinung ist, man könnte gut beim VRAM sparen um mehr Marge zu machen.
 
MK one schrieb:
wer blamiert sich hier ?
Fairerweise muss man sagen, die Freigabe von NVIDIA ist gerade 2 Monate alt. Wie wahrscheinlich ist das, dass Entwickler schon fertige Implementationen für AMD Karten fertig haben und vorallem, ob das Interesse besteht nachzupatchen.
 
  • Gefällt mir
Reaktionen: lubi7
Ich bin von der Wahl der Überschrift enttäuscht.
 
  • Gefällt mir
Reaktionen: McTheRipper, Rambo5018, geist4711 und eine weitere Person
Biocid schrieb:
Kann es sein das die 2070, selbst im Vergleich zu UV Variante so ziemlich auf Augenhöhe ist, weniger Strom verbraucht, weniger kostet und leiser ist?
Oder habe ich was übersehen?
Edit:
Ich rede vom reinen 1920*1080 Betrieb
Das hat die Radeon VII von der Vega 64 geerbt, dass man die Performance unter FHD [1080p] nicht auf die Straße bringt. Da braucht man sich ja nur die Benchmark Werte der Radeon VII und der Vega 64 anschauen, da bricht der Vorsprung gegenüber Vega 64 unter UHD [2160p], in FHD [1080p] deutlich ein.

Im Prinzip ist die Radeon VII eine Grafikkarte für UHD [2160p], weil sie dort am besten Performt, allerdings reichen eigentlich die FPS dort auch nicht aus, wenn man mal von 2160p mit konstanten 60 FPS ausgeht. Bis der Speicher [VRam] unter UHD [2160p] von der Radeon VII wirklich mal voll in Anspruch genommen wird von den Games, wird es noch einige Zeit benötigen, bis dahin reicht dann aber schon lange nicht mehr die Leistung der Grafikkarte.
 
  • Gefällt mir
Reaktionen: CrustiCroc, Luzifer71, lubi7 und eine weitere Person
usb2_2 schrieb:
Genug Nutzer haben sie darauf hingewiesen, ich habe das auch schon einige Male getan, und niemand hat was dazu gesagt.

Ist ja auch löblich, dass sich Computerbase den Mob nicht ernstnimmt.
Auch wenn das Spiel auf Nvidia besser läuft, wird es trotzdem gespielt und alleine aus diesem Grund gehört es in den Benchmarkparcour.
Battlefield 5 ist doch auch ein Nvidia Spiel und läuft ausgezeichnet auf der Vega VII.
 
Ich würde sogar sagen, dass eine RTX2070 das bessere Gesamtpaket bietet im Vergleich zur Radeon VII. Das bisschen mehr an Leistung für 50% mehr Geld im Vergleich zu einer Custom RTX2070 ist einfach vernichtend. Gerade im Hinblick auf die Energieeffizienz, denn trotz UV schluckt sie immer noch 23% mehr als die 2070, die man aber ebenso mit UV betreiben kann.

Die Radeon VII müsste irgendwo bei round about 600€ liegen, damit sie auch nur annähernd attraktiv wäre. Aber so ist die Karte eigentlich nur dank Nvidia auf dem Markt, da sich das Preisgefüge nach oben verschoben hat. Für reine Gamer ist RTX wesentlich sinnvoller und seit Nvidias Unterstützung für Adaptive Sync ist FreeSync auch nicht mehr wirklich ein Argument.
 
  • Gefällt mir
Reaktionen: Luzifer71 und Stuntmp02
Nun kann man streiten welche der Karten besser ist die Top karte von Nvidia oder AMD, aber nach ein bisschen nachdenken muss ich sagen das AMD hier grosses geleistet hat.

Klar man kann sagen oh sie ist vermeintlich (wenn man 16 gb ram als irrelevant ab tut) 1% schlechter ist wie die Nvidia, aber selbst wenn ich mich da anschließen würde, Amd galt als komplett abgeschrieben komplett andere Liga das sie nichts haben was auch nur im Ansatz gegen Nvidia mit halten kann, klar die Vega 1 war ja schon ein versuch gleich zu ziehen aber das ist ja kläglich gescheitert.

Gut lag auch muss man dazu sagen am Mining boom ansonsten wäre die Karte schneller sehr günstig gewesen und hätte Preis/Leistungsmaesig stärker getrumpft.

Aber Wenn ich immer lese wer so teure Grafikkarten kauft sind das offenbar auch häufig Leute die die karten 3-5 Jahre behalten bevor sie ne neue Kaufen. Da sind natürlich 16 GB Ram Gold wert.

Gut nur die GTX 2080 Ti für 1155 Euro kann sich noch absetzen, also es stimmt nicht ganz, aber der Käuferkreis der das zahlen bereit ist dürfte doch recht klein sein. Kann mir mal einer erklären warum die so viel schneller ist wie die normale 2080er 50% mehr shader oder 50% mehr takt oder was geht da?

Und noch was war die Vega 56 nicht damals langsamer wie die 1080? Jetzt zersägt die die ja, könnte also auch bei der jetzt erwarten das sie noch 5% auf holt so viel haben die Vega 1 mal aufgeholt und klar wenn die 1080p ins GPU Speicherlimit läuft ists eh aus.

Aber ja solide Leistung vor allem wenn man weiß das auch noch neue Architektur dieses Jahr raus kommt.

Es wird mal nicht an den FPS scheitern oder sich daran entscheiden was die Leute kaufen sondern an Preisen und an dem wie hoch man diese Raytracing sachen oder viel Ram wertet.

Ich wuerde immer 30-50 Euro mehr zahlen bei ner identischen Karte mit deutlich mehr ram. Wenn also Raytracing einen nicht ueberzeugt halte ich das fuer die klar bessere Wahl.

Nicht das es mich gross juckt, brauch nicht so viel Power.
 
  • Gefällt mir
Reaktionen: Thraker
KlaraElfer schrieb:
Entweder man wählt eine Überschrift die die Ergebnisse in dem Artikel spoilern, oder man wählt eine Überschrift die das nicht tut.
Es gibt heutzutage eine Menge an AMD Sympathisanten die quasi dauerhaft versuchen mit Foren-Wars irgendwelche Tester die einfach nur ihre Arbeit machen, einzuschüchtern.

Die Radeon VII ist in allen Punkten schlechter als günstigere 680 Euro RTX 2080 und in den beliebten Auflösungen auch klar langsamer, in Full HD, sogar 16% und in WQHD 13%.
Wenn du dir das schönsaufen willst, bitte!

Pfff... ich finde die Karte nicht wirklich gut, aber les erst mal meine anderen Beiträge in dem Thread hier und setz dich damit auseinander, dann kannste mir noch mal vernünftig antworten.
Ich brauch mir nix schön zu saufen, die Karte wird hier schlechter dargestellt als sie eigentlich ist. Ja, sie ist etwas langsamer als das Nvidia Pendant, ja sie ist VIEL zu teuer und VIEL zu laut... dennoch ist sie die dritt schnellste Gaming GPU, das ist halt einfach mal Fakt ! Ich will mir die Karte weder kaufen, noch würde ich sie empfehlen by the way.
Ich bin vielleicht ein AMD Sympathisant, wie man unschwer an meiner Signatur erkennen kann, aber ich empfehle auch oft genug Nvidia GPUs und bin definitiv kein Fanboy. Bevor ich die RTX2080 oder die Vega 7 empfehle, würde ich eher zu der RTX2070 oder einer guten Custom Vega64 raten, more buy for the buck.
Und das ändert trotzdem nichts an meiner Meinung, dass der Titel einfach unglücklich, ja reißerisch gewählt ist. Vergleich einfach mal mit anderen Reviews zu der Karte, kann ja nicht so schwer sein :rolleyes:


Ich weiß schon warum ich mich in solche dämlichen Diskussionen nur noch selten einklinke und mich hauptsächlich in den Game Foren und im Treffpunkt aufhalte. Einfach zu viel Kindergarten am Start hier.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Herr Melone, Thraker, McTheRipper und 7 andere
Zurück
Oben