Test AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2

Glaubst du einem Typen, der im Forum schreibt, dass ihm AMD höchstpersönlich die Garantie gegeben hat und selbst beim Verkauf von tausend Karten eine Zusicherung gibt? Eigentlich sollten die Alarmglocken schon angehen, wenn jemand versucht andere zum Kauf zu animieren, im Voraus ohne direkt eine Gegenleistung zu erhalten.
 
  • Gefällt mir
Reaktionen: Krautmaster und DriveByFM
Taxxor schrieb:
Wie kann der Kühler selbst da immer noch so laut sein bzw es nicht schaffen, die Karte ordentlich zu kühlen?
Damit wäre dieser Kühler ja nicht mal für ne RX580 zu gebrauchen, die gerade mal halb so stark ist.

Ja, der Kühler nebst Lautstärke ist scheinbar heftigst Einsparungen zum Opfer gefallen (zumindest scheint die "am falschen Ende gespart" These wahrscheinlich), um den Preis nicht noch höher anzusetzen und somit aktuell ein wahrer Knackpunkt für Interessenten.

Man bedenke allerdings dabei auch für welche Preise vor nicht allzu langer Zeit RX Vega Frontier Edition Karten mit ebenfalls 16GB HBM2 verkauft wurden und was für horrende Preise nVidia für HBM2 Speicherausbau ansetzt bei deren GPUs.

Eine mögliche mangelnde Treiber-Optimierung könnte - wie bereits zuvor ins Spiel gebracht - da auch mit hinein spielen und es wäre leider nicht das erste Mal, das AMD/RTG überhastet und damit einhergehend sträflich unoptimiert neue Produkte auf den Markt wirft :rolleyes: ...

... das hätte man sich sicherlich sparen können, zumal die in Bälde wohl anstehende GTX1160Ti kein Konkurrenzprodukt gleicher Leistungsklasse sein sollte und somit eigentlich kein Grund/Druck bestand die Radeon VII vermutlich überhastet auf den Markt loszulassen (um dann solch "nüchtern" ausfallende Schlagzeilen/Titel wie auf CB zu ernten).

Die Hoffnung auf schnelle Nachoptimierumg (falls möglich) von AMD/RTG sowie Wasserblocks für Bastler und Custom-Modelle von Sapphire, XFX, MSI, Powercolor, etc. unter Wasser oder mit deutlich besseren Kühldesigns stirbt bekanntlich zuletzt.

Bei der aktuell spärlichen Verfügbarkeit und den exorbitanten Händlerpreisen wird Radeon VII (wenn auch ohne grassierenden Krypto-Mining-Boom derzeit) wohl mindestens 1/2 Jahr brauchen, um in gemäßigteren Preisregionen zu landen, dann evt. auch in Custom-Ausführungen.
Ergänzung ()

SKu schrieb:
Ich bezweifle aber, dass das Spiel besser auf AMD als auf Nvidia läuft. Nur weil Einige ja der Meinung waren, dass mehr VRAM in dem Game was bringt: Das Spiel zieht mit höchster Texturenstufe 3,6GB VRAM in WQHD, während Ubisoft 8GB angibt. ;)

Laut Tom's Hardware Test erlaubt die Radeon VII im Gegensatz zu allen ruckelnden 8GB und 11GB(!) nVidia Gaming-Karten (inkl. RTX2080Ti) flüssiges Spiel von Resident Evil 2 - als Bundle-Titel der Radeon VII wohl auch auf diese optimiert - in Maximaleinstellungen und leider ist Resident Evil 2 (noch?) nicht auffindbar im CB-Test-Spieleparcours.

Das Remake von Resident Evil 2 ist so ein Kandidat, der mit maximalen Texturen und Grafiksettings auf der Radeon VII auch in Ultra-HD noch perfekt läuft. Denn selbst mit den 11GB einer GeForce RTX 2080 Ti kommt es hier schon zu fiesen Nachladerucklern, eine GTX 1080 Ti ist sogar mehrmals ausgestiegen.

Das könnte schon ein Fingerzeig in Richtung Anforderungen bei Spielen in nicht allzu ferner Zukunft sein (wofür eine Radeon VII jetzt schon als erste Gaming-GPU in 7nm speichertechnisch gerüstet ist) und dass von aktuellen speicherstagnierenden RTX/Turing GPUs klar abzuraten ist 😉.

GPUs unterhalb mindestens 12 GB würde ich eben aufgrund des o.g. Tests nicht mehr uneingeschränkt zum Kauf empfehlen wollen.

Vermutlich wird nVidia beim ersten RTX/Turing Refresh in 7nm die Mittelklasse-GPUs mindestens auf 8GB "hieven" müssen (die Oberklasse ab 70er Karte wohl zähneknirschend auf 12GB), da die Kritik in der Richtung aktuell doch überall spürbar ist und AMD/RTG bei Navi mit (wahlweise 6 oder) 12 GB (evt. auch schon wahlweise 8 und 16 GB) in der kommenden Navi-Mittelklasse winken könnte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McTheRipper und teufelernie
KarlKarolinger schrieb:
Frage zum HBCC:

Wann ist das überhaupt sinnvoll?
Es kann im VRAM Limit den Unterschied zwischen einem sotternden und einem halbwegs normalen Bildfluss ausmachen. Reich der VRAM für das Spiel allerdings bequem aus dann würde ich ihn deaktiviert lassen.
Leider reagiert jedes Spiel darauf anders, weshalb man keine generelle Aussage machen kann und deshalb vermutlich auch standardmäßig deaktiviert ist. Es ist auch nicht nur ein feature das du nur an- oder abschaltest sondern musst auch die Speichergröße angeben. Bei meiner Vega64 habe ich pauschal 16GB angegeben, was im Zweifelsfall die Hälfte des Arbeitsspeichers wäre aber wirklich fest zugeordnet scheint er nicht zu sein.
Eine Wunderlösung ist es natürlich nicht, eher eine Krücke wenn einem der VRAM ausgeht.
Ergänzung ()

kisser schrieb:
Nvidia hat mit Echtzeit-Raytracing nur mal gerade das nächste Zeitalter der 3D-Grafik eingeläutet. Das ist etwas bewegendes. Natütlich nicht für jene, die aus ideologischen Gründen an veralteter Technik festhalten wollen.
So wie diejenigen die die Performance bei einer fast 10 Jahre alte API über den Klee loben und die Performance mit dem ca. 4 Jahre alten Nachfolger, welcher witziger weise auch für dieses ach so hoch moderne Feature benötigt wird, eher abwinken? Oder auch diejenigen die anderweitige Features, welche darin enthalten sind und ohne Qualitätseinbußen die Performance steigern aber von ihnen als irrelevant erklärt wurden?
 
Zuletzt bearbeitet von einem Moderator:
Chismon schrieb:
Ja, der Kühler nebst Lautstärke ist scheinbar heftigst Einsparungen zum Opfer gefallen (zumindest scheint die "am falschen Ende gespart" These wahrscheinlich), um den Preis nicht noch höher anzusetzen und somit aktuell ein wahrer Knackpunkt für Interessenten.

Die Kosten dürften hier nicht der entscheidende Faktor gewesen zu sein, man hat ja sogar eine Vapor Chamber eingesetzt.
1549778967378.png


Es ist schlichtweg ein schlecht gestalteter Kühler, der trotz eines hohen Materialaufwands nicht vernünftig funktioniert und das obwohl man keine Partnerkarten zu erwarten hat und somit auch nicht der Gefahr laufen würde diesen Markt zu kannibalisieren.

Vapor Chamber, Aluminium Gehäuse, Aluminium Backplate, fünf Heatpipes, drei Lüfter und ein Graphitpad. Daraus hätte man definitiv einen guten Kühler bauen können. Aus welchen Gründen auch immer, hat sich AMD allerdings für eine total schwachsinnige Lösung entschieden, die schlichtweg nicht genug Kühlfläche hat.
1549779398590.png


Man hat ja nicht nur 70-80% der möglichen Kühlfläche entfernt, sondern auch noch die Luftzirkulation komplett blockiert. Selbst wenn die Lüfter hier leiser gewesen wären, bläst man die Luft unnötig durch "Luftschlitze" die noch zusätzlich Geräusche entwickeln.
1549779809350.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon
fragemann schrieb:
Warum kannst du es nicht nutzen? Bei BF1 geht es ja schon.
Ich sage es mal so....
Bei einem Spiel wo die Spieler bei den Treibern rumcheaten um alles mögliche abzuschalten damit sie möglichst wenig (ablenkendes) sehen ein Feature zu bringen das die Framerate auf einen Bruchteil reduziert ist als Argumentation eher suboptimal. ;)
 
Zum Thema Graphit Pad...
 
  • Gefällt mir
Reaktionen: Wadenbeisser, Rockstar85 und Esenel
Mit einem Raijintek Morpheus könnte es funktionieren, die Karte leise und kühler zu bekommen. Allerdings muss man sich dann um die Temps der VRM-Chips und den Arbeitsspeicher Sorgen machen und das Ganze kostet dann soviel wie eine gute 2080 und fast soviel wie eine billige 2080 Ti.
Also nur für echte AMD-Fans. :D
Komischerweise kann ich es aber nachvollziehen, dass man zum Ryzen gerne auch eine potente AMD-Karte hätte.
 
Zuletzt bearbeitet:
Ach Leute. Bei mir kommt jede GraKa direkt unter Wasser und gut ist. Somit summt mein PC schon seit ca. 10 Jahren gleich. Ein Radiator an der Seite mit 4x 200 Lüfter die mit 400 rpm laufen...
Alles ist schön kühl und leise. Und zur WaKü:
1 Mal gekauft und Ruhe ist ;-)
 
Wakü's sind nicht für jeden geeignet, ich z.B. würde Alpträume bekommen von wassergefluteten teuren Boards und Grafikkarten und nachts den PC mit der Taschenlampe beobachten. :)

Hab einfach zu viele Havarien mit AIOs bei Bekannten gesehen.
Muss ja auch trotz mildem oc nicht sein, wenn die richtige Hardware gewählt wird.
 
schkai schrieb:
Schon komisch das man bei AMD die Preise anprangert aber bei Nvidia nicht. Auch die Nvidia Karten sind laut, außer man lässt diese jenseits von 80 Grad laufen. Will man es kühl haben wird es auch laut. Sorry Computerbase, das ist aber keine Objektive überschrift. Nvidiabase inc.
Wurden bei Turing nicht auch die Preise angeprangert? Und laut test wird die Radeon im Betrieb mit 51 dezibel, gute 12 Dezibel lauter als eine 2080 Founders Edition. Wahrgenommen das etwa doppelt so Laut.
 
Zuletzt bearbeitet:
Klar sind die Turing zu teuer, aber was bleibt einem übrig wenn man ziemlich flüssig in 4K spielen möchte?
Das Problem mit VEGA VII ist, dass die nicht über die gute Spieleleistung sondern nur über die 16GB VRam verkauft wird. Mehr als 8 GB braucht man in 2019 aber voraussichtlich nur ab und zu in 4K, kaum einmal in WQHD. Und für 4K ist die etwas zu langsam.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lynx007
Ist 4k wirklich so erstrebenswert? Da zock ich lieber in 1080p 144hz mit nem leistbaren setup, das kein pocket Atomkraftwerk braucht.
 
Ich habe den WOW-Effekt vermisst bei 28" 4K... Bleib da lieber bei WQHD 165Hz :)
 
  • Gefällt mir
Reaktionen: RB6istGut
Taxxor schrieb:
4K ist eben die Zielgruppe für eine 16GB HBM2 Karte.

Die R7 ist genauso wenig eine reine 4k Karte wie die GTX 1080 Ti.
Man ist zu oft bei 30-45fps unterwegs bei hohen Einstellungen um da wirklich von durchgängig 4k-rauglich zu sprechen. Selbst wenn man nicht alles auf Ultra stellt.
Auch ein The Division 2 wird die garantiert nicht in UHD bei stabilen 60fps packen. Höchstens bei mittleren (paar hohen) Settings.

Künftige Spiele werden ja noch aufweniger und da kommst selbst mit der 2080 Ti nicht mal mehr an 60fps ran.

Für Ultrawide Monitore mit höchstens 3840x1600p wird es 2-3 Jahre reichen.

Zumindest wenn man jetzt nicht nur Forza, Rocket League oder Overwatch in 4k zocken will.
Aber die laufen ha selbst auf der Xbox One X mit rohen Auflösungen bei 60fps.
 
  • Gefällt mir
Reaktionen: Exit666, Oneplusfan und lynx007
Scheinbar gibt's ein Auflageproblem mit dem Kühler auf dem die. Ich würde vermuten, dass die coldplate verzogen ist. Da kommen dann die brutalen junction Hotspots her und die Lüfter drehen auf.

Siehe dazu Review von gamers Nexus.

Lösung wäre wohl mal wieder das gute alte schleifen.

Oder der mold ist konkav, das wäre aber echt besch...
 
  • Gefällt mir
Reaktionen: yummycandy
RB6istGut schrieb:
Ist 4k wirklich so erstrebenswert? Da zock ich lieber in 1080p 144hz mit nem leistbaren setup, das kein pocket Atomkraftwerk braucht.
Also ich hätte nichts gegen 144hz in 4k oder besser noch 5k ultrawide :D solange ich es Geschenkt bekomme... Denn kosten darf es natürlich nicht mehr als höchstens paar hundert €uro. Aber es gibt ja nicht einmal bezahlbare Bildschirme auf 4k, geschweige Grafikarten im dreistelligen Bereich :D
 
Zuletzt bearbeitet:
Zurück
Oben