Test AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2

lynx007 schrieb:
Mit wieviel FPS läuft es den? Und wieviel kostet eine Titan V? 3500-6000€? So ein Quatsch. RTX Cores haben schon ihren Sinn... aber bis das Software da ist dürfte es halt leider noch dauern.
Ich würde mich an der Stelle nicht zu sehr an dem Preis der Titan V aufhängen sondern ganz nüchtern die Shader Leistung zu grunde legen.
Die Titan V hat lt. Wikipedia 14899 GFlops und eine Speicherbandbreite von 652,8 GByte/s
Die Radeon VII kommt lt. Test auf 13800 GFlops bei einer Speicherbandbreite von 1.024 GByte/s
Zudem unterstützen beide die Berechnung per halber Präzision, welche hier vermutlich zum Einsatz kommen würde, die erste Vega Generation übrigens auch.

Es kann also durchaus sein dass die Radeon VII angesichts der Leistungswerte auf ähnliche Frameraten kommen könnte, was bleibt ist allerdings die Frage wieviel das Entrauschen an zusätzlicher Leistung kosten wird und wo die Berechnung erfolgt.
 
  • Gefällt mir
Reaktionen: .Sentinel.
bin jetzt mit den mV auf 956 runter und schon dreht der kühler nur noch mit ~2440
verbrauch ~214w
@Rockstar85 DX12 läuft bei mir nicht mit msi AB (keine screens machbar da im wattman das nicht möglich)
 
Mmhh also 956mV straft ja schon mal die Trolle hier die riefen: CBs Karte istn Golden Sample etc.

Was meinst du läuft nicht mit Afterburner?
 
lynx007 schrieb:
Ich hätte mir halt einen gemeinsamen Gang mit AMD gewünscht.
DXR wurde von Microsoft zusammen mit AMD und nVidia entwickelt. RTX ist nur deren Implementierung.
 
  • Gefällt mir
Reaktionen: lynx007
Oneplusfan schrieb:
Und hier erkennen wir die Doppelmoral. Auf der einen Seite wurde kritisiert, als Nvidia zu hohe Tesslation Faktoren verwendet hat, obwohl es keinen sichtbaren Unterschied gab.

Wenn aber ein AMD Sponsored Titel eine komplett kaputte VRAM Usage hat und die Texturen dazu auch noch Scheiße aussehen, wird das gelobt??
Beim einen wird ohne optischen Mehrwert bei !beiden! sinnlos Rechenleistung verbraten um den Abstand künstlich zu vergrößern.
Beim anderen ist deiner Ansicht nach etwas defekt wenn mit Einstellung XY mehr Speicher benötigt wird als die Geforce besitzt?
Wo wir schon bei Doppelmoral sind.....
 
Rockstar85 schrieb:
Was meinst du läuft nicht mit Afterburner?
osd kann ich nur per msi ab machen und msi ab läuft bei division 2 nicht unter DX12
 
doch schon, aber man kann keine screens davon machen. also grundsätzlich keine..
zumindest hab ich nichts gefunden wo das ginge
 
Mach das mal so...😁
Ist dx12.
UV mit 956mv.
IMG_20190210_151542.jpg
 
  • Gefällt mir
Reaktionen: yummycandy
@Wadenbeisser man kann sich das natürlich auch so hinbiegen. Dann erklär mir mal, warum das Spiel "angeblich" (entgegen des Tests hier: https://www.computerbase.de/artikel...seite_fuer__meist__durchschnittliche_texturen) die 16GB einer Radeon 7 braucht und wie man aus so etwas dann ableiten kann, dass man ne R7 statt einer 2080 kaufen soll?

Hätte Nvidia sowas gebracht, wäre der Aufschrei gewaltig gewesen. Hier wird sinnlos VRAM verbraten, genauso wie damals sinnlos Rechenleistung verbraten wurde. Was macht das eine jetzt besser als das andere?
 
Marcel55 schrieb:
Ich würde Wetten abschließen, in 3-4 Jahren noch mal testen mit aktuellen Games, die Karte wird die 2080 überholt haben und mindestens gleichauf mit der 2080ti sein

Die Wette nehm ich gerne an, um was? Auch in 4 Jahren wird AMD noch keinen funktionierenden Treiber rausgebracht haben. In 4 Jahren gibt's diese Karte nur noch als Anekdote aus schlechten Zeiten.

Viel RAM ist gut für Kryptomining, mit Zukunftssicherheit bei Gaming hat er aber rein gar nichts mehr zu tun.
 
@Oneplusfan

Auf dem Bild über deinem Posting sehe ich eine RAM Auslastung von 11 GB, also nichts mit Bedarf nach 16GB VRAM. Das ist ein Wert welcher der GTX1080 Ti entsprechen würde. Da wurde bei der RTX2080 wohl einfach nur am falschen Ende gespart.
 
Wadenbeisser schrieb:
@Oneplusfan

Auf dem Bild über deinem Posting sehe ich eine RAM Auslastung von 11 GB, also nichts mit Bedarf nach 16GB VRAM. Das ist ein Wert welcher der GTX1080 Ti entsprechen würde. Da wurde bei der RTX2080 wohl einfach nur am falschen Ende gespart.
Wobei man immer zwischen dynamischer Allokation und tatsächlichem Bedarf unterscheiden muss.
 
@Wadenbeisser
bei meinem bild sind 13gb VRAM und 11gb RAM ;)
VRAM geht sogar hoch 14gb

@yummycandy nein geht aktuell nicht. treiber lässt nichts zu.
 
@yummycandy
Wenn es Einfluss auf den Bildfluss hat dürfte das für das Beispiel recht egal sein.
Ergänzung ()

@pupsi11
Oha, da hatte ich mich wohl verlesen und die RAM mit der VRAM Auslastung verwechselt. :o
 
  • Gefällt mir
Reaktionen: yummycandy
und in post 2081 sieht man den einfluss des MEHR Vrams.

mein letzter screen zeigt auch den verbrauch ~207-214w bei 1770-1800mhz
 
  • Gefällt mir
Reaktionen: yummycandy und Rockstar85
MSI Afterburner funktioniert schon mit DX12 in The Division 2, nur habe ich generell das Problem, dass er keine Screenshots mehr aufzeichnet, warum auch immer. DX12 zieht aber wesentlich mehr VRAM als DX11 in The Division.

Unter WQHD mit DX12 habe ich 7,7GB VRAM Auslastung mit höchsten Texturen-Settings. Hinzu kommt noch, dass, wenn ich aus dem Game tabbe, es automatisch im Fenstermodus verbleibt und freezt. Bei DX11 hingegen gibt es keine Probleme.

DX12 VRAM-Auslastung: 7,7GB
DX11 VRAM-Auslastung: 4,7GB

DX12 läuft auch, zumindest mit Turing, nicht schneller als DX11. Das sieht mir eher danach aus, dass Massive Studios den DX12-Pfad wieder in das Game gefuscht hat und einfach per se mehr VRAM belegt, wenn auch nicht benötigt wird.

Warum also DX12 nutzen, wenn DX11 wesentlich effizienter zu arbeiten scheint?
 
Hast doch 8GB VRAM. Warum nicht nutzen?

Man kauft sich ja keine Hardware damit die Hälfte brach liegt.
 
  • Gefällt mir
Reaktionen: pupsi11
Zurück
Oben