Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2
W
Wadenbeisser
Gast
Na immerhin nicht so reingepfuscht dass der DX12 Pfad langsamer läuft. Dafür gibt es ja mehr als genug Kandidaten.SKu schrieb:DX12 läuft auch, zumindest mit Turing, nicht schneller als DX11. Das sieht mir eher danach aus, dass Massive Studios den DX12-Pfad wieder in das Game gefuscht hat und einfach per se mehr VRAM belegt, wenn auch nicht benötigt wird.
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Bei mir funktioniert der Afterburner unter DX12. Evtl. mal die neuste Beta installieren (4.6.0 Beta 12).
Du scheinst ja in 4K unterwegs zu sein. Mal gucken wie viel VRAM benutzt wird, wenn ich das Game mittels DSR unter 4K rendern lasse.
4K mittels DSR:
5,5GB VRAM Auslastung unter DX11. DX12 scheint, zumindest für Turing, hier keine Option zu sein. Selbst eine RTX2060 hat genug VRAM für maximale Texturen in WQHD in dem Spiel unter DX11.
Du scheinst ja in 4K unterwegs zu sein. Mal gucken wie viel VRAM benutzt wird, wenn ich das Game mittels DSR unter 4K rendern lasse.
4K mittels DSR:
5,5GB VRAM Auslastung unter DX11. DX12 scheint, zumindest für Turing, hier keine Option zu sein. Selbst eine RTX2060 hat genug VRAM für maximale Texturen in WQHD in dem Spiel unter DX11.
Zuletzt bearbeitet:
Hurricane271
Lt. Commander Pro
- Registriert
- Feb. 2017
- Beiträge
- 1.866
Also ich konnte einen merklichen Perfomanceschub festellen (RX 590+Ryzen 1600).SKu schrieb:Warum also DX12 nutzen, wenn DX11 wesentlich effizienter zu arbeiten scheint?
Links DX12 und Rechts DX11:
![2019.02.10-16.30.png 2019.02.10-16.30.png](https://pics.computerbase.de/forum/attachments/639/639026-a3f3ef9a78230a07d5f1807f834b261f.jpg?hash=o_PvmngjCg)
![2019.02.10-17.03.png 2019.02.10-17.03.png](https://pics.computerbase.de/forum/attachments/639/639028-7bdeba0d4bb9ac215c483c3ee06c121e.jpg?hash=e966DUu5rC)
Hier sieht man es auch:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Scheint, aber tatsächlich bei Turing nicht so zu sein.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Das mit VRAM konnte ich aber auch feststellen.
Zuletzt bearbeitet:
frkazid schrieb:Du hast dich reingeschummeltIch meinte SKu
Es gibt keine AA-Einstellung unter Graphic Settings in dem Spiel. Keine Ahnung was für AA dort verwendet wird aber es gibt keine Möglichkeit hier zwischen verschiedenen Modi umzuschalten. Zumindest nicht in der Beta.
Base_Dussel
Banned
- Registriert
- Okt. 2016
- Beiträge
- 1.037
gehts hier noch um radeon 7 oder um allgemeines Gedöns?
Hat jemand die Karte und jetzt, mit den aktuellen und anscheinend stabilen Treibern nochmal Overclocking versucht?
Hat jemand die Karte und jetzt, mit den aktuellen und anscheinend stabilen Treibern nochmal Overclocking versucht?
W
Wadenbeisser
Gast
Hurricane271 schrieb:Also ich konnte einen merklichen Perfomanceschub festellen (RX 590+Ryzen 1600).
Also nur reingepfuscht wurde er nicht.
Scheint, aber tatsächlich bei Turing nicht so zu sein.
Das geht vermutlich auf die Kappe einer CPU Limitierung durch das Spiel/die API.
Es ist ja nichts neues das nvidia mit ihrer Treiber/Sheduler Architektur es hinbekommen die Last bei Multicore Gurke DX11 besser auf die Kerne zu verteilen und so mehr CPU Leistung nutzbar zu machen. DX12 ist hier erheblich besser aufgestellt, wodurch der Vorteil bei einer vernünftigen Umsetzung ganz einfach entfällt.
Hurricane271 schrieb:Also ich konnte einen merklichen Perfomanceschub festellen (RX 590+Ryzen 1600).
Für AMD mag das stimmen, bei Nvidia hingegen war es schon beim ersten Teil so, dass DX11 besser läuft als DX12. Da DX12 keinen wirklichen Performance-Unterschied ausmacht, dafür aber mehr VRAM benutzt, macht es keinen Sinn von DX11 auf DX12 zu wechseln, sofern man eine Nvidia-GPU nutzt.
value
Commander
- Registriert
- Dez. 2003
- Beiträge
- 2.120
Lustig wie die wertlosen Daten aus dem Test hier so euphorisch ernst genommen werden. Die Karte nur gegen eine FE zu testen und diese dann auch nicht zu undervolten sollte eigentlich jedem begrifflich machen das die Daten aus dem CB Test mehr oder minder wertlos sind und daraus keine Rückschlüsse gezogen werden können.
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 8.977
Wundert dich das, wenn echte Vorteile für den Spieler, auf Grund von Klientelpolitik nicht genutzt werden? Nvidia könnte ja alle Gameworks Engines auf DX12 pushen, aber nee lohnt ja nicht.SKu schrieb:Warum also DX12 nutzen, wenn DX11 wesentlich effizienter zu arbeiten scheint?
Um es mit den Unsterblichen Worten Wilhelms zu sagen: Das Auto wird sich nie durchsetzen
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
KuroSamurai117
Lt. Commander
- Registriert
- Aug. 2016
- Beiträge
- 1.076
Wadenbeisser schrieb:@Oneplusfan
Auf dem Bild über deinem Posting sehe ich eine RAM Auslastung von 11 GB, also nichts mit Bedarf nach 16GB VRAM. Das ist ein Wert welcher der GTX1080 Ti entsprechen würde. Da wurde bei der RTX2080 wohl einfach nur am falschen Ende gespart.
Vielleicht schon mal mitbekommen das The Division 2 im Vram verbuggt ist. Der läuft voll bis zum Spielabsturz nach paar Stunden.
Auf einer Titan mit 24GB hat Jemand hier schon 18GB erreicht.
Da wäre selbst die R7 am Ende.^^
Sind es 40fps in 4k im Innenräumen? Geht, aber beeindruckend sieht anders aus. Zumindest hat man bei der CES mit UHD/60 geworben.
Zuletzt bearbeitet:
- Registriert
- Juni 2017
- Beiträge
- 4.118
SKu schrieb:Es gibt keine AA-Einstellung unter Graphic Settings in dem Spiel. Keine Ahnung was für AA dort verwendet wird aber es gibt keine Möglichkeit hier zwischen verschiedenen Modi umzuschalten. Zumindest nicht in der Beta.
Nennt sich Sharpening oder Smooting.
Ist ein Zahlenwert der im Ultra Preset auf 7 steht.
Da ist in DX11 der VRAM bei 4GB.
Stellst du den Wert auf 10 belegt es 8GB VRAM.
Ah, okay, Sharpening steht bei mir auf 7. Mit 10 habe ich 5,4GB VRAM Auslastung in WQHD, sehe aber nicht wirklich einen Unterschied.Esenel schrieb:Nennt sich Sharoening oder Smooting.
Ist ein Zahlenwert der im Ultra Preset auf 7 steht.
Da ist in DX11 der VRAM bei 4GB.
Stellst du den Wert auf 10 belegt es 8GB VRAM.
W
Wadenbeisser
Gast
Nicht wirklich weil ich das Spiel weder habe noch es mich interessiert.KuroSamurai117 schrieb:Vielleicht schon mal mitbekommen das The Division 2 im Vram verbuggt ist. Der läuft voll bis zum Spielabsturz nach paar Stunden.
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Aber OK, bei solchen Bugs ist die Karte ohnehin egal.
Suteki
Lt. Junior Grade
- Registriert
- Juli 2016
- Beiträge
- 509
pupsi11 schrieb:Verbrauch ist auch top.. Für ein 300w fressendes nicht zu gebrauchendes rotes etwas.
Ich wette, wenn du die Abdeckung mit den Lüftern abmontierst und da 2 ordentliche Noctua 120er NF-A12x25 PWM draufklebst, hast du da ein stilles und kühles Schmuckstück laufen. Hab ich bei meiner Sapphire Vega 56 Pulse auch gemacht. Deren Lüfter waren der Horror. Ab 72 Grad (hard coded TT) ein Düsenjet und bei moderater Last der ständige Wechsel zwischen 0 und 1250rpm... Jetzt habe ich die Noctua mit fixierter Drehzahl drauf und schwups GPU 48 Grad, HBM 51, Hot Spot 60 in 4k.