Also ich verneige mich hier gerade vor der Karte. Es kann schon sein, dass es an dem clean Install liegt, das werde ich mit der 3090 nochmal gegentesten.
Allerdings bin ich einfach überwältigt. Ich überlege gerade wirklich die 3090 zu verkaufen. 1900€ werde ich wohl dafür bekommen. Die Karte ist ja nahezu neuwertig.
Ich habe gerade zwei Runden BF5 gespielt. Freesync funktioniert perfekt mit dem Monitor von wirklich 1-200Hz, dazu noch HDR1000 und die Frametimes sind wieder besser, als wie mit der 3090.
So flüssig hat sich BF5 noch nie angefühlt. Einfach eine glatte 1. Mit der 3090 war es eine glatte 2.
Es ist wirklich so, dass ich mit DX12 immer wieder kurze Drops hatte, alles komplett weg. Die Karte rennt wie der Teufel.
Ich habe die FPS auf 188 gesetzt, Ultra Preset, außer Mesh Quality und Terrain auf "Low". Der Rest ist auf Ultra.
Ich habe konstant 188FPS gehabt. GPU Load 86-94%, Boost Takt des Chips ~ 2300Mhz und Speicher 2100Mhz.
Temperatur der GPU 66°C bei 1800 RPM....das ist brutal gut. Das ist exakt auf dem Niveau der 3090 TUF. Vor allem verbraucht die Karte mal eben 70-80W weniger unter Last und auf dem Desktop hatte ich die ganze Zeit im Idle IMMER 102-104W Verbrauch. Dazu hatte ich sogar mal einen Thread aufgemacht. Nun liegt der Verbrauch im Idle bei 92W. Das ist nicht viel, aber es ist definitiv da.
Die 6900XT verbraucht definitiv deutlich weniger Strom, vor allem unter Last, als die 3090. Poah ey, damit hätte ich niemals gerechnet. Ich wollte eigentlich nur wissen wie die aktuellen Karten performen und nun kommt sowas dabei raus.
Rein von den Stats her, ist die 3090 deutlich stärker. In der Praxis sind es Nuancen. Raytracing benutze ich tatsächlich gar nicht und DLSS auch nicht, da es mir zu "verwaschen" aussieht. Die neue DLSS Version soll da ja viel besser sein. Ich bleibe dennoch bei der nativen Geschichte. DLSS sehe ich primär für 4K als extrem nützlich.
Habe ich jedoch nicht... ich könnte mir sogar vorstellen das 2x 6900XT im Crossfire ziemlich krass performen könnten.
Ich benutze übrigens den aktuellsten Beta Treiber, nicht den WHQL Treiber.
Allerdings bin ich einfach überwältigt. Ich überlege gerade wirklich die 3090 zu verkaufen. 1900€ werde ich wohl dafür bekommen. Die Karte ist ja nahezu neuwertig.
Ich habe gerade zwei Runden BF5 gespielt. Freesync funktioniert perfekt mit dem Monitor von wirklich 1-200Hz, dazu noch HDR1000 und die Frametimes sind wieder besser, als wie mit der 3090.
So flüssig hat sich BF5 noch nie angefühlt. Einfach eine glatte 1. Mit der 3090 war es eine glatte 2.
Es ist wirklich so, dass ich mit DX12 immer wieder kurze Drops hatte, alles komplett weg. Die Karte rennt wie der Teufel.
Ich habe die FPS auf 188 gesetzt, Ultra Preset, außer Mesh Quality und Terrain auf "Low". Der Rest ist auf Ultra.
Ich habe konstant 188FPS gehabt. GPU Load 86-94%, Boost Takt des Chips ~ 2300Mhz und Speicher 2100Mhz.
Temperatur der GPU 66°C bei 1800 RPM....das ist brutal gut. Das ist exakt auf dem Niveau der 3090 TUF. Vor allem verbraucht die Karte mal eben 70-80W weniger unter Last und auf dem Desktop hatte ich die ganze Zeit im Idle IMMER 102-104W Verbrauch. Dazu hatte ich sogar mal einen Thread aufgemacht. Nun liegt der Verbrauch im Idle bei 92W. Das ist nicht viel, aber es ist definitiv da.
Die 6900XT verbraucht definitiv deutlich weniger Strom, vor allem unter Last, als die 3090. Poah ey, damit hätte ich niemals gerechnet. Ich wollte eigentlich nur wissen wie die aktuellen Karten performen und nun kommt sowas dabei raus.
Rein von den Stats her, ist die 3090 deutlich stärker. In der Praxis sind es Nuancen. Raytracing benutze ich tatsächlich gar nicht und DLSS auch nicht, da es mir zu "verwaschen" aussieht. Die neue DLSS Version soll da ja viel besser sein. Ich bleibe dennoch bei der nativen Geschichte. DLSS sehe ich primär für 4K als extrem nützlich.
Habe ich jedoch nicht... ich könnte mir sogar vorstellen das 2x 6900XT im Crossfire ziemlich krass performen könnten.
Ich benutze übrigens den aktuellsten Beta Treiber, nicht den WHQL Treiber.