Test Radeon RX 6800 XT Customs im Test: ASRock Taichi vs. Asus ROG Strix Liquid vs. MSI Gaming X

bad_sign schrieb:
180W zu 230W ist viel zu viel.
Die Standard 6800XT mit 255W ASIC verbrät 300W in Tests, das sind 45W für den Rest des Boards.
Also sind 180W eher so 215W
Ja, wenn da VRM Verluste ect mit drin sind, die bei 180W in absoluten Zahlen niedriger ausfallen als bei 255W, kommen 215W wohl schon ca hin.
Wobei die 6800 non-XT auch bei 205W ASIC mit 250W TBP angegeben ist, also die gleichen 45W Differenz wie bei der XT.

Um sie auf reale 180W zu drücken, müsste sie schon auf mind. 150W ASIC runter gehen.

btw. meine 6800XT dürfte auch in den nächsten Tagen kommen und das Ziel ist, sie auf den Verbrauch zu bekommen, den ich mit der 5700XT hatte bzw mit der Vega56 gerade auch habe, also um 230W bis maximal 250W.
Bei der Vega geht mein Slider noch von -50% bis+50%, für RDNA2 sind ja nur noch +15% erlaubt, aber geht die andere Richtung noch bis -50% oder auch nur -15% und man muss den Rest über den Maximaltakt regeln und hat dann je nach Spiel mal mehr mal weniger als den angepeilten Verbrauch?
 
Zuletzt bearbeitet:
DFFVB schrieb:
Das tut mir wirklich leid, dass es noch nicht kaputt ist, nicht nie so ein schlechtes OS genutzt....
Ist ein Android-Phone, wie alle BB seit dem Priv.
 
Mal ne dumme Frage an die AMD Experten hier. Ich hatte immer ne AMD bis zu dem Punkt an den NV endlich die 10bit Beschränkung aufgelöst hat und man keine quadro mehr kaufen musste um einen 10bit Bildschirm in PS zu verwenden.

Jetzt hätte ich wieder voll Lust auf den vielen VRAM da 8 knapp werden und die 3090 ist mir noch viel zu teuer.

Gibt es die Beschränkung bei AMD noch oder wurde diese auch entfernt? Ich frage auch nicht nach hacks oder so, da ich keine Lust hab, nach nem Patch o.ä. Wieder nach na Lösung suchen muss.

danke!
 
  • Gefällt mir
Reaktionen: Mcr-King
Also 10Bit unterstützt sogar meine GPU schon im Treiber sonst liegt es am Monitor Anschluß also DP 1.4 und HDMI 2.0 aufwärts null Problem.

Zur Aktuellen Lage also dank Mining und Amerika VS China Politik und Corona ja die Preise sind Explodiert.

Auch die Gierigen Händler und ABIs machen schön mit, aber die Leute kaufen trotzdem siehe MF RX6700er für 789€.

Naja zum Test nicht schlecht aber wie immer erwarte die üblichen Verdächtigen auf den ersten Plätzen.

Am meisten würde mich die Merc von XFX ansprechen naja warte halt bis 2022. 😉
 
Taxxor schrieb:
Die Karte wird doch überall in Spielen gemessen, 290-300W zeigen da alle Tests für die 6800XT.

Klar, wenn du z.B. mit fester FPS Limitierung spielst, die unter den Möglichkeiten der Karte liegt, ist es deutlich weniger aber idR holt man sich ja ne neue Karte, weil man mehr FPS möchte.
Jetzt könnte ich das Totschlag-Argument bringen und sagen keiner holt eine 1000€ Karte um damit Strom zu sparen. Das wäre aber zu einfach. Stattdessen finde ich, dass jeder der seinen Strom selbst bezahlt selbst entscheiden muss ob er nun 2000MHz@180W oder 2700MHz@350W nutzt. Ich spiele im Moment in 4K mit Vsync und da wird nicht mal annähernd die gesamte Leistung benötigt. Bei Death Stranding sind es in 4K@60fps gerade mal 30% Auslastung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign, naicorion und Mcr-King
Mcr-King schrieb:
Also 10Bit unterstützt sogar meine GPU schon im Treiber sonst liegt es am Monitor Anschluß also DP 1.4 und HDMI 2.0 aufwärts null Problem.
Ich rede nicht über pseudo 10bit in Spielen oder so n Zeug sondern, ob AMD inzwischen in ihren Consumer Grafik Karten in Photoshop und co 30bit Bildschirmoutput unterstützt?
 
@Taxxor Nein du
im jedem Game einen "anderen" Verbrauch, die waren so schlau die Power Slider auf -6 bis +15% zu beschränken....
Sie haben mit RDNA so viel auf die Beine gestellt, aber einiges leider auch wieder umgeworfen.

@reven
Wie prüft man deine Frage zu (nicht-) pseudo 10bit?
 
@bad_sign ich muss zu geben ohne Photoshop wüsste ich es jetzt auch nicht so leicht. Bzw muss natürlich der Monitor auch 10/30bit können.

hab das hier auf die Schnelle gefunden.
Eizo 10bit
 
MSI 6800xt Gaming Trio X unter Luft! Das ist >6900xt stock.

Screenshot (129).png
 
  • Gefällt mir
Reaktionen: Schrotty74 und basic123
reven schrieb:
@bad_sign ich muss zu geben ohne Photoshop wüsste ich es jetzt auch nicht so leicht. Bzw muss natürlich der Monitor auch 10/30bit können.

hab das hier auf die Schnelle gefunden.
Eizo 10bit
Ich mach grade noch CB23 Tests aber danach probiere ich das mal aus.

Edit: Momentan ist der Besitzer des Passworts nicht erreichbar, ich kann also PS nicht installieren^^
Auf dem Laptop, wo es normal installiert ist, bekomme ich über HDMI nur 8 Bit und das interne Display ist nur 8 Bit :(
Betrachte ich die beiden Bilder mit Irfan View sehe ich zwar einen Unterschied zwischen den Bildern, aber keinen zwischen 8 und 10 Bit Darstellung. Ich schmeiß mal eine GTX 770 in den PC und schau mal was da raus kommt.

Edit2: Jetzt blöd geschaut, da ich nichts sehe, aber nun gesehen, Irfan View zeigt mir unten an "1600 x 1200 x 24 BPP", also kein Wunder das es kein Unterschied gibt :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: reven
Am schönsten finde ich von den aktuellen AMD-Karten immer noch die XFX Merc 319. Die Karte sieht einfach sehr wertig aus. Dagegen finde ich z.B. Das Cover der Asus sehr lieblos gestaltet.
 
  • Gefällt mir
Reaktionen: MP42
Ist es möglich auch Multimonitor Stromverbrauch zu messen?
Seit dem ich bei der 6800XT zwei Monitore in QHD 165Hz angeschlossen habe sehe ich von den 8Watt im Idle Desktop nichts mehr. Meistens dümpelt es dann bei 30Watt rum und die Grafikkarte SOC wird 55C warm und der RAM bis 60C wegegen Zero Fan. Das runterstellen der Hz bringt auch nichts mehr seit dem der zweite Monitor nicht mehr 1080p ist.
Es ist super ärgerlich, dass der Desktopbetrieb im Idle von 8 auf 30W angestiegen ist!
Jegliche Kommunikation mit dem AMD Support verläuft im Sande, auch das Reporting im AMD Treiber bringt nichts. :(
@Wolfgang gibt es eine Möglichkeit, dass CB mal bei AMD anklopft deswegen? Workarounds mit den CTR Tool sollten hier nicht die Lösung sein :/
 
Nero2019 schrieb:
@G5y
deswegen wird sowas auch in GPU tests (im Bereich Leistungsaufnahme) getestet :D
Ein Monitor: 6W
Dual Monitor: 39W
Oh, ich hab das hier gar nicht im Test gesehen und je nach Seite die testet, fällt es auch nicht auf, wenn dual Monitore nur mit 60Hz betrieben wird.

Danke Dir.
 
Zuletzt bearbeitet:
Ist natürlich eine Frechheit dass nur die GPU selbst 39W verbrauchen muss um 2 Monitore betreiben zu können (im Desktopbetrieb).
Mein PC (3600+b450+gtx1050) und einen 24" Dell verbrauchen zusammen 38W im Idle. Hätte ich einen ITX B550 oder A520 Mainboard gekauft, wäre mein PC ~10W genügsamer unterwegs.
 
Bei NV geht der Verbrauch doch genauso hoch wenn man mehrere Monitore ranhängt....
 
nobody01 schrieb:
der (theoretische) Aufpreis lohnt sich aber nicht, da bekommt man keinen nennenswerten Mehrwert zum Referenzmodell, das schon sehr leise und kühl ist.
Mag ja für dich so sein.

Aber eine bessere Haptik, hochwertigere Materialien besserer Kühler,Höherer Takt sind Argumente, für die ich gerne mehr bezahle. Manchen reicht die "Standartkost"andere möchten gerne mehr.
Das sollte auch jeder selbst entscheiden.
 
MP42 schrieb:
Aber eine bessere Haptik, hochwertigere Materialien besserer Kühler
Bitte was..? Hattest du schonmal ne Referenz in der Hand? Das Teil besteht Quasi nur aus Metall und ist äußerst wertig verarbeitet.
Da kommt meine vergangene Nitro+ nicht mal annähernd ran.
 
  • Gefällt mir
Reaktionen: basic123, H1ldegunst und DisOrcus
Fuchiii schrieb:
Bitte was..? Hattest du schonmal ne Referenz in der Hand? Das Teil besteht Quasi nur aus Metall und ist äußerst wertig verarbeitet.
Da kommt meine vergangene Nitro+ nicht mal annähernd ran.
Ja ich hatte auch die Referenzkarte in der Hand und jetzt?
Vergleiche ich die Referenzkarte 6800XT ist diese Leichter ,kleiner und mit weniger Boost am Start. Nehme ich zum Beispiel die XFX 6800XT Black Gaming hat diese einen größeren Kühler und ist folgerichtig schwerer, länger und wiegt einiges mehr. Der Korpus besteht aus Leichtmetall und die Haptik ist um längen besser als die der Referenz RX 6800XT.
Und da gibt es bestimmt noch andere Custom-Designs die besser Gelungen sind als die der Referenzkarte.
 
MP42 schrieb:
Der Korpus besteht aus Leichtmetall
Genauso wie bei der Referenz. Die im übrigen auch 1,5kg wiegt.
Die meisten custom-Designs haben eine Plastikabdeckung, nix mit haptik.

Du stellst es so dar, als wären diese dem Referenz-Design qualitativ grundlegend überlegen. Dem ist nicht so ;)
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben