Test AMD Radeon RX 6800 XT im Test: RDNA 2 gegen Nvidia GeForce RTX 3000

nekro1 schrieb:
JA sobald die Spannung zu hoch ist landen wir wohl in einem Temp Limit, aktuell liegen ja nur durch Powerlimiterhöhung gut und gerne 300-350W an und da ist halt Ende, hier hilft eigentlich nur noch ne Wakü.

Aktuell fährt man ganz gut nur durch PL +15% , leichtem Ram OC und etwas minimierter VCore.

Auf wieviel % Leistungsplus hast du es dadurch etwa geschafft? Werde meine morgen wohl einbauen und mich dann auch mal ans OC rantrauen. :)
 
@TKessel

1605990635935.png


1605990665043.png
 
  • Gefällt mir
Reaktionen: TKessel
@Wolfgang
Besteht die Chance das du/ihr auch noch einen Vergleich von Nvenc vs. VCE anstellt?
Big Navi hat ja eine neue VCE Revision und ist evtl auch hier näher an der Qualität vom Nvenc.

Ebenso würde mich das Verhalten der Karten im Multimonitorbetrieb interessieren wenn unterschiedliche Bildwiederholraten anliegen. Meine 1080 Taktet zb immer voll wenn zwei 144Hz Monitore dran hängen, egal ob Desktop oder ingame.
 
  • Gefällt mir
Reaktionen: sebastian1 und eyefinity87
Spectre_XIII schrieb:
@Wolfgang
Besteht die Chance das du/ihr auch noch einen Vergleich von Nvenc vs. VCE anstellt?
Big Navi hat ja eine neue VCE Revision und ist evtl auch hier näher an der Qualität vom Nvenc.

Ebenso würde mich das Verhalten der Karten im Multimonitorbetrieb interessieren wenn unterschiedliche Bildwiederholraten anliegen. Meine 1080 Taktet zb immer voll wenn zwei 144Hz Monitore dran hängen, egal ob Desktop oder ingame.
Also meine Taktet nicht allzu hoch (1x 144hz FreeSync WQHD und 1x 144hz WQHD). Bin bei ~40W und Takt ist im einstelligen-niedrigen zweistelligen Bereich.

Allerdings verliert er ab und an den zweiten Monitor. Ein- Ausschalten und er erkennt den wieder.
Denke mal Kinderkrankheit.

Habe aber auch das Problem nicht bei meiner 1080 gehabt wie du mit deiner.
 
Firstdim schrieb:
Ich wiederhole mich... meine Vega56, hat laut Radeon 170W Schnitt, es kann doch nicht sein, oder ?
Untervoltet hat sie das ja
 
OK meine geht zurück per Fernabsatz:


Das Spulenfiepen ist mir zu krass, die soll in einen ultra silent Rechner mit Wasserkühlung.
 
DaBo87 schrieb:
Aber wollt des mal posten. Gibts vllt noch wen mit der Erfahrung?

Ich habe bei AMD um 15:17 Uhr eine XL geschossen. Bisher hat sich auch nichts bewegt.
 
sebbolein schrieb:
Das Spulenfiepen ist mir zu krass, die soll in einen ultra silent Rechner mit Wasserkühlung.
Das selbe Problem habe ich auch. Schade eigentlich da mir die Karte in einigen Punkten besser gefallen hat wie meine 3080.
Meine geht an einen Arbeitskollegen dem das nicht stört oder geht zurück.
 
PS828 schrieb:
@4to cka3al woher weißt du das? PT 50+- Prozent ging eigentlich immer in den vergangenen Jahren
Hier ist die Quelle als Video mit Begründung und Messungen. Die Info für deine Frage von Min. 2 bis Min 3.
Ergänzung ()

Apocalypse schrieb:
Das Mittel das du verlinkt hast geht "aktuell" nur für den VRAM meines Wissens nach.
Der Rest vom BIOS ist zu. Ob es eine Lösung für die Zukunft gibt das wird sich zeigen müssen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PS828
Firstdim schrieb:
Gibt es irgend Relation/Zusammenhang zwischen Verbrauch des Chips und Graka ?
Du hast bei meiner Chip Werten 60W drauf addiert.
Kommt ganz auf die Karte an, bei Vega56 muss man eben schauen, was so gemessen wurde, hier z.b.
Screenshot 2020-11-22 014328.png


Das Standard BIOS der Vega56 gibt dem Chip 165W, das Quiet BIOS 150.
Wenn deine Sapphire ein custom Design ist, können die beiden Limits auch höher ausfallen, die 228W wurden zumindest mit dem 165W BIOS gemessen.


Bei der 5700XT fällt die Differenz geringer aus, hier hat die Referenz ein Chip Limit von 185W und verbrauchte nur 210W im Test, könnte daran liegen, dass neuerdings über die TGP statt über die TDP geregelt wird, bei der Vega56 also auch der Verbrauch des Speichers noch oben drauf kam, welcher bei der 5700XT bereits eingeschlossen ist.
 
  • Gefällt mir
Reaktionen: Firstdim
Spectre_XIII schrieb:
......
Big Navi hat ja eine neue VCE Revision und ist evtl auch hier näher an der Qualität vom Nvenc.
Linustechtips hat es kurz angetestet und die Qualität bewegt sich auf schon bekannten NAVI Niveau.
AMD hat einen Game Changer vorgestellt und nicht das Leistungspaket aus Hardware und Software von nvidia.

Das belegt auch die Breite an den bis jetzt verfügbaren Benchmarks, wo die Produktivseite weniger beleuchtet wird und @FormatC aufgrund von Treiberunzulänglichkeiten den Produktivparcour abgebrochen.

Ein anderes Problem zeigt sich auch mit den Monitoranschlüssen mit 2 DP und 1 HDMI bei der Referenzkarte. Das ist bei dem Preis für PC Multimonitorbetrieb einfach unwürdig. Sowas gab es im kleineren 300€ Segment, wie der RTX2060 und die VEGA 56 habe ich ja aufgrund von 3 DP gekauft. Zwei DP sind bei mir schon belegt, ein weiterer Monitor steht auch an, weil die 60W CCFL bei den heutigen Strompreisen für einen Hauptmonitor unwirtschaftlich werden und der Monitor wird garantiert nicht am HDMI Anschluss enden. USB-C für Bildausgabe ist wie Starkstrom auf Gardena. Mein Blackberry Q10 hat noch einen zusätzlichen micro-HDMI Ausgang und vollwertiges Miracast. Minimale Innovation wäre bei der AMD 6000 Serie 3 DP, HDMI und Miracast Unterstützung, wo die Leistungswerte mit Latenz auch für VR ausreichen und man hier bei Software und mit Produktpartnern für kommende Produkte zuammen arbeitet.

@Wolfgang
In der Tabelle ist immer noch ein Fehler. ;)
3 x DisplayPort 1.4 DSC

-
Für mich hat AMD durch die Breite der von mir gelesenen Tests den Turing Test bei den möglichen Anwendungsbreite nicht bestanden und darf zur Strafe nun neben einem Volta auch einen Stromschlag erhalten.:D
 
Zuletzt bearbeitet:
Visionmaster schrieb:
Hab schon gelesen, dass jemand die 6800XT an nem 550W Netzteil betreibt. Können das mehr bestätigen? Bedeutet die Bedarfsspitzen sind nicht so krass wie bei den 3080/3090, oder?
Fazit von mir, 550W funktioniert problemlos, entsprechende Qualität des Netzteils vorausgesetzt. Mein 3950X + 6800 XT verbrauchen aus der Dose max. ~480W beim Spielen. Die allerhöchste Spitze, die ich je gesehen habe, waren 513W. Wohlgemerkt aus der Dose. Bei 92% Effizienz bedeutet das also konkret maximal 475 Watt Auslastung. Die Lastspitzen im ms Bereich sind bestimmt höher und kratzen oder knacken die 550W eventuell sogar. Aber ich habe gerade nachgesehen und bei meinem 550W be quiet! Straight Power 11 schaltet die OPP (Over Power Protection) erst bei ca. 720 Watt das Netzteil aus und die 850W Variante hat laut diesem Test bis hin zur OPP Grenze noch einwandfreie 11,98V auf der 12V Schiene geliefert. Nehme an, dass es bei der 550W Variante nicht anders aussieht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Killer1980
@xexex
Deswegen auch auch der Gardena Vergleich. Nur weil der Stecker auch andere Signale führen könnte, wird es nicht zur besseren Lösung. USB will zuviel und hat selbst lange gebraucht als serielle Datenleitung zu taugen.
Oder anders ausgesagt. AMD würde weit weniger Grafikkarten verkaufen, wenn sie 2 HDMI und 1 DP anbieten würden, weil ernsthafte Monitornutzer kein HDMi nutzen. HDMI ist auch nur ein Steckerformat, aber stark gekoppelt an die HDMI Multimedia Spezifikationen. Bei DP kann man wenigstens zusätzlich auf HDMI runter gehen.

Nur weil selbst EIZO ColorEdge Monitore über USB-C Bildsignale annehmen können, würde ich es trotzdem nicht stationär betreiben. Das ist eine Konsumentenschnittstelle und SFF Anschlüsse (Smallformfactor) ersetzt man auch nicht durch USB, nur weil es urplötzlich technisch machbar wird. Infiniband über USB-C. Ab da sollte die Industrie keine Spezifikationen mehr auslegen. Ich bin von einer SFF-8087 Steckverbindung überzeugt mir keine Gedanken darüber zu machen Datenfehler zu übertragen und RJ45 hat genauso seine Daseinsberechtigung sich nicht über 404 zu ärgern und wenn über die eine Schnitstelle Festplatten und über die Andere Netzwerk geht, dann soll diese Zuverlässigkeit bitte auch so bleiben und nicht HDMI mit Netzwerkleiter auch noch Ethernet Anschlussstandard werden.
 
Der Nachbar schrieb:
Deswegen auch auch der Gardena Vergleich. Nur weil der Stecker auch andere Signale führen könnte, wird es nicht zur besseren Lösung.

Ich glaube du hast den Sinn hinter USB Alt Mode nicht verstanden. Bei DP gibt es schon seit zig Jahren mehr als nur die klobigen Stecker und DP über USB-C wurde ebenfalls schon 2014 verabschiedet.
 
Zurück
Oben