Test AMD Radeon RX 6800 XT im Test: RDNA 2 gegen Nvidia GeForce RTX 3000

hasentier schrieb:
Schöner Test, ich werde wohl lieber eine Nvidia 3000er kaufen, wenn ich mir den Verbrauch außerhalb von Games anschaue, gerade im Dual Monitor Betrieb, doppelt so hoch, leider nix für mich, das die das nicht hinbekommen?!

Viel Spaß beim lesen ... :-)

https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-oc-uv/

"Auch auf die Leistungsaufnahme hat das Undervolting Einfluss. Diese reduziert sich um ordentliche 45 Watt, die Radeon RX 6800 braucht dann nur noch rund 183 Watt beim Spielen. "

MfG Föhn.
 

Anhänge

  • 3090 bis 550 Watt.jpg
    3090 bis 550 Watt.jpg
    405,6 KB · Aufrufe: 386
Wolfgang schrieb:
Artikel-Update: Bremst der Infinity Cache in hohen Auflösungen wie Ultra HD?

Ja der Infinity Cache ist einfach geil. Chapeu AMD hier mit so einer Idee solche Leistung zu erzielen und technisch mal wieder Vorreiter zu sein.
 
  • Gefällt mir
Reaktionen: ro///M3o, DarkerThanBlack, 122messi122 und 4 andere
@Wolfgang

Danke für das Artikel Update.

Es ist schön zu sehen, dass der Infinity Cache in hohen Auflösungen wie Ultra HD nicht zur Verschlechterung der Performance führt und nicht zu einer Bremse wird.

Somit passt es, dass die 6800XT auch in 4K eine gute Karte ist.

Mal abgesehen von RT und DLSS und den daraus resultierenden Entwicklungen seitens AMD.
Hier hoffe ich ebenso noch auf einige Verbesserungen seitens Treiber, der Features (FidelityFX, Super Resolution) und Unterstützung der Spiele-Entwickler in den kommenden Monaten.
 
  • Gefällt mir
Reaktionen: ro///M3o
Onkel Föhn schrieb:
"Auch auf die Leistungsaufnahme hat das Undervolting Einfluss. Diese reduziert sich um ordentliche 45 Watt, die Radeon RX 6800 braucht dann nur noch rund 183 Watt beim Spielen. "
aber er hat doch explizit vom Verbrauch auch außerhalb von Games gesprochen...
von daher
 
  • Gefällt mir
Reaktionen: HolySkillet und Tzk
Ich bin schon gespannt auf die nächste Navi-Generation.
Würde mich nicht wundern, wenn sie dann vorbeiziehen.
 
hasentier schrieb:
Schöner Test, ich werde wohl lieber eine Nvidia 3000er kaufen, wenn ich mir den Verbrauch außerhalb von Games anschaue, gerade im Dual Monitor Betrieb, doppelt so hoch, leider nix für mich, das die das nicht hinbekommen?!

Dafür verbrauchen die aber im Spielebetrieb mehr. Aber mal ehrlich, ich kann Argumentationen verstehen wenn der Stromverbrauch unterschied bei mehr wie 100 Watt liegt, aber wenn es sich grade mal um teilweise 30 Watt handelt dann hat man wohl wirklich keine anderen Probleme. Das soll kein Angriff sein, sondern einfach nur eine Meinung. Da gibt es im Haushalt teils deutlich höhere Einsparpontentiale wenn es darum geht.
Ich finde es gut das es nun deutlich mehr Auswahl gibt - für jeden ist was dabei.
 
Sorry aber persönlich sehe ich nicht wie Speicher OC eine limitierung des IC zeigt oder eben nicht.

Der 5K Test schon eher, wobei es hier wohl auch Titel braucht die einen besonders hohen Vram Bedarf haben um hier wirklich einen Grenzbereich zu finden.
 
  • Gefällt mir
Reaktionen: BacShea, stevefrogs und fox40phil
Motkachler schrieb:
Wenn speicher fehlt wird die Texturqualität drastisch reduziert.
Wäre echt mal interessant, den gezielt zu untersuchen, wie sich Spiele am Speicherlimit verhalten. Also ob die Texturen da sichtbar reduziert werden und dann mit weniger verfügbarem Speicher sogar etwas mehr FPS liefern. Schwierigkeit ist dabei halt nur, dass man die Speichermenge nicht unabhängig von der restlichen Leistung der Grafikkarte testen kann. Bei RAM baut man einfach entsprechend weniger ein, bei Grafikspeicher müsste man eine Grafikkarte mit der zu testenden Menge nehmen, die dann aber auch wieder andere Leistungswerte hat.
 
owned139 schrieb:
Also agiert RDNA2 im CPU Limit Welten besser als Ampere? Das ist ja echt hart.
Meine CPU ist nicht mal zu 50% ausgelastet und bremst trotzdem die GPU...

AC:Valhalla soll kein großes CPU-limit haben, hat doch PCGH gezeigt.
Außerdem ist das mit der GPU-Auslastung(eher dem geringen Verbrauch, was ja aufs selbe rauskommt, egal was die "GPU-usage" im afterburner zeigt) auch schon so in AC:Odissey gewesen.
 
Mit 183 Watt Verbrauch könnte ich meine 5700xt gegen die 6800 austauschen und mein bq pp10 400 W Netzteil behalten :daumen:
 
  • Gefällt mir
Reaktionen: Nico99
schkai schrieb:
Aber mal ehrlich, ich kann Argumentationen verstehen wenn der Stromverbrauch unterschied bei mehr wie 100 Watt liegt, aber wenn es sich grade mal um teilweise 30 Watt handelt dann hat man wohl wirklich keine anderen Probleme
Und 30 Watt Unterschied machen im Jahr rund 81€ (knapp 7€/Monat) aus wenn der PC 24/7 läuft, wird also beim Durchschnittsnutzer noch deutlich drunter liegen.
 
Wolfgang schrieb:
Artikel-Update: Bremst der Infinity Cache in hohen Auflösungen wie Ultra HD? Das hat sich die Redaktion genauer angesehen und auch, wie viel mehr Performance die hohen GPU-Taktraten bringen. Zudem wird die Leistung der Radeon RX 6800 XT verglichen, wenn sie denselben Takt wie die Radeon RX 5700 XT hätte, und es sind Benchmarks in 5K hinzugekommen.
Mit den 8300=4x2075 liegt die Messung auch safe unter einer evtl. Fehlerkorrektur.
Danke für den Zusatztest!

You are the Best
(vorbildlich, wie die Red. mit den Foren zusamenarbeitet)
 
thuNDa schrieb:
AC:Valhalla soll kein großes CPU-limit haben, hat doch PCGH gezeigt.
Außerdem ist das mit der GPU-Auslastung(eher dem geringen Verbrauch, was ja aufs selbe rauskommt, egal was die "GPU-usage" im afterburner zeigt) auch schon so in AC:Odissey gewesen.
Aber das verlinkte Video zeigt doch das genau Gegenteil? Mit CPU OC steigt dort die FPS.
Im Video ist eine 3090@Stock mit UWQHD. Der erreicht dort FPS-Werte die ich in 1080p mit der selben Karte habe.
 
mibbio schrieb:
Und 30 Watt Unterschied machen im Jahr rund 81€ (knapp 7€/Monat) aus wenn der PC 24/7 läuft,
Wer Monitore 24/7 laufen lässt, braucht sich über 30 Watt im Multimonitor-Betrieb nicht aufregen. Wenn mein PC etwas zu tun hat, ohne dass ich dabei sein muss, sind alle Monitore aus. Den zweiten Monitor schalte ich nur ein, wenn ich ihn wirklich brauche.
 
  • Gefällt mir
Reaktionen: Zitterrochen, stevefrogs, DannyA4 und 2 andere
Es wird diese Karten anscheinend niemals zu kaufen geben. Ebay 1000 Euro Angebote zähle ich nicht mit. Die Produktion wird Anfang nächsten Jahres schon eingestellt.
 
mibbio schrieb:
Und 30 Watt Unterschied machen im Jahr rund 81€ (knapp 7€/Monat) aus wenn der PC 24/7 läuft, wird also beim Durchschnittsnutzer noch deutlich drunter liegen.

Unrealistische Milchmädchenrechnung. Wer seinen PC ohne ihn zu Nutzen 24/7 mit 2 eingeschalteten Monitoren laufen lässt und sich im gleichen Atemzug über 20 - 30 Watt unterschied beschwert hat definitiv andere Probleme.
 
  • Gefällt mir
Reaktionen: Zitterrochen, BacShea, Obvision und 8 andere
mibbio schrieb:
Und 30 Watt Unterschied machen im Jahr rund 81€ (knapp 7€/Monat) aus wenn der PC 24/7 läuft, wird also beim Durchschnittsnutzer noch deutlich drunter liegen.
Alleine schon weil ungenutzte Hardware in den Standby schaltet.
 
Wird die nächste(n) Gen(s) halt wirklich interessant :)

Mehr Innovationen sind Klasse.
 
Zurück
Oben