• ComputerBase erhält eine Provision für Käufe über eBay-Links.

Test Radeon RX 6900 XT im Test: AMDs „RX 6800 XTX“ im Duell mit Nvidias GeForce RTX 3090

GerryB schrieb:
(x) Mich stört, das oft in den Reviews SAM als extra Test geführt wird und man nur durch eigenständiges Vergleichen ne echte Info bekommt.

Dann sollte man gleiches mit DLSS machen falls verfügbar.

Da beide Techniken aber nicht für jeden und immer verfügbar sind, gibt es halt Sondertests.
 
  • Gefällt mir
Reaktionen: LukS und stevefrogs
Wadenbeisser schrieb:
Streichst du im Gegenzug auch alle Titel bei denen nvidia fleißig mit optimiert hat?
Ich bin mal gespannt womit du dann noch testen willst.
Es geht nicht ums optimieren, sondern darum, dass Nvidia aktiv gebremst wird!
Selbst AMD optimierte Titel können Nvidia Karten auslasten, laufen nur schneller auf AMD, aber das ist hier nicht der Fall. Es liegen ungenutzte Kapazitäten brach bei AC:V und Nv, denn sie werden nicht zu 100% ausgelastet.
 
Baal Netbeck schrieb:
Ich bin von einer Nvidia GTX680 zu AMD gewechselt...so Spiele wie TW:Rome oder Witcher 1, StarCraft 2, die vorher schon unschön im CPU Limit liefen, sind nochmal 20% schlechter geworden.
Ich hoffe du hast den Geforce Treiber mit seinen Zusatzprogrammen vorher von der Platte gefegt denn bei einem Wechsel in diese Richtung hatte ich früher schon öfter Probleme.
Beide Treiber gründlich von der Platte putzen und anschließend den Radeon Treiber wieder installieren, danach lief es bei mir rund.
Scheinbar gräbt sich der Geforce Treiber zu tief in das System ein.
Ergänzung ()

@owned139

Es geht um exakt den gleichen Punkt, eine Software sie auf der Hardware der Konkurrenz suboptimal läuft. Das sich die GPU bei dir nicht langweilt sieht man ja an der Auslastung von 96%.
Das gleiche Spiel hast du mit den Gameworks Spielchen, welche nvidia natürlich nur für die eigene Hardware optimieren dürfte, die meisten bisherigen RT Umsetzungen, welche mangels anderer Hardware in der Entwicklungszeit natürlich auch auf nvidias Hardware ausgerichtet sein dürften und von Sachen wie das beschleunigte Physx und DLSS schweigen wir mal ganz.

Wärst du also konsequent dürfte kaum ein testbares Spiel noch übrig bleiben und gerade die meist gespielten Titel sind praktisch komplett vom Tisch.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: eXe777, Iscaran, lnnz und eine weitere Person
Wadenbeisser schrieb:
@owned139

Es geht um exakt den gleichen Punkt, eine Software sie auf der Hardware der Konkurrenz suboptimal läuft. Das sich die GPU bei dir nicht langweilt sieht man ja an der Auslastung von 96%.
Das gleiche Spiel hast du mit den Gameworks Spielchen, welche nvidia natürlich nur für die eigene Hardware optimieren dürfte, die meisten bisherigen RT Umsetzungen, welche mangels anderer Hardware in der Entwicklungszeit natürlich auch auf nvidias Hardware ausgerichtet sein dürften und von Sachen wie das beschleunigte Physx und DLSS schweigen wir mal ganz.

Wärst du also konsequent dürfte kaum ein testbares Spiel noch übrig bleiben und gerade die meist gespielten Titel sind praktisch komplett vom Tisch.
Achte nicht auf die Auslastung, sondern auf die Wattzahl ;)
350W sind 100% Auslastung. In 1080p sinds nur 270W und nein, das hast du mit Gameworks nicht.
Zeig mir einen Gameworkstitel in dem AMD 23% unter dem Powerlimit liegt. Du vergleichst hier Äpfel mit Birnen.

Karten werden durch unterschiedliche Limits gebremst: Powerlimit, Templimit, Taktlimit.
Frage an dich: Welches Limit bremst in diesem Spiel?

Ich geb dirn Hint: Powerlimit liegt bei 350W, Templimit bei 93°C und Taktlimit jenseits der 2GHz.

Und selbst wenn wir dein Argument mit Gameworks nehmen, dann wurde das immer kritisiert und jetzt ist es auf einmal okay, weil es AMD auch macht? Was ist das bitte für ne Doppelmoral?
 
Zuletzt bearbeitet von einem Moderator:
owned139 schrieb:
Achte nicht auf die Auslastung, sondern auf die Wattzahl ;)
350W sind 100% Auslastung. In 1080p sinds nur 270W und nein, das hast du mit Gameworks nicht.
Zeig mir einen Gameworkstitel in dem AMD 23% unter dem Powerlimit liegt in einem Gameworkstitel. Du vergleichst hier Äpfel mit Birnen.
Wäre auch mal interessant zu wissen, warum eine RTX 3090 mit AC:Val nicht richtig ausgelastet wird in 1440p.

@.Sentinel. Liegt's vielleicht an zu vielen Integer-Operationen oder an einer ungünstigen Thread-Gruppierung, die den Warp-Scheduler dahinrafft? Da Turing auch schon zu kämpfen hat mit dem Game, wird's wohl nicht an Integer-Ops liegen.
 
  • Gefällt mir
Reaktionen: stevefrogs, owned139 und Colindo
HW unboxed hat es gut zusammengefasst: Diese Karte ist einfach ein Witz. 50% Aufpreis zur 5800XT bei 5% Mehrleistung und ohne mehr VRAM. Aber gut, jeden Tag steht ein Dummer auf, man muss ihn nur finden.
 
silerberlin schrieb:
Diese Karte ist einfach ein Witz. 50% Aufpreis zur 5800XT bei 5% Mehrleistung und ohne mehr VRAM.
Wenn du die Konkurrenz außen vor lässt stimmt das. Im Kontext mit der 3080 und 3090 hat die Karte jedoch einen Platz.
 
Wadenbeisser schrieb:
Beide Treiber gründlich von der Platte putzen und anschließend den Radeon Treiber wieder installieren, danach lief es bei mir rund.
Scheinbar gräbt sich der Geforce Treiber zu tief in das System ein.
War bei mir in Ordnung.... Ich hatte erst beide Treiber installiert und habe die Karten hin und her getauscht .... Dann habe ich Windows neu installiert und nur mit der AMD Karte weiter gemacht... Dass hat aber die gleichen Ergebnisse gebracht.
Also bei mir haben sich die zwei Treiber nicht beeinflusst.

Aber das will ich nicht generalisieren....den ungenutzten Treiber sollte man nicht weiter auf dem System halten ... Er ist ja eine mögliche Fehlerquelle.
 
  • Gefällt mir
Reaktionen: adAstra
Bin nicht sehr begeistert was AMD so abzieht.
So eine schlechte Verfügbarkeit hat nach den Vorschusslorbeeren wohl keiner erwartet.

Dazu immer noch keine konkrete Info/Tests zu SuperResolution(?).

Durch die schlechte Verfügbarkeit steigen die Preise für Grafikkarten wieder extrem an.🤮
Habe nur durch Glück eine 3060Ti nahe UVP bekommen.
Dazu gibt es gar keinen Gegenspieler für die RTX 3060Ti, welche für die Masse extrem interessant wäre. Januar kommt dann erst der RX 6700 Paper Launch. Da hat schon jeder eine gescheite 3060 Ti abgegriffen. Bei der Leistung einer 3060Ti braucht kaum einer mehr als 8GB.

Die Preise für die RX wirken nicht wirklich stimmig, weil es so rüberkommt als ob man nVidia abgehängt hat, was aber nicht so ist.
AMD ist bei GPUs eigentlich immer noch nicht in der Situation Preise bestimmen zu können, was man auch gut in Foren und Umfragen erkennt und auch mein Empfinden widerspiegelt.
 
  • Gefällt mir
Reaktionen: stevefrogs
@Baal Netbeck

Wie gesagt, meiner Erfahrung nach lief der Wechsel von der Radeon zur Geforce recht problemlos ab und auch der Parallelbetrieb verlief bei dieser Ausgangssituation recht unproblematisch aber beim Wechsel von der Geforce auf eine Radeon zickten einige Spiele teils deutlich rum.
Mal war die Framerate nicht da wo sie sein sollte, mal war sie sehr unregelmäßig und in wenigen Fällen gab es auch Stabilitätsprobleme.
Nachdem beide Treiber von der Platte gehauen wurden und der Treiber der Radeon neu installiert wurde liefen die Systeme idR. so wie erwartet.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
owned139 schrieb:
Achte nicht auf die Auslastung, sondern auf die Wattzahl ;)
350W sind 100% Auslastung. In 1080p sinds nur 270W und nein, das hast du mit Gameworks nicht.
Zeig mir einen Gameworkstitel in dem AMD 23% unter dem Powerlimit liegt. Du vergleichst hier Äpfel mit Birnen.
Es geht immer um die GPU Auslastung, der Geforce passt einfach nur der Code nicht. Vermutlich ist er einfach nicht so FPU lastig wie sie es gern hätte und kommt deshalb nicht aus dem Knick.
Gerade bei Gameworks Titeln gab es öfters mal Beispiele wo die Radeons nicht so performten wie sie sollten.
Das über den Verbrauch ausmachen zu wollen ist dank der Boost Mechanismen witzlos denn den kann man auch trotz schlechter Einheitenauslastung über den Takt hochjagen weil der Chip mit dem hohen Takt ganz einfach eine schlechtere Energieeffizienz bekommt. Solange da genug Spielraum ist sieht man da recht wenig.

Für das was du willst hatte ich aus dem GPGPU Bereich mit Seti@home ein extremes Beispiel denn die WUs Projekts lief auf Radeons mehr als nur suboptimal. Da fuhr z.B. eine R9 Nano den vollen Boost Takt von 1000 MHz voll aus und zog dennoch nur gute 100W und selbst eine Vega64 fuhr ihren Boost Takt bei moderaten Strombedarf voll aus. Die Laufzeiten warenn dennoch gegenüber den Geforce Karten eher lausig. Leider wurde das Projekt auf Eis gelegt.
Als extremes Gegenbeispiel wäre hier z.B. Einstein@home anzusehen, bei dem die Radeons in Sachen Performance und Strombedarf zu Biestern werden. Da kroch die R9 Nano meiner Erinnerung nach bei 750-800MHz rum und fuhr die TDP von 175W voll aus aber der WU output war sehr ordentlich.
 
Zuletzt bearbeitet von einem Moderator:
ZeroStrat schrieb:
Ich finde, dass auch diese beiden Optionen nicht wirklich attraktiv sind. Der 6800XT fehlt das AI-Upscaling (und letztlich auch die konstante Leistung über einen breiten Parcours) und der RTX 3080 der Speicher. Eine 20GB Variante der RTX 3080 wäre deutlich interessanter, wäre aber vermutlich wiederum unverhältnismäßig teuer.
Wo fehlt der 6800XT denn Leistung über den breiten Parcour? Wegen RT? Oder wegen der Wolcen Schwäche in FHD?
Wegen etwas schwächerer RT Leistung und (noch) fehlendes Upscaling kann man das ja verstehen, aber dafür ist die 6800XT günstiger, hat richtig dimensionierten VRAM und dazu ist sie effizienter. Finde ich keine großen Nachteile und sehr auf Augenhöhe mit der 3080.
 
  • Gefällt mir
Reaktionen: cookie_dent, mydayyy, Oldtekkno und eine weitere Person
@GerryB ah ja Alternate .. Gab es hierzulande eigentlich noch einen Shop der die Karte wie Scalpernate für über 2000 Euro angeboten hat? Der Laden ist für mich bis zum Ende aller Tage absolut unten durch. Naja und die Preise von MF bewegen sich langsam aber sicher auch auf sehr sehr dünnem Eis.
 
danyundsahne schrieb:
Wo fehlt der 6800XT denn Leistung über den breiten Parcour?
Ich habe hier mal ein paar Extrembeispiele zusammengetragen. Ich finde die Ausreißer nach unten bemerkenswert. Insgesamt sind die Ausreißer nach unten stärker ausgeprägt als die Ausreißer nach oben. Deswegen komme ich zu der Aussage, dass die Leistung nicht sehr konstant ist über einen breiten Parcours.
 
  • Gefällt mir
Reaktionen: Baal Netbeck und Iscaran
Iotis schrieb:
ah ja Alternate .. Gab es hierzulande eigentlich noch einen Shop der die Karte wie Scalpernate für über 2000 Euro angeboten hat?
Cash... äh Caseking ist auch lustig.
Geh mal auf die Seite, gib zB "Crucial" im Suchfeld ein.... alles paletti.
Gib mal "6900" ein und es kommt eine CloudFlare Vorschaltseite.
:daumen:
 
  • Gefällt mir
Reaktionen: cma_i, DannyA4 und Apocalypse
owned139 schrieb:
In AC:V läuft meine 3090 mit angezogener Handbremse (270W in 1080p und 327W in 4K), während AMD voll rauspowert. Sowas kann man nicht als Benchmark nutzen :stock:
Nur liegt das an den Spielen an sich oder der Integer Schwäche der RTX30 Karten? Man hat ja die FP Leistung nur deshalb so massive steigern können, weil die Integrer Performance auf dem Level der Vergängerkarten belassen wurde.

Das war prinzipiell eine sehr gute Entscheidung, die FP Einheiten bekommt Nvidia so jetzt in 4k wohl ausgelastet und 1080p mag man nun generell die Karte nicht mehr voll auslasten können, aber wen interessiert das schon.
Ist ein Spiel jetzt aber besonders Integer lastig … hat man wahrscheinlich das alte Problem von Vega und Fury X. Man bekommt die ganzen vielen Cores nicht ausgelastet, weil man einen Bottleneck hat.

Also, woran liegt es bei AC:V? Also vom riesen Boost mit SAM mal abgesehen, den Nvidia ja irgendwann nächstes Jahr ja auch bekommen sollte.
 
Wadenbeisser schrieb:
Es geht immer um die GPU Auslastung, der Geforce passt einfach nur der Code nicht. Vermutlich ist er einfach nicht so FPU lastig wie sie es gern hätte und kommt deshalb nicht aus dem Knick.
Vermutlich? Sonst wieder immer alles hinterfragt, aber hier wirds hingenommen, weil der Favorit den längeren Balken hat. Wieso also das Problem ansprechen? Könnte ja passieren, das AMD auf einmal zurückfällt ;)


Wadenbeisser schrieb:
Gerade bei Gameworks Titeln gab es öfters mal Beispiele wo die Radeons nicht so performten wie sie sollten.
Das über den Verbrauch ausmachen zu wollen ist dank der Boost Mechanismen witzlos denn den kann man auch trotz schlechter Einheitenauslastung über den Takt hochjagen weil der Chip mit dem hohen Takt ganz einfach eine schlechtere Energieeffizienz bekommt. Solange da genug Spielraum ist sieht man da recht wenig.
In BF5 häng ich dauerhaft in 1080p bei 350W. Dauerhaft.
In AC:V erreiche ich diese NIE, nichtmal in 4K.

Hast du überhaupt ne Amperekarte und weißt, wie sie sich in den Spielen verhält?!
 
@ZeroStrat

Ich habe mir angewöhnt bei den Radeons bei Ausreißern nach unten immer auf die CPU Auslastung zu achten.
Gibt es hier deutliche Abweichungen nach unten im Vergleich zur entsprechenden Geforce und hängt auch noch recht sauber bei einem entsprechenden Bruchteil der Kern/Thread Zahl dann rauschen die Spiele dort ganz einfach in ihr CPU Limit, weil sie selbst ganz einfach nicht mehr nutzen können, und bei nvidia greift ihr Multicore Workaround. In besonders harten Fällen kann man das auch recht deutlich an der GPU Auslastung sehen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck und Iscaran
Zurück
Oben