Test Radeon RX 6900 XT im Test: AMDs „RX 6800 XTX“ im Duell mit Nvidias GeForce RTX 3090

gustlegga schrieb:
Geh mal auf die Seite, gib zB "Crucial" im Suchfeld ein.... alles paletti.
Gib mal "6900" ein und es kommt eine CloudFlare Vorschaltseite.
Die haben bei den 6800ern ne DDoS Sicherung drin, da kann sich wohl jeder selbst zusammenreimen warum. 😆
(Bot alarm?)
 
ZeroStrat schrieb:
Die 3080 fällt gegenüber der 6800XT nicht so weit ab wie umgekehrt.
Nein, sie fällt prozentual teilweise sogar weiter ab.. in jedem Fall fallen die beiden Karten sehr ähnlich ab. Rechne es dir einfach in % um......
 
Fuchiii schrieb:
Nein, sie fällt prozentual teilweise sogar weiter ab.. in jedem Fall fallen die beiden Karten sehr ähnlich ab. Rechne es dir einfach in % um......
Was hast du denn gerechnet? Ich komme auf 36% (Desperados 3) vs. 19% (AC:Val).
 
matty2580 schrieb:
Laut 3dcenter, 2 Posts davor habe ich es verlinkt, ist die 3090 10% besser als die 6900, gemittelt über 14 Tests.

Ich vertraue da natürlich wie immer CB. Viele andere Seiten sind dann von den Test her eher.... Naja. Hier auf CB ist die RX 6090XT in 4K auf 3090 Level, passt so.

Bin seit heute morgen dennoch am überleben doch eine NVidia GPU zu kaufen. Man liest dann doch ab und an das einige Spiele doch deutlich schlechter laufen, auch hier in dem Thread (mir fällt der User gerade nicht mehr ein).

Nur bietet NVidia meiner Meinung nach momentan einfach nix gutes an. Die RTX 3080 hat mir definitiv zu wenig Speicher und die RTX 3090 ist oft doppelt so teuer für extrem wenig Leistung. Argh, ich bin verwirrt und weiß nicht was ich kaufen soll :)
 
owned139 schrieb:
Vermutlich? Sonst wieder immer alles hinterfragt, aber hier wirds hingenommen, weil der Favorit den längeren Balken hat. Wieso also das Problem ansprechen? Könnte ja passieren, das AMD auf einmal zurückfällt ;)
Die Multicore Geschichte wurde in der Vergangenheit bereits untersucht und erläutert, das die Gameworks Geschichte von nvidia nicht für die Architekturen anderer Hersteller optimiert wird liegt wohl extrem nahe und der Aussschluss der Konkurrenz bei der beim beschleunigten Physx und DLSS (auch die Varianten ohne Tensor Cores) ist Fakt.
Und selbstverständlich kann ich bei der Code Zusammensetzung nur Vermutungen anstellen, schließlich habe ich darin keinen Einblick.
Die Ampere Architektur hat nunmal das Problem das sie ein FP lastiges Design besitzt und bei zunehmenden Int Anteil immer weiter auf das Turing Niveau zurück fällt.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
owned139 schrieb:
Es geht nicht ums optimieren, sondern darum, dass Nvidia aktiv gebremst wird!

Dann bitte auch die Titel entfernen die AMD bremsen. Wolcen oder Trackmania als Beispiel.
 
  • Gefällt mir
Reaktionen: eXe777, Iscaran und schkai
@ZeroStrat
Wieso nimmt man einen Ausreißer wie Squadrons als Referenz....?
Abgesehen dvon kannst du doch nicht mit verschiedenen Spielen rechnen!

Gehst du von Battlefield V mit beiden Karten auf Watchdogs runter, landest du bei 38% bei der 3080 und 40% bei der 6800XT.

Einzelne Ausreißer in Form von extremen wird es immer geben.
 
  • Gefällt mir
Reaktionen: LukS und joomoo
Wadenbeisser schrieb:
Die Ampere Architektur hat nunmal das Problem das sie ein FP lastiges Design besitzt und bei zunehmenden Int Anteil immer weiter auf das Turing Niveau zurück fällt.
Ein anderer User schrieb bereits, dass es auf Turing auch so ist und dort existiert kein FP lastiges Design.

Pisaro schrieb:
Dann bitte auch die Titel entfernen die AMD bremsen. Wolcen oder Trackmania als Beispiel.
Wenn dort AMD nachweislich nicht richtig ausgelastet wird (nicht zu verwechseln mit nicht optimiert!), dann bin ich da voll und ganz bei dir.

ZeroStrat schrieb:
Echt jetzt? Ich bin in 3440x1440 und Kantenglättung auf max schon bei knapp über 320 Watt.
Habs nicht lange in 4K gezockt, aber die 350W hab ich nicht gesehen.
 
  • Gefällt mir
Reaktionen: Pisaro
@owned139 Letztlich ist AC:Val nicht im Parcours enthalten. Es wird gesondert getestet. Ich find's übrigens klasse, dass @Wolfgang sich die Mühe gemacht hat, einen kleinen Miniparcours zu erstellen, der moderne Spiele enthält. Das hat sehr interessante Infos generiert.
 
  • Gefällt mir
Reaktionen: Esenel, Baal Netbeck, nospherato und 4 andere
Mal was anderes: Wieso testet eigentlich niemand Godfall? Hab da vor ein paar Tage mal geschaut, aber gefühlt scheint das Spiel kaum jemanden zu interessieren.
 
  • Gefällt mir
Reaktionen: DannyA4
Ist das nicht ein PS5 exclusive? Da wird's nicht viel zu testen geben
 
Für einen aktuellen Parkour war es wahrscheinlich einfach zu knapp. Die getesteten neuen Games zeigen ja ganz gut wo die Reise zukünftig hingeht
 
  • Gefällt mir
Reaktionen: DannyA4
Ich freue mich schon auf die Retro Artikel zu aktueller Hardware in 10-15 Jahren. Wenn die RX 6900 XT oder RTX 3090 nur für Office Aufgaben gut genug sind.
 
  • Gefällt mir
Reaktionen: SunnyStar und Sly123
owned139 schrieb:
Ein anderer User schrieb bereits, dass es auf Turing auch so ist und dort existiert kein FP lastiges Design.
Dann bräuchte man tieferen Einblick in den Code um Ursachenforschung betreiben zu können, also genau das was wir nicht haben.

Einseitige Optimierung war schon immer ein Problem, auch wenn es im Bezug zu Geforce like Games nur allso gern ignoriert oder beispielsweise mit der Begründung das es AMD eben auch so machen solle gar befürwortet wurde.
Nun tauchen einige Spiele auf bei denen es so sein könnte und auf einmal ist das Geschrei groß.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Es ist halt so, dass Nvidia's Flaggschiff nun nicht mehr per se die schnellste Gamingkarte ist. Daran muss man sich erst noch gewöhnen. ^^ Warum das letztlich teilweise so ist, wird man vielleicht mit GPU-Profilern und Erfahrung einigermaßen ergründen können, aber man wird es nicht ändern können.

Wenn Nvidia's mega starkes Treiberteam das nicht ändern kann (oder wenigstens halbwegs umschiffen), dann wird's wohl was Grundlegendes in der Engine sein.

@.Sentinel. Bietet eigentlich jedes moderne Spiel heutzutage die Möglichkeit, dass die Shader in Abhängigkeit von der gerade verwendeten Hardware angepasst (vor)kompiliert werden können?
 
  • Gefällt mir
Reaktionen: Baal Netbeck und PS828
Und das warten geht weiter mal sehen, ob im Januar eine 3080TI mit 20 GB Vram kommt. Und ob sie Lieferbar sein wird!
 
@Redaktion Vielen Dank für den Test 👍 Wäre es möglich in Zukunft auch die Leistungsaufnahme auf dem Desktop mit 144 Hz zu messen?

Vor allem ältere AMD-Karten haben da gewaltige Probleme, meine RX580 "frisst" z.B. direkt um die 30 W MEHR, da der Speichertakt immer am Anschlag läuft (ähnlich wie beim Multimonitor-Betrieb). Resultat ist dann ein immer wieder aufheulender Lüfter da der Zero-Fan Modus dann nicht mehr zur Kühlung ausreicht.
 
  • Gefällt mir
Reaktionen: Fighter1993 und DannyA4
Zurück
Oben