Test AMD Radeon RX 6800 XT im Test: RDNA 2 gegen Nvidia GeForce RTX 3000

Sixwinged schrieb:
Falsche Marke, du musst schon eine AMD Radeon der 6800er-Serie nehmen. Ist bei Mindfactory aber auch ausverkauft:

https://www.mindfactory.de/product_...-Aktiv-PCIe-2-1-x16--Lite-Retail-_727155.html

radeon.jpg
 
Ist das so, dass der Grafikspeicherbedarf zwingen steigt? Das wird man sehen.
Also die 4k-Konsolen haben alle 16 GB RAM maximal... nicht VRAM... und 4K ist scheinbar auch eh uninteressant auf dem PC. Es hängt natürlich auch essentiell von den Spielen und den Ansprüchen ab... ein gemoddetes Skyrim kann sich auch schnell über mehr VRAM freuen...

Man muss wissen, was man braucht, was zu einem passt. Und was in 2 Jahren ist, ist einem Enthusiast eigentlich doch eh egal... für die Zukunft kaufen hat sich eigentlich noch nie gelohnt ... außer heute, weil man die Sachen ja teurer verkaufen kann.

Schuhkarton schrieb:
Dadurch das Igor suggeriert hatte, dass die 6800xt leicht besser als die 3080er sein soll, bin ich ein winzelchen enttäuscht.
Ich glaub, mir geht es da ähnlich. Ich finde auch, dass Igor irgendwie solche "Andeutungen" gemacht hat... auch wenn es gute Karten sind und endlich mal wieder eine Konkurrenz für NVIDIA da ist..
 
yummycandy schrieb:
Was leider total unwichtig ist, weil der erste Eindruck beim Test gebildet wird. In den seltensten Fällen interessiert sich jemand danach für nochmalige Tests
Das war früher mal so. Jetzt wo es die karten erst Monate später wirklich zu kaufen gibt könnte das durchaus anders sein. :p
 
  • Gefällt mir
Reaktionen: GERmaximus
Als arbeitender Mensch hatte ich nichtmal ne Chance eine zu kaufen.
 
  • Gefällt mir
Reaktionen: Zitterrochen, EyBananaJoe, Fighter1993 und 2 andere
flug_rosetto schrieb:
die sache ist nur das du die 3070 nicht für 499€ bekommst!
Gestern war die sogar vergleichsweise einfach zu bekommen via nbb. Man muss das im Blick haben oder den Luxx Ampere Verfügbarkeitsthread verfolgen.
 
  • Gefällt mir
Reaktionen: Slayher666
Affenzahn schrieb:
Das dacht ich mir auch beim Balkenvergleich. Niemals hätt ich es für möglich gehalten dass die in relativ kurzer Zeit so viel Boden gut machen. Chapeau.

Kurze Zeit? AMD war seit R290 im Graka Markt quasi keine Option. Das ist auch schon ein paar Jahre her. Man ist nach all den Jahren knapp bei der Leistung der Konkurrenz, in Zukunftstechnik weiterhin weit dahinter (man muss hier nichts beschönigen). Es ist schön zu sehen, dass AMD nun wieder eine Option ist, aber Chapeau? Ne, nun wirklich nicht.

yummycandy schrieb:
Die Anzahl der Karten ist wirklich nicht berauschend. Aber Leute, nächste Woche kommen doch
schon die Partnerkarten. Beim Amperelaunch starteten diese gleichzeitig mit den FE.

Naja, bleibt am Ende wohl dennoch ein Paper-Launch wie bei Nvidia.
 
Naja, Verfügbarkeit war das eine @hRy - aber bei 789€ hab ich das MF Fenster geschlossen und mir ein Frust-Bier aufgemacht.
 
  • Gefällt mir
Reaktionen: Kalsarikännit, Schuhkarton, hRy und 3 andere
Goozilla schrieb:
Echt enttäuschend mit der Raytracing Leistung hatte da mehr erhofft.
DAS hatte man aber über Nvidias Turing Generation auch gesagt.


Alleine die 2080Ti galt dort als "soweit wenig eingeschränkt Raytracing tauglich auf den optisch guten Settings".
Und diese 2080Ti Turing = 3070 Ampere RT Hürde war Nvidias höchste vor 2 Jahren.

RDNA 2 ist nun AMDs erste Raytracing Nummer.

Vergleicht einfachmal
6900XT Raytracing mit der 2080ti
6800XT Raytracing mit der 2080

und
6800 Raytracing mit der 2070.

Also Generation 1 gegen Generation 1.

Wie sehr wird Nvidia hier vermöbelt, aus der Perspektive? ;)
 
  • Gefällt mir
Reaktionen: EyBananaJoe, C3LLoX, GERmaximus und eine weitere Person
OzzTheBozz schrieb:
Halte nicht viel von eurem Parcour! Wolcen? Really? Da geht es nur darum AMD's Gesamtrating zu reduzieren. Bei allen modernen guten Titeln liegen beide gleichauf.
Wundert mich bei Wolfgang nicht... war immer so und er wird es wohl auch nicht mehr „lernen“... Volker hat es denn nun endlich mal mit dem („momentanen“) Desaster von Intel „zwangsläufig“ gelernt... und Mr. LaRocco ist mit BMW/ Mercedes und Apple auch noch immer auf seiner Fanboy-Wolke... mal sehen, wie lange noch... 🤓
 
  • Gefällt mir
Reaktionen: Crankson, Oldtekkno und feris
Der Test ist schön und ausführlich, der SAM Teil von meinem Verständnis her aber gleich doppelt falsch.

SAM gibt der CPU Leistung der GPU ab. Ob das etwas bringt sieht man daher im CPU Limit.
Ein Test hätte also erstens niedrigere Auflösungen und zweitens eine schwächere CPU und nicht das 16-Kern Monster erfordert.
Mit einem auf 4 Kerne teildeaktiviertem Ryzen 5xx0 und in FHD hätte man sehen können ob es etwas bringt. Das wäre für die Zukunft sehr interessant. Es könnte bedeuten, das ein 5600x ewig als Spiele CPU hält, mittelfristig könnte es bei weiterer Plattformverbreitung das Killerfeature für RDNA2 werden, wenn man damit z.B. Ryzen der ersten Generation oder sogar 7700K und ähnliche beschleunigen könnte.
 
Inxession schrieb:
Der OC Spielraum mach Raum für bombastische Partnerkarten.
Da bin ich echt gespannt.

Naja... Ist eher wie bei Ampere. Da kommt nicht mehr viel dabei rum:

Durch die Übertaktung konnten wir die Leistung der Radeon RX 6800 um bis zu 4 % steigern. Nicht jedes Spiel skaliert hier gut mit und zudem sind die 2.350 MHz ein Takt, den die Karte im Boost und unter guten Bedingungen ohnehin schon fast erreicht. Bei der Radeon RX 6800 XT wird ein Plus zwischen 5 und 7 % erreicht. Hier konnten wir den Takt allerdings auch wesentlich höher treiben. Das Leistungsplus beider Karten rechtfertigt nicht den höheren Verbrauch. AMD betreibt die GPUs bereits in einem möglichst idealen Fenster und dementsprechend gering ist das Leistungsplus.
-Aus dem Luxx Test
 
  • Gefällt mir
Reaktionen: Laphonso
MoritzBerlin schrieb:
Also... glücklicherweise konnte ich sowohl 3070 als auch 6800 ergattern. Was nun?

Wenn du die 3070 für 499 oder knapp drüber bekommen hast, dann die. Nvidia arbeitet ja bereits an einem SAM-Klon.
 
  • Gefällt mir
Reaktionen: MoritzBerlin
@Wolfgang
Vielen Dank für den sehr ausführlichen Test :)
Habt ihr bei den Performancebetrachtungen einmal analysiert, wie sehr sich ein FPS-Limit auswirkt?
Performance/Watt ist zwar schön und gut, aber die Leistungsaufnahme steigt mit steigender Auslastung des Chips doch stärker, oder?
also: 140FPS haben doch ein schlechteres Performance/Watt Verhältnis, als wenn die FPS bspw. auf 60 limitiert werden.
Wie ist da allgemein die Einstellung von CB? Die Grafikkarte auf "gebrechen" 140FPS und mehr berechnen lassen, den Chip auf 80-100% Anschlag laufen lassen, oder mit V-Sync oder anderen FPS-limitierenden Mitteln ein "gesundes" Maß an Leistung fordern, damit der Monitor entsprechend bedient wird? (also 60Hz, 144Hz, ...)

Ich persönlich bin kein Enthusiast oder "Pro-Gamer", ich glaube, die wenigsten Spieler merken einen spürbaren Unterschied zwischen 140FPS und 60FPS, wenn sie an einem 60Hz Monitor spielen. Meine Grafikkarte habe ich mittels AMD Catalyst auf 60FPS limitiert und damit die Leistungsaufnahme, Wärmeentwicklung und Lautstärke stark gesenkt. Natürlich steigt der Verbrauch dann, je anspruchsvoller das Spiel wird.

Ein Leistungslimit ist auch nicht vergleichbar mit dem FPS limit, da auch mit 225W noch weit mehr als 60FPS berechnet werden können. Sollte es nicht aber zielführend sein, nur die Bilder zu berechnen, die auch dargestellt werden können, also nur die Leistung zu verbrauchen, die wirklich benötigt wird?

Zum Bewerten der generellen Leistungsfähigkeit einer Grafikkarte muss sie natürlich am Maximum laufen :) Das ist mir klar. Aber so im "alltäglichen Leben" hebelt V-Sync dies doch sowieso aus, oder?
 
"In Ghost Recon Breakpoint reichen auch die 10 GB der GeForce RTX 3080 für maximale Performance nicht aus, hier sind die 16 GB Speicher der beiden Radeon-Grafikkarten klar im Vorteil. Wie sich das zeigt? Bei den Durchschnitts-FPS ergeht es den Radeon-Grafikkarten zwar nicht gut, die Radeon RX 6800 XT ist 10 Prozent langsamer als die GeForce RTX 3080. Bei den Perzentil-FPS schneidet die Radeon RX 6800 XT dann aber plötzlich 2 Prozent besser ab – da die höchste Texturstufe des Spiels in den 16-GB-Speicher passt."
sie liegt aber ( die 3080 mit 10gb ) in eurem test aber vorne. und auf diese perzentil-fps kann ich verzichten.
 
  • Gefällt mir
Reaktionen: Pulsar77
Novasun schrieb:
Sorry der Spruch ist doch für die Tonne... Oder fallen bei dir GPU Chip Designs so vom Himmel? Es ist von NV doch total scheisse das die jetzt erst Ampere gelauncht haben... Echt jetzt.... :confused_alt:

Man hätte theoretisch die Architektur schon fertig, hat sich aber dazu entschieden, in Midrange Segment zu bleiben, obwohl High-End möglich gewesen wäre. Am Ende wird es wohl such Entscheidung von Frau An gewesen sein. Aber auf jeden Fall interessant, dass man mit Navi gleichwertig ist, weil eben wegen dieser Entscheidung doch viele daran gezweifelt haben.
 
Laphonso schrieb:
Also Generation 1 gegen Generation 1.
Das es aber mittlerweile Gen2 gibt, interessiert dieser Vergleich eigentlich niemanden. Fakt ist: AMD hat ein super Produkt abgeliefert. Aber sie haben nvidia weder in Leistung noch in Verfügbarkeit rasiert. Also war der Hype nur teilweise real ;)
 
  • Gefällt mir
Reaktionen: Oneplusfan und cbmik
KlaraElfer schrieb:
Vorsicht, AMD ist in Legion so stark, weil da offenbar bisschen was nicht berechnet wird. ;)

Spannend wird es für uns alle doch mit Cyberpunk im 1:1 Optik Vergleich.

Raytracing Konsolen vs RDNA2 vs Ampere.

Finde ich ^^
 
  • Gefällt mir
Reaktionen: GERmaximus
Zurück
Oben